Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

michu_roztocz

Moje osobiste przemyślenia dot. RTX 3080 oraz podkręcania/obniżania napięcia

Rekomendowane odpowiedzi

I jakie są twoje wnioski. Bo widzę ścianę daremnego bełkotu  tekstu i stek nic nie znaczącego bullshitu. Sprzedajesz te karty. Dla jakiego sklepu pracujesz co ?Dlaczego nie pisze jak te karty sa syfiaste w niskich rozdzielczościach sutter goni sutter .Spadki klatek,a testerzy testują ryzenki i głoszą po tysiąc fpsów .Piekna reklamóweczka cienkiej karty jak barszcz i jeszcze sie chwali że przepłacił.A grasz w RDR2 na 4k w ULTRA ,może Kingdom Come.Total war czy nowe WDL czy  nowe AC.Witaj w klubie wyznawców zielonych .Juz za taki stek reklamówek bym ci wlepił bana.Poczytaj na reddicie jak ludzie mają problemy. Co za noob.Zapewne zaraz polecisz do administracji na skarge jak kazdy noob z tej strony.

[Hardware Unboxed] Why the RTX 3080 Isn't as Amazing @ 1440p, CPU or Architectural Bottleneck? : AMD_Stock (reddit.com)

  • Confused 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
52 minuty temu, yufyiyadri napisał:

I jakie są twoje wnioski. Bo widzę ścianę daremnego bełkotu  tekstu i stek nic nie znaczącego bullshitu. Sprzedajesz te karty. Dla jakiego sklepu pracujesz co ?Dlaczego nie pisze jak te karty sa syfiaste w niskich rozdzielczościach sutter goni sutter .Spadki klatek,a testerzy testują ryzenki i głoszą po tysiąc fpsów .Piekna reklamóweczka cienkiej karty jak barszcz i jeszcze sie chwali że przepłacił.A grasz w RDR2 na 4k w ULTRA ,może Kingdom Come.Total war czy nowe WDL czy  nowe AC.Witaj w klubie wyznawców zielonych .Juz za taki stek reklamówek bym ci wlepił bana.Poczytaj na reddicie jak ludzie mają problemy. Co za noob.Zapewne zaraz polecisz do administracji na skarge jak kazdy noob z tej strony.

[Hardware Unboxed] Why the RTX 3080 Isn't as Amazing @ 1440p, CPU or Architectural Bottleneck? : AMD_Stock (reddit.com)

A poza tym wszystko w porządku?

  • Like 2
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 godzin temu, kowallosu napisał:

Między innymi w gearsach w których teraz. Dobija na chwile, ale jednak dobija. Jak dla mnie ewidentnie ten bios nie jest dopracowany. Natomiast jeśli UV na 0.88v przy taktowaniu 1900-1920 bedzie stabilne, to z karty bede ogólnie zadowolony. Wydajność jest wspaniała, a różnice w kolejnych odkładanych MHz na rdzeniu są marginalne. 

Niestety nie mam Gearsów żeby potwierdzić zachowanie karty. Trochę też nie rozumiem - w jednym poście napisałeś, że jesteś z karty niezadowolony, a w drugim - że z karty jesteś / będziesz ogólnie zadowolony.

  

15 godzin temu, yufyiyadri napisał:

I jakie są twoje wnioski. Bo widzę ścianę daremnego bełkotu  tekstu i stek nic nie znaczącego bullshitu. Sprzedajesz te karty. Dla jakiego sklepu pracujesz co ?Dlaczego nie pisze jak te karty sa syfiaste w niskich rozdzielczościach sutter goni sutter .Spadki klatek,a testerzy testują ryzenki i głoszą po tysiąc fpsów .Piekna reklamóweczka cienkiej karty jak barszcz i jeszcze sie chwali że przepłacił.A grasz w RDR2 na 4k w ULTRA ,może Kingdom Come.Total war czy nowe WDL czy  nowe AC.Witaj w klubie wyznawców zielonych .Juz za taki stek reklamówek bym ci wlepił bana.Poczytaj na reddicie jak ludzie mają problemy. Co za noob.Zapewne zaraz polecisz do administracji na skarge jak kazdy noob z tej strony.

[Hardware Unboxed] Why the RTX 3080 Isn't as Amazing @ 1440p, CPU or Architectural Bottleneck? : AMD_Stock (reddit.com)

Hmm... nawet nie chce mi się odpowiadać ?

Jeśli pracowałbym dla sklepu, nie wkładałbym raczej karty do 3-letniego komputera, który umiarkowanie się do niej nadaje.

Wielokrotnie miałem wątpliwości co do testów Hardware Unboxed - według ich np. 7800X ma wydajność w grach porównywalną z Ryzenem 5 2600, gdzie ja osobiście widzę raczej wydajność bliżsżą 3600X, ale zostawmy to na bok.

Mówienie o "problemach z wydajonścią" gdy karty generują setki FPS w grach jest lekkim nadużyciem według mnie. Mam być niezadowolony z tego, że wydajność nie spada znacząco po przejściu z 1440p na 2160p? Cytując fajny komentarz:

"So as a short summary, instead of upgrading from a 2080TI to a 3080 you should downgrade from a 4K monitor to a 720P monitor for better performance."

Przyjdą bardziej wymagające gry, to i wydajność z rozdzielczością będzie skalować się lepiej.

Nie wiem też czym jest "sutter", ale nie doświadczam żadnych przycięć, a na OLEDzie 4k 120Hz z G-Sync z pewnością takowe bym zauważył, gdyby wystąpiły.

Nie mogę się wypowiedzieć na temat gier których nie posiadam. Obecnie ogrywam Star Wars Jedi Fallen Order oraz Horizon Zero Dawn z RDR2 oraz zamówieniem na CP2077 czekającymi na swoją kolej. Gry które wymieniłeś nie leżą w obszarze moich zainteresowań.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@michu_roztocz No i wlasnie to jest ten problem. Bo z jednej strony (wydajność) karta jest rewelacyjna. Natomiast odkąd ja mam komputer zamienił mi sie w piekarnik plus to zrzucanie taktowań jest dla mnie nielogiczne. 
sprobuje wymienic chłodzenie na procesor, jak nie pomoże bede musiał zainwestować w lepsza obudowę. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, kowallosu napisał:

@michu_roztocz No i wlasnie to jest ten problem. Bo z jednej strony (wydajność) karta jest rewelacyjna. Natomiast odkąd ja mam komputer zamienił mi sie w piekarnik plus to zrzucanie taktowań jest dla mnie nielogiczne. 
sprobuje wymienic chłodzenie na procesor, jak nie pomoże bede musiał zainwestować w lepsza obudowę. 

Te karty grzeją. U mnie w p600s z 2x140mm i 1x120mm front; aio 280mm top i 1x140mm tył, na wylotach jest gorąco przy maksymalnym przewiewie powietrza. Jednak gdzieś to ciepło musi uciec. Dla 3080 musiałem zwiększyć obroty na wentylach obudowy z max 700rpm na 2070 do 850rpm na 3080 :D 

Edytowane przez Kaczorex26

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, kowallosu napisał:

@michu_roztocz No i wlasnie to jest ten problem. Bo z jednej strony (wydajność) karta jest rewelacyjna. Natomiast odkąd ja mam komputer zamienił mi sie w piekarnik plus to zrzucanie taktowań jest dla mnie nielogiczne. 
sprobuje wymienic chłodzenie na procesor, jak nie pomoże bede musiał zainwestować w lepsza obudowę. 

Co miałeś przed 3080?
3070? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
27 minut temu, Kaczorex26 napisał:

Te karty grzeją. U mnie w p600s z 2x140mm i 1x120mm front; aio 280mm top i 1x140mm tył, na wylotach jest gorąco przy maksymalnym przewiewie powietrza. Jednak gdzieś to ciepło musi uciec. Dla 3080 musiałem zwiększyć obroty na wentylach obudowy z max 700rpm na 2070 do 850rpm na 3080 :D 

O Panie to ja mam na procku 1650, a tylny i górny na 1200... na karcie 1900, ale te wentyle na karcie są bardzo ciche. 

 

29 minut temu, JeRRy_F3D napisał:

Co miałeś przed 3080?
3070? 

Tak, x-trio. Komputer pracowal wtedy wspaniałe. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, kowallosu napisał:

Tak, x-trio. Komputer pracowal wtedy wspaniałe. 

No właśnie.

Zaczynają mi "styki grać" ;) na myśl o 3080 ;), bo na ten moment jestem zachwycony. Na okoliczność 30xx (w oczekiwaniu i z nudów) zmieniłem mobo i cpu (na 10400), mały, kulturalny cepik (w grach 55'C) do tego teraz ten kulturalny Palit 3070 (zimny, cichy - pulpit 28'C przy 33% wentyla z defaulta - a jak zrobię wentyl stop - 33'C, gry zwykle 60 62'C) - poezja!

I boję się, że czar pryśnie, jak przyjdzie 3080. ;)

 

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, kowallosu napisał:

@michu_roztocz No i wlasnie to jest ten problem. Bo z jednej strony (wydajność) karta jest rewelacyjna. Natomiast odkąd ja mam komputer zamienił mi sie w piekarnik plus to zrzucanie taktowań jest dla mnie nielogiczne. 
sprobuje wymienic chłodzenie na procesor, jak nie pomoże bede musiał zainwestować w lepsza obudowę. 

No niestety TDP rzędu 320-370W zależnie od wersji robi niestety swoje. Dlatego wszyscy robią UV, choć widzę po testach w 4k, że i nawet wtedy pobór prądu potrafi przekraczać 300W w niektórych grach (w Star Wars Jedi Fallen Order widuję 330W przy 1860MHz/0,856V).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 27.11.2020 o 09:29, michu_roztocz napisał:

724W wbija się w trakcie jednoczesnego odpalenia Prime95 Small FFTs + FurMark. Na domyślnych ustawieniach w Time Spy pobór utrzymuje się poniżej 600W. Mimo wszystko, 9900K nie ma startu do podkręconego 7800X jeśli chodzi o pobór prądu ;) No i mój 6-letni RM750 nie jest najbardziej efektywnym zasilaczem na świecie.

człowieniu Prime95 Small to jakies zuooo jest :] nie jestem tego w stanie odpalic na dłuzej niz pare minut bo mi się procesor zaczyna topić :P. Nawet testując sam proc zmiana z Prime Blend na Small zwieksza uzycie mocy o 120W.

Niemniej jednak zrobilem test Furmark + Priem95 Small i wyszlo 680W, sprawność przy takim obciazeniu mam 90% wiec wychodzi ze zasilacz podaje max 612W

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, moskil napisał:

człowieniu Prime95 Small to jakies zuooo jest :] nie jestem tego w stanie odpalic na dłuzej niz pare minut bo mi się procesor zaczyna topić :P. Nawet testując sam proc zmiana z Prime Blend na Small zwieksza uzycie mocy o 120W.

Niemniej jednak zrobilem test Furmark + Priem95 Small i wyszlo 680W, sprawność przy takim obciazeniu mam 90% wiec wychodzi ze zasilacz podaje max 612W

Ano nikt nie mówił że jest letko :D u mnie zużycie prądu przez procesor przekracza mocno 200W w takim scenariuszu, gdzie na codzień nie widziałem więcej niż TDP czyli 140W.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, michu_roztocz napisał:

Ano nikt nie mówił że jest letko :D u mnie zużycie prądu przez procesor przekracza mocno 200W w takim scenariuszu, gdzie na codzień nie widziałem więcej niż TDP czyli 140W.

 

Dajcie spokój z tym narzędziem szatana :szczerbaty: Na 3900x pierwszy raz tam widziałem 170W, a skowyt jaki wydał z siebie Liquid Freezer II brzmiał jakby agonalnie :D 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.11.2020 o 15:41, michu_roztocz napisał:

Obiecałem w wątku zakupowym, że podzielę się swoimi wynikami i obserwacjami na temat karty którą nabyłem, toteż po dwudziestu czterech godzinach od jej otrzymania postanowiłem spisać swoje obserwacje. Spędziłem parę ładnych godzin konfrontując znalezione w Internecie informacje z własnymi obserwacjami i chciałbym się tym z Wami podzielić.

Trochę o Gigabyte RTX 3080 Gaming OC

Udało mi się dokonać zakupu karty w sposób jakiego można pozazdrościć. Zamówienie złożyłem w poniedziałek i RTXa odebrałem we wtorek w cenie, która opiewała na „jedyne” +500-600PLN względem MSRP. Karta wyprodukowana została w tygodniu 42 bieżącego roku i – jak widać na zdjęciach - posiada poprawione wtyczki do zasilania. Więcej szczegółów można przeczytać tutaj:

https://www.overclockers.co.uk/forums/threads/3080-3090-3070-gigabyte-eagle-gaming-oc-vision-power-connector-concerns.18900176/

Nie spowodowało to jednak, że problem z wtykami w przedłużkach nie występuje. Nie byłem w stanie umieścić wtyczek zasilania w swojej karcie używając takiej ilości siły, którą uważam za komfortową, a dla uproszczenia próbowałem jeszcze przed włożeniem karty do komputera. Na zdjęciu nie jest to widoczne, ale gniazdo znajdujące się bliżej krawędzi karty posiadało jeden minimalnie wygięty pin. Po próbach włożenia wtyczki, wygięły się dwa kolejne i summa summarum, kilka minut zajęło mi podpięcie wtyczek zasilania - konieczne było prostowanie grubą igłą.

Więcej informacji dotyczących samej karty można znaleźć w internecie. Dość powiedzieć, że PCB oraz układ chłodzenia są współdzielone z kartą serią kart RTX 3090 Eagle / Gaming OC, choć sekcja zasilania jest zubożona. Co ciekawe, nie widziałem w internecie satysfakcjonujących mnie zdjęć tej karty, więc postanowiłem wykonać je samemu.

Undervolting

Przejdźmy do gorącego tematu dotyczącego nowych RTXów. Zanim zaczniemy o tym rozmawiać, teoretyczny wstępniak dotyczący poboru energii przez praktycznie dowolny kawałek krzemu. Każda współczesna karta graficzna (w przypadku Nvidii od GTXów 600) dysponuje mechanizmem Turbo. Implementacja różni zachowaniem zależnie od generacji, ale co do reguły wygląda to tak, że o ile zachowane są odpowiednie warunki termiczne, mechanizm stara się zachować jak najwyższą częstotliwość rdzenia karty graficznej w dostępnym budżecie energetycznym wyrażanym za pomocą parametru TDP.

Okej, wstęp teoretyczny mamy za sobą, ale po co można spytać? Otóż okazuje się, że karty RTX 30x0 z przyczyn o których można dyskutować, zostały fabrycznie bardzo mocno wyżyłowane, przez co pracują daleko poza możliwościami jeśli chodzi o sprawność energetyczną. Są bardzo wydajne, ale jest to okupione bardzo wysokim poborem energii elektrycznej.

Jak wygląda to w przypadku Gigabyte Gaming OC? Moja karta zależnie od testu, startuje z okolic 2000MHz by zejść do 1950MHz w późniejszym czasie. Jest jeden ważny szczegół, który często zdaje się być pomijany: zależnie od testu. Potrafi zdarzyć się, że taktowanie spada poniżej 1900MHz. Jest to powód dla którego mam mieszane odczucia względem polecanego pospolicie poradnika dotyczącego obniżania napięcia na karcie Ampere:

https://wccftech.com/undervolting-ampere-geforce-rtx-3080-hidden-efficiency-potential/

Powyższa publikacja jest wartościowa i w zasadzie dobrze opisuje tematykę, lecz weryfikacja wyników mnie nie satysfakcjonuje – za mało testufff ;)

Nie będąc szanującą się redakcją ani nie dysponując zaawansowanymi narzędziami, nie jestem w stanie przeprowadzić testów na poziomie, który by mnie satysfakcjonował jako czytelnika, ale mogę spróbować się zbliżyć. Dlatego postanowiłem przeprowadzić testy w trzech scenariuszach: 3DMark Time Spy, Wiedźmin 3, Horizon Zero Dawn. Każdy w powtarzalnych warunkach, dlatego w Wiedźminie użyłem miejsca pomiarowego wykorzystywanego przez popularny Polski serwis, w Horizon Zero Dawn skorzystałem z wbudowanego testu wydajności, a 3DMark to 3DMark :)

Muszę jeszcze zaznaczyć, że choć wygrałem w loterii szczęścia jeśli chodzi o upolowanie swojego RTX 3080, tak na krzemowej loterii zdecydowanie przegrałem. W internecie znaleźć można posty ze znacznie lepszymi wynikami niż moje, ale mówię o tym dlatego, że – jak wiadomo – każdy będzie miał inne wyniki.

Jak podejść do tematu obniżania napięcia? Ja zrobiłem to w ten sposób, że założyłem napięcie startowe 0,85V i poszukałem maksymalnego stabilnego taktowania z pomocą poradnika podlinkowanego powyżej. Oto wyniki w Time Spy:

1845@0,85V +0MHz: 17275 | 112,18 | 99,36; GPU max 285W

Następnie spróbowałem obniżyć napięcie:

1845@0,843V +0MHz: fail @ 1860-1875

Jak widać, karta nie przeszła testu, lecz oportunistyczny Turbo Boost 3.0 podniósł taktowanie ponad wartości zapisane w tablicy. Aby zostawić pewien margines błędu, ustawiłem krzywą zaczynając od napięcia o poziom wyższego niż wcześniej. Jako iż byłem wtedy już po weryfikacji poziomów do których karta się podkręca, zaaplikowałem również umiarkowane przetaktowanie pamięci i oto wynik:

1845@0,856V +700MHz: 17595; GPU max 290W

Ostatecznie, po wyłączeniu całego oprogramowania w tle, oto wynik który udało mi się uzyskać:

uv: https://www.3dmark.com/spy/15561729

stock: https://www.3dmark.com/spy/15561962

oc: https://www.3dmark.com/spy/15560357

Skoro za pomocą 3DMarka zweryfikowałem wyniki, pora na resztę testów. Oto one:

Horizon Zero Dawn:

stock: max 1965MHz, avg 1950MHz, max 338W avg 320W, max 560W @ wall, avg 530W

                GPU FPS: 127 FPS / 112 FPS / 101 FPS (avg/95%/99%)

oc: max 2025MHz, avg 2000MHz, max 316W, avg 280W, max 524W @ wall, avg 500W

                GPU FPS: 130 FPS / 114 FPS / 103 FPS (avg/95%/99%)

uv: max 1860MHz, avg 1860MHz, max 249W, avg 230W, max 453W @ wall, avg 430W

                GPU FPS: 125 FPS / 109 FPS / 99 FPS (avg/95%/99%)

witcher 3:

stock: 560W -> 343W GPU -> 1720RPM (148FPS, 1950MHz)

oc: 545W -> 335W GPU -> 1837RPM (151FPS, 2010MHz)

uv: 470W -> 260W GPU -> 1530RPM (143FPS, 1860MHz)

Ups, zrobiłem mały spoiler w postaci wyników po oc, ale czy przpadkowo? Zaraz o tym opowiem. Na razie parę wniosków na podstawie wyników.

W przypadku testów mocno obciążających GPU wydajność po obniżeniu napięcia pracy może wzrosnąć, ponieważ na fabrycznych ustawieniach karta opiera się o swój próg TDP i aby go utrzymać, taktowanie rdzenia musi zostać znacząco obniżone. W testach rzeczywistych, gdzie obciążenie jest mniejsze, po obniżeniu napięcia karta traci możliwość wejścia na wyższe częstotliwości, ponieważ została „zablokowana” na konkretnych ustawieniach (w tym przypadku 1845MHz/0,856V).

W mniej wymagającym scenariuszu jaki reprezentuje Horizon Zero Dawn, karta pracująca na obniżonym napięciu zachowuje ponad 98% wydajności pobierając jedynie 72% energii elektrycznej.

Overclocking

Standardowo w kontekście kart RTX 3080 pada pytanie: po co ? Głównie dlatego, że spotkałem się ze stwierdzeniem, że kart Gigabyte nie da się podkręcić, ponieważ nie mają możliwości podniesienia budżetu energetycznego ponad 100%. Bzdura.

Moje doświadczenia są takie, że podkręcanie należy przeprowadzić zależnie od scenariusza w którym karta ma pracować. W moim przypadku, chciałem sprawdzić jak wysoki wynik w Time Spy uda mi się uzyskać, dlatego przeprowadziłem test z uruchomionym OSD, które wyświetlało z odświeżaniem co 1s napięcie z którym pracuje karta. W ten sposób możemy znaleźć najniższy stan energetyczny z którym karta pracuje w trakcie trwania testu, a potem wykorzystać go jako punkt startowy. W moim przypadku, na standardowych ustawieniach zdarzało się, że karta pracowała z napięciem 0,975V wciągając jednocześnie około 350W energii elektrycznej. To najbardziej wymagający fragment testu: karta musi znacząco obniżyć taktowanie i napięcie, by zmieścić się w budżecie energetycznym.

Postanowiłem użyć tego napięcia i powtórzyć w MSI Afterburner procedurę analogiczną do tej, którą przeprowadziłem w trakcie obniżania napięcia pracy. Prawdopodobnie lepsze wyniki uzyskałbym wykorzystując któryś z niższych stanów – należy pamiętać, że pobór prądu rośnie lawinowo wraz ze wzrostem napięcia zasilania układu, lecz częstotliwość również ma duży wpływ.

Zaczynając od 2060MHz, przeprowadzałem test w Time Spy i obniżałem taktowanie, aż osiągnąłem częstotliwość z którą karta była w stanie przejść go ze 100% powtarzalnością i okazało się, że maksymalne stabilne ustawienie przy 0,975V dla mojej karty to 2025MHz. Potem jeszcze weryfikacja ustawień pamięci:

2025@0,975V +0MHz: 17809

2025@0,975V +500MHz: 17976

2025@0,975V +1000MHz: 18047 | 117,28 | 103,73

2025@0,975V +1100MHz: 18026 | 117,58 | 103,28

2025@0,975V +900MHz: 18091 | 117,86 | 103,75

2025@0,975V +800MHz: 18074 | 117,59 | 103,79

I udało znaleźć się ustawienie optymalne dla mojej karty, konkretnie do testu Time Spy.

Użycie testu, który mniej obciąża kartę graficzną pozwoliłoby wykorzystać wyższe napięcie a tym samym przyspieszyć jeszcze rdzeń. Chodzi o to, by znaleźć takie ustawienie napięcia, które mieści się w narzuconym przez producenta limicie energetycznym i osiągnąć na nim jak najwyższe taktowanie.

Wyniki w trzech testach można sprawdzić w podpunkcie dotyczącym undervoltingu. Należy zwrócić uwagę na to, że w każdym teście poza Time Spy, karta pobierała znacznie mniej energii elektrycznej niż na fabrycznych ustawieniach. To pozwala stwierdzić, że wydajność w grach można jeszcze podnieść, dobierając częstotliwości przy napięciach powyżej 0,975V.

Zdjęcia

1.jpg.cb9c2a0ed84fad86a93f42a302f775c7.jpg 2.jpg.3ebcaa9947b965dc250b8ddfaac2e668.jpg 3.jpg.a6173e66f1f67f0fc7097a2c68d63279.jpg 4.jpg.a9b1568ad1b12af82aeb564c79e7a6ca.jpg 5.jpg.02524674e982cb02580e8171a261aae2.jpg 6.jpg.5c75dd626bec41aed0f115f6afe62934.jpg 7.jpg.38f10f38da0b2a08e9184097e9fc52ab.jpg

(po kliknięciu otworzy się większe zdjęcie)

Pojedynczy kabel

Na zdjęciach powyżej można zauważyć, że wykorzystuję pojedynczą wiązkę zasilacza do obu wtyczek na RTX 3080. Nie, nie polecam takiego rozwiązania. Nie, nie obawiam się o bezpieczeństwo swojego sprzętu. Uruchomiłem FurMark na 30 minut, który powoduje pobór energii na poziomie 350W, przy taktowaniu rzędu 1500MHz i napięciu około 0,8V, co wyjątkowo obciąża sekcję zasilania karty. Aby pogorszyć warunki, ręcznie ustawiłem wentylatory na prędkość 63% co wywołało wzrost temperatury do granicy 72*C powyżej której budżet energetyczny karty jest ograniczony ze względu na temperaturę. Przez cały czas trwania testu wydajność była ograniczana wyłącznie budżetem energetycznym. Na sam koniec zacząłem „macać” i mierzyć pirometrem kabel. Nigdzie nie znalazłem punktu na którym nie byłbym w stanie utrzymać ręki. Najcieplejsze miejsce, które udało mi się znaleźć za pomoca pirometru, miało temperaturę 53*C i był to kabel w miejscu nad wylotem powietrza nad kartą graficzną. Żadna z wtyczek nie miała ponad 40*C.

Poddaję to co napisałem pod krytykę i chętnie będę o tym dyskutował. Uważam jednak, że wykorzystując kartę w ustawieniach, które realnie podczas grania skutkują poborem energii na poziomie 230-260W, w dłuższej perspektywie czasu powinienem być bezpieczny. Nawet jak temperatura otoczenia wzrośnie o 10*C (obecnie wynosi 20,5*C).

Kultura pracy

Karta cechuje się umiarkowaną kulturą pracy, choć w moim egzemplarzu cewki są słyszalne w specyficznych warunkach. Często wymienianym tutaj testem jest menu Wiedźmina 3 z wyłączonym v-sync gdzie generowane jest około 2500-3000FPS. W takich warunkach cewki są słyszalne, ale nie jest to uciążliwe. Najgłośniej grają w 3DMark Vantage, gdzie karta potrafi wygenerować więcej niż 500FPS, a jednocześnie wysoki jest pobór energii elektrycznej. Jest taka scena w drugim teście, gdzie kamera przesuwa się z widoku na przestrzeń kosmiczną w stronę statku gdzie następuje spadek z około 800FPS do 500FPS. Słychać wtedy charakterystyczny, modulowany dźwięk, który można spróbować opisać w sposób "łłłłyyyyyyeeeeeeeeeeeee" ;) Podczas normalnego używania w grach, nawet gdy jest generowane 200-300 klatek na sekundę, cewki pozostają niesłyszalne, także w moim odczuciu problem nie jest dotkliwy.

Jeśli chodzi o hałas wentylatorów, to jest on zdecydowanie słyszalny. Przy poziomie 1100-1200RPM, gdy jedynym obciążonym elementem jest karta graficzna i pozostałe wentylatory pracują w okolicach 500RPM, szum jest słyszalny, lecz nie jest dokuczliwy. Podczas trwałego obciążenia rzędu 350W, obroty potrafią wzrosnąć do 2100RPM, ponieważ na biosie "OC" karta za wszelką cenę stara się utrzymać 64-65*C i wtedy szum jest dokuczliwy. Po wykonaniu UV, w grach, wentylatory pracują z prędkością około 1400-1500RPM i jest to według mnie poziom zupełnie akceptowalny. Jest znacznie ciszej niż na moim poprzednim Gigabyte GeForce GTX 1080 Gaming OC pracującym z domyślnymi ustawieniami, oraz wielokrotnie ciszej niż w EVGA GTX 760 z "suszarką". Nie mam nic do zarzucenia w tym aspekcie, choć inne autorskie konstrukcje są pod tym względem lepsze.

Dodatkowe obserwacje

Dla dotychczasowego opisu nie miało to znaczenia, ale kartę mam w komputerze, który znaleźć możecie w mojej sygnaturze. Gdyby coś miało ulec zmianie, wkleję tutaj konfigurację:

  • Intel Core i7 7800X @ 4,5GHz / 3GHz mesh | Noctua NH-D15 | Asus TUF X299 Mark 2 | 32768MB RAM @ 2933MHz CL14-16-16-35 2T
  • Gigabyte RTX 3080 Gaming OC
  • Samsung SM961 256GB | 2x Crucial MX100 256GB RAID0 | Seagate ST2000DM006
  • Corsair RM750 | Fractal Define R4 | 4x Noctua NF-A14 + 2x Noctua NF-P12

Nie jest to najbardziej fortunna konfiguracja, a do tego procesor i platforma słynne są ze swojego braku efektywności. Nie dysponuję obecnie narzędziem, by sterować wentylatorami w obudowie bezpośrednio korelując je z temperaturą karty graficznej. Efekt jest taki, że mogę bez problemu podgrzać układ chłodzenia procesora za pomocą karty graficznej, która znajduje się parę milimetrów niżej. Efekt taki, że gdy po długotrwałym obciążeniu karty graficznej obciążę wszystkie wątki procesora realnym obciążeniem, momentalnie osiągam 90*C na procesorze, które dopiero zaczyna spadać dzięki wentylatorom, które wchodzą na bardzo wysokie obroty. Nie wiem jak uniknąć tego zjawiska zachowując jednocześnie wysoką kulturę pracy.

No i pobór energii elektrycznej z gniazdka po sztucznym obciążeniu zarówno procesora jak i karty graficznej to skromne 724W.

Podsumowanie

Jeśli chodzi o samego Gigabyte Gaming OC to ciężko mi go porównywać z innymi konstrukcjami autosrskimi, ponieważ mam tylko tą kartę. Na podstawie testów znalezionych w internecie, w moim odczuciu plasuje się porównywalnie do Asusa TUF z delikatnym wskazaniem na tego drugiego. Lepiej rozwiązane jest chłodzenie kości pamięci i układu zasilania oraz nie ma tego dziwnego patentu z przedłużkami wtyczek zasilania. Mimo to, Gigabyte to solidna konstrukcja i nie spoglądam na Asusa zazdrosnym okiem

Napisałem ścianę tekstu i przez wysoki poziom niewyspania spowodowany intensywnymi testami, całość wyszła zdecydowanie mniej spójnie niż zakładałem, a całość okazała się rozwlekła. Dajcie znać co myślicie o tym tekście – być może dla kogoś okaże się wartościowy, a być może ktoś będzie miał uwagi – chętnie przyjmę konstruktywną krytykę. Niekonstruktywną mniej chętnie, ale hej – to przecież internet

Odkąd mam kartę nie odpaliłem ani raz żadnej gry w calach innych niż testowych na swoim komputerze i zamierzam to niebawem zmienić

 

!!WIP!! - jeszcze sporo edycji przede mną  

 

Bardzo dobrze napisane. Ja właśnie testuje swojego Ventusa ale ma ograniczenie do 320W. Daj wyniki w poszczególnych wersjach napięcia w Port Royal. Nie rób testów w Time Spy bo dużo w tym teście zależy od procesora i ramu ( A procka masz już starego :-) ). Port Royal obciąża kartę i to daje prawdziwy wynik wydajności. Czekam na testy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Też mam ten sam model karty i rzeczywiście na bios OC kultura pracy jest nie do zaakceptowania mimo niskich temperatur. Jeśli chodzi UV to jest z tym sporo zabawy. Inaczej karta boostuje w 1080p, a inaczej w 4k. Mi wystarcza 0.830V @1.850MHz + 500MHz w 4K oraz 0.875V@ 1920MHz +500 MHz w 1440p

Niestety właściwie chyba oprócz AORUS  to reszta modeli Gigabyte RTXy 3080 i 3090 na ustawieniach prosto z opakowania są suszarkami

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe to co piszesz, ja mam też ten sam model, postaram się opisać jutro jaki undervolting mi się udało uzyskać. Ogólnie w przypadku mojej karty undervolting okazał się być koniecznością, z powodu bardzo słyszalnego piszczenia, a raczej skrzeczenia cewek. Po undervoltingu cewek nie słychać, temperatura spadła o jakieś 10 stopni, a wydajność jest taka sama. Teraz jestem w busie, więc nie mogę powiedzieć jakie dokładnie mam wyniki i ustawienia, ale wydaje mi się że było to +1000 na pamięciach, rdzeń max 1905 czyli lekki underclock, maksymalne 65% wiatraka (zrobiłem sobie krzywą sam, bo domyślna jest beznadziejna) i temperatury ok. 60-75 stopni zależnie od gry. Napięcie nie wiem, ale w okolicach 0.82 albo 0.84.

Edytowane przez Pivoo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się

Komentowanie zawartości tej strony możliwe jest po zalogowaniu



Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...