Skocz do zawartości
michu_roztocz

Moje osobiste przemyślenia dot. RTX 3080 oraz podkręcania/obniżania napięcia

Rekomendowane odpowiedzi

Obiecałem w wątku zakupowym, że podzielę się swoimi wynikami i obserwacjami na temat karty którą nabyłem, toteż po dwudziestu czterech godzinach od jej otrzymania postanowiłem spisać swoje obserwacje. Spędziłem parę ładnych godzin konfrontując znalezione w Internecie informacje z własnymi obserwacjami i chciałbym się tym z Wami podzielić.

Trochę o Gigabyte RTX 3080 Gaming OC

Udało mi się dokonać zakupu karty w sposób jakiego można pozazdrościć. Zamówienie złożyłem w poniedziałek i RTXa odebrałem we wtorek w cenie, która opiewała na „jedyne” +500-600PLN względem MSRP. Karta wyprodukowana została w tygodniu 42 bieżącego roku i – jak widać na zdjęciach - posiada poprawione wtyczki do zasilania. Więcej szczegółów można przeczytać tutaj:

https://www.overclockers.co.uk/forums/threads/3080-3090-3070-gigabyte-eagle-gaming-oc-vision-power-connector-concerns.18900176/

Nie spowodowało to jednak, że problem z wtykami w przedłużkach nie występuje. Nie byłem w stanie umieścić wtyczek zasilania w swojej karcie używając takiej ilości siły, którą uważam za komfortową, a dla uproszczenia próbowałem jeszcze przed włożeniem karty do komputera. Na zdjęciu nie jest to widoczne, ale gniazdo znajdujące się bliżej krawędzi karty posiadało jeden minimalnie wygięty pin. Po próbach włożenia wtyczki, wygięły się dwa kolejne i summa summarum, kilka minut zajęło mi podpięcie wtyczek zasilania - konieczne było prostowanie grubą igłą.

Więcej informacji dotyczących samej karty można znaleźć w internecie. Dość powiedzieć, że PCB oraz układ chłodzenia są współdzielone z kartą serią kart RTX 3090 Eagle / Gaming OC, choć sekcja zasilania jest zubożona. Co ciekawe, nie widziałem w internecie satysfakcjonujących mnie zdjęć tej karty, więc postanowiłem wykonać je samemu.

Undervolting

Przejdźmy do gorącego tematu dotyczącego nowych RTXów. Zanim zaczniemy o tym rozmawiać, teoretyczny wstępniak dotyczący poboru energii przez praktycznie dowolny kawałek krzemu. Każda współczesna karta graficzna (w przypadku Nvidii od GTXów 600) dysponuje mechanizmem Turbo. Implementacja różni zachowaniem zależnie od generacji, ale co do reguły wygląda to tak, że o ile zachowane są odpowiednie warunki termiczne, mechanizm stara się zachować jak najwyższą częstotliwość rdzenia karty graficznej w dostępnym budżecie energetycznym wyrażanym za pomocą parametru TDP.

Okej, wstęp teoretyczny mamy za sobą, ale po co można spytać? Otóż okazuje się, że karty RTX 30x0 z przyczyn o których można dyskutować, zostały fabrycznie bardzo mocno wyżyłowane, przez co pracują daleko poza możliwościami jeśli chodzi o sprawność energetyczną. Są bardzo wydajne, ale jest to okupione bardzo wysokim poborem energii elektrycznej.

Jak wygląda to w przypadku Gigabyte Gaming OC? Moja karta zależnie od testu, startuje z okolic 2000MHz by zejść do 1950MHz w późniejszym czasie. Jest jeden ważny szczegół, który często zdaje się być pomijany: zależnie od testu. Potrafi zdarzyć się, że taktowanie spada poniżej 1900MHz. Jest to powód dla którego mam mieszane odczucia względem polecanego pospolicie poradnika dotyczącego obniżania napięcia na karcie Ampere:

https://wccftech.com/undervolting-ampere-geforce-rtx-3080-hidden-efficiency-potential/

Powyższa publikacja jest wartościowa i w zasadzie dobrze opisuje tematykę, lecz weryfikacja wyników mnie nie satysfakcjonuje – za mało testufff ;)

Nie będąc szanującą się redakcją ani nie dysponując zaawansowanymi narzędziami, nie jestem w stanie przeprowadzić testów na poziomie, który by mnie satysfakcjonował jako czytelnika, ale mogę spróbować się zbliżyć. Dlatego postanowiłem przeprowadzić testy w trzech scenariuszach: 3DMark Time Spy, Wiedźmin 3, Horizon Zero Dawn. Każdy w powtarzalnych warunkach, dlatego w Wiedźminie użyłem miejsca pomiarowego wykorzystywanego przez popularny Polski serwis, w Horizon Zero Dawn skorzystałem z wbudowanego testu wydajności, a 3DMark to 3DMark :)

Muszę jeszcze zaznaczyć, że choć wygrałem w loterii szczęścia jeśli chodzi o upolowanie swojego RTX 3080, tak na krzemowej loterii zdecydowanie przegrałem. W internecie znaleźć można posty ze znacznie lepszymi wynikami niż moje, ale mówię o tym dlatego, że – jak wiadomo – każdy będzie miał inne wyniki.

Jak podejść do tematu obniżania napięcia? Ja zrobiłem to w ten sposób, że założyłem napięcie startowe 0,85V i poszukałem maksymalnego stabilnego taktowania z pomocą poradnika podlinkowanego powyżej. Oto wyniki w Time Spy:

1845@0,85V +0MHz: 17275 | 112,18 | 99,36; GPU max 285W

Następnie spróbowałem obniżyć napięcie:

1845@0,843V +0MHz: fail @ 1860-1875

Jak widać, karta nie przeszła testu, lecz oportunistyczny Turbo Boost 3.0 podniósł taktowanie ponad wartości zapisane w tablicy. Aby zostawić pewien margines błędu, ustawiłem krzywą zaczynając od napięcia o poziom wyższego niż wcześniej. Jako iż byłem wtedy już po weryfikacji poziomów do których karta się podkręca, zaaplikowałem również umiarkowane przetaktowanie pamięci i oto wynik:

1845@0,856V +700MHz: 17595; GPU max 290W

Ostatecznie, po wyłączeniu całego oprogramowania w tle, oto wynik który udało mi się uzyskać:

uv: https://www.3dmark.com/spy/15561729

stock: https://www.3dmark.com/spy/15561962

oc: https://www.3dmark.com/spy/15560357

Skoro za pomocą 3DMarka zweryfikowałem wyniki, pora na resztę testów. Oto one:

Horizon Zero Dawn:

stock: max 1965MHz, avg 1950MHz, max 338W avg 320W, max 560W @ wall, avg 530W

                GPU FPS: 127 FPS / 112 FPS / 101 FPS (avg/95%/99%)

oc: max 2025MHz, avg 2000MHz, max 316W, avg 280W, max 524W @ wall, avg 500W

                GPU FPS: 130 FPS / 114 FPS / 103 FPS (avg/95%/99%)

uv: max 1860MHz, avg 1860MHz, max 249W, avg 230W, max 453W @ wall, avg 430W

                GPU FPS: 125 FPS / 109 FPS / 99 FPS (avg/95%/99%)

witcher 3:

stock: 560W -> 343W GPU -> 1720RPM (148FPS, 1950MHz)

oc: 545W -> 335W GPU -> 1837RPM (151FPS, 2010MHz)

uv: 470W -> 260W GPU -> 1530RPM (143FPS, 1860MHz)

Ups, zrobiłem mały spoiler w postaci wyników po oc, ale czy przpadkowo? Zaraz o tym opowiem. Na razie parę wniosków na podstawie wyników.

W przypadku testów mocno obciążających GPU wydajność po obniżeniu napięcia pracy może wzrosnąć, ponieważ na fabrycznych ustawieniach karta opiera się o swój próg TDP i aby go utrzymać, taktowanie rdzenia musi zostać znacząco obniżone. W testach rzeczywistych, gdzie obciążenie jest mniejsze, po obniżeniu napięcia karta traci możliwość wejścia na wyższe częstotliwości, ponieważ została „zablokowana” na konkretnych ustawieniach (w tym przypadku 1845MHz/0,856V).

W mniej wymagającym scenariuszu jaki reprezentuje Horizon Zero Dawn, karta pracująca na obniżonym napięciu zachowuje ponad 98% wydajności pobierając jedynie 72% energii elektrycznej.

Overclocking

Standardowo w kontekście kart RTX 3080 pada pytanie: po co 😊 Głównie dlatego, że spotkałem się ze stwierdzeniem, że kart Gigabyte nie da się podkręcić, ponieważ nie mają możliwości podniesienia budżetu energetycznego ponad 100%. Bzdura.

Moje doświadczenia są takie, że podkręcanie należy przeprowadzić zależnie od scenariusza w którym karta ma pracować. W moim przypadku, chciałem sprawdzić jak wysoki wynik w Time Spy uda mi się uzyskać, dlatego przeprowadziłem test z uruchomionym OSD, które wyświetlało z odświeżaniem co 1s napięcie z którym pracuje karta. W ten sposób możemy znaleźć najniższy stan energetyczny z którym karta pracuje w trakcie trwania testu, a potem wykorzystać go jako punkt startowy. W moim przypadku, na standardowych ustawieniach zdarzało się, że karta pracowała z napięciem 0,975V wciągając jednocześnie około 350W energii elektrycznej. To najbardziej wymagający fragment testu: karta musi znacząco obniżyć taktowanie i napięcie, by zmieścić się w budżecie energetycznym.

Postanowiłem użyć tego napięcia i powtórzyć w MSI Afterburner procedurę analogiczną do tej, którą przeprowadziłem w trakcie obniżania napięcia pracy. Prawdopodobnie lepsze wyniki uzyskałbym wykorzystując któryś z niższych stanów – należy pamiętać, że pobór prądu rośnie lawinowo wraz ze wzrostem napięcia zasilania układu, lecz częstotliwość również ma duży wpływ.

Zaczynając od 2060MHz, przeprowadzałem test w Time Spy i obniżałem taktowanie, aż osiągnąłem częstotliwość z którą karta była w stanie przejść go ze 100% powtarzalnością i okazało się, że maksymalne stabilne ustawienie przy 0,975V dla mojej karty to 2025MHz. Potem jeszcze weryfikacja ustawień pamięci:

2025@0,975V +0MHz: 17809

2025@0,975V +500MHz: 17976

2025@0,975V +1000MHz: 18047 | 117,28 | 103,73

2025@0,975V +1100MHz: 18026 | 117,58 | 103,28

2025@0,975V +900MHz: 18091 | 117,86 | 103,75

2025@0,975V +800MHz: 18074 | 117,59 | 103,79

I udało znaleźć się ustawienie optymalne dla mojej karty, konkretnie do testu Time Spy.

Użycie testu, który mniej obciąża kartę graficzną pozwoliłoby wykorzystać wyższe napięcie a tym samym przyspieszyć jeszcze rdzeń. Chodzi o to, by znaleźć takie ustawienie napięcia, które mieści się w narzuconym przez producenta limicie energetycznym i osiągnąć na nim jak najwyższe taktowanie.

Wyniki w trzech testach można sprawdzić w podpunkcie dotyczącym undervoltingu. Należy zwrócić uwagę na to, że w każdym teście poza Time Spy, karta pobierała znacznie mniej energii elektrycznej niż na fabrycznych ustawieniach. To pozwala stwierdzić, że wydajność w grach można jeszcze podnieść, dobierając częstotliwości przy napięciach powyżej 0,975V.

Zdjęcia

1.jpg.cb9c2a0ed84fad86a93f42a302f775c7.jpg 2.jpg.3ebcaa9947b965dc250b8ddfaac2e668.jpg 3.jpg.a6173e66f1f67f0fc7097a2c68d63279.jpg 4.jpg.a9b1568ad1b12af82aeb564c79e7a6ca.jpg 5.jpg.02524674e982cb02580e8171a261aae2.jpg 6.jpg.5c75dd626bec41aed0f115f6afe62934.jpg 7.jpg.38f10f38da0b2a08e9184097e9fc52ab.jpg

(po kliknięciu otworzy się większe zdjęcie)

Pojedynczy kabel

Na zdjęciach powyżej można zauważyć, że wykorzystuję pojedynczą wiązkę zasilacza do obu wtyczek na RTX 3080. Nie, nie polecam takiego rozwiązania. Nie, nie obawiam się o bezpieczeństwo swojego sprzętu. Uruchomiłem FurMark na 30 minut, który powoduje pobór energii na poziomie 350W, przy taktowaniu rzędu 1500MHz i napięciu około 0,8V, co wyjątkowo obciąża sekcję zasilania karty. Aby pogorszyć warunki, ręcznie ustawiłem wentylatory na prędkość 63% co wywołało wzrost temperatury do granicy 72*C powyżej której budżet energetyczny karty jest ograniczony ze względu na temperaturę. Przez cały czas trwania testu wydajność była ograniczana wyłącznie budżetem energetycznym. Na sam koniec zacząłem „macać” i mierzyć pirometrem kabel. Nigdzie nie znalazłem punktu na którym nie byłbym w stanie utrzymać ręki. Najcieplejsze miejsce, które udało mi się znaleźć za pomoca pirometru, miało temperaturę 53*C i był to kabel w miejscu nad wylotem powietrza nad kartą graficzną. Żadna z wtyczek nie miała ponad 40*C.

Poddaję to co napisałem pod krytykę i chętnie będę o tym dyskutował. Uważam jednak, że wykorzystując kartę w ustawieniach, które realnie podczas grania skutkują poborem energii na poziomie 230-260W, w dłuższej perspektywie czasu powinienem być bezpieczny. Nawet jak temperatura otoczenia wzrośnie o 10*C (obecnie wynosi 20,5*C).

Kultura pracy

Karta cechuje się umiarkowaną kulturą pracy, choć w moim egzemplarzu cewki są słyszalne w specyficznych warunkach. Często wymienianym tutaj testem jest menu Wiedźmina 3 z wyłączonym v-sync gdzie generowane jest około 2500-3000FPS. W takich warunkach cewki są słyszalne, ale nie jest to uciążliwe. Najgłośniej grają w 3DMark Vantage, gdzie karta potrafi wygenerować więcej niż 500FPS, a jednocześnie wysoki jest pobór energii elektrycznej. Jest taka scena w drugim teście, gdzie kamera przesuwa się z widoku na przestrzeń kosmiczną w stronę statku gdzie następuje spadek z około 800FPS do 500FPS. Słychać wtedy charakterystyczny, modulowany dźwięk, który można spróbować opisać w sposób "łłłłyyyyyyeeeeeeeeeeeee" ;) Podczas normalnego używania w grach, nawet gdy jest generowane 200-300 klatek na sekundę, cewki pozostają niesłyszalne, także w moim odczuciu problem nie jest dotkliwy.

Jeśli chodzi o hałas wentylatorów, to jest on zdecydowanie słyszalny. Przy poziomie 1100-1200RPM, gdy jedynym obciążonym elementem jest karta graficzna i pozostałe wentylatory pracują w okolicach 500RPM, szum jest słyszalny, lecz nie jest dokuczliwy. Podczas trwałego obciążenia rzędu 350W, obroty potrafią wzrosnąć do 2100RPM, ponieważ na biosie "OC" karta za wszelką cenę stara się utrzymać 64-65*C i wtedy szum jest dokuczliwy. Po wykonaniu UV, w grach, wentylatory pracują z prędkością około 1400-1500RPM i jest to według mnie poziom zupełnie akceptowalny. Jest znacznie ciszej niż na moim poprzednim Gigabyte GeForce GTX 1080 Gaming OC pracującym z domyślnymi ustawieniami, oraz wielokrotnie ciszej niż w EVGA GTX 760 z "suszarką". Nie mam nic do zarzucenia w tym aspekcie, choć inne autorskie konstrukcje są pod tym względem lepsze.

Dodatkowe obserwacje

Dla dotychczasowego opisu nie miało to znaczenia, ale kartę mam w komputerze, który znaleźć możecie w mojej sygnaturze. Gdyby coś miało ulec zmianie, wkleję tutaj konfigurację:

  • Intel Core i7 7800X @ 4,5GHz / 3GHz mesh | Noctua NH-D15 | Asus TUF X299 Mark 2 | 32768MB RAM @ 2933MHz CL14-16-16-35 2T
  • Gigabyte RTX 3080 Gaming OC
  • Samsung SM961 256GB | 2x Crucial MX100 256GB RAID0 | Seagate ST2000DM006
  • Corsair RM750 | Fractal Define R4 | 4x Noctua NF-A14 + 2x Noctua NF-P12

Nie jest to najbardziej fortunna konfiguracja, a do tego procesor i platforma słynne są ze swojego braku efektywności. Nie dysponuję obecnie narzędziem, by sterować wentylatorami w obudowie bezpośrednio korelując je z temperaturą karty graficznej. Efekt jest taki, że mogę bez problemu podgrzać układ chłodzenia procesora za pomocą karty graficznej, która znajduje się parę milimetrów niżej. Efekt taki, że gdy po długotrwałym obciążeniu karty graficznej obciążę wszystkie wątki procesora realnym obciążeniem, momentalnie osiągam 90*C na procesorze, które dopiero zaczyna spadać dzięki wentylatorom, które wchodzą na bardzo wysokie obroty. Nie wiem jak uniknąć tego zjawiska zachowując jednocześnie wysoką kulturę pracy.

No i pobór energii elektrycznej z gniazdka po sztucznym obciążeniu zarówno procesora jak i karty graficznej to skromne 724W.

Podsumowanie

Jeśli chodzi o samego Gigabyte Gaming OC to ciężko mi go porównywać z innymi konstrukcjami autosrskimi, ponieważ mam tylko tą kartę. Na podstawie testów znalezionych w internecie, w moim odczuciu plasuje się porównywalnie do Asusa TUF z delikatnym wskazaniem na tego drugiego. Lepiej rozwiązane jest chłodzenie kości pamięci i układu zasilania oraz nie ma tego dziwnego patentu z przedłużkami wtyczek zasilania. Mimo to, Gigabyte to solidna konstrukcja i nie spoglądam na Asusa zazdrosnym okiem

Napisałem ścianę tekstu i przez wysoki poziom niewyspania spowodowany intensywnymi testami, całość wyszła zdecydowanie mniej spójnie niż zakładałem, a całość okazała się rozwlekła. Dajcie znać co myślicie o tym tekście – być może dla kogoś okaże się wartościowy, a być może ktoś będzie miał uwagi – chętnie przyjmę konstruktywną krytykę. Niekonstruktywną mniej chętnie, ale hej – to przecież internet

Odkąd mam kartę nie odpaliłem ani raz żadnej gry w calach innych niż testowych na swoim komputerze i zamierzam to niebawem zmienić

 

!!WIP!! - jeszcze sporo edycji przede mną  

 

Edytowane przez michu_roztocz
  • Like 6
  • Thanks 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A jak z kulturą pracy? Też masz takie spotrzeżenie, że karta domyślnie ma dosyć agresywną krzywą wentylatorów? U siebie w Masterze to była pierwsza rzecz do poprawienia, bo karta za wszelką cenę chciała utrzymać 65 stopni Celsjusza :) 
Duży plus za tekst!

PS
Masz małą literówkę w tytule tematu, ale to już czepialstwo ;) 

Edytowane przez Kaczorex26

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale żeś się chłopie napocił. Ściana tekstu w tym 50% zbędnej retoryki, ale rozumiem, że masz potrzebę wygadania.

Mam tą samą kartę i mogę potwierdzić, że niektóre wtyki są lekko krzywo osadzone i wtyczka nie wchodzi. Trzeba płaskim śrubokrętem wygiąć lekko pin do środka. 1 min roboty.

Co do UV, to faktycznie rdzenie od Gigabyte są takie sobie. Więcej da się wyciągnąć z Asusa czy MSI. 

Karta ma bios, który jest ustawiony by zadbać o tempy poniżej 66C i wiatraki na silent biosie chodzą po 1600 obr/min. Karta jest po prostu średnia, albo dobra jak kto woli. Mam już jakiś czas i polecam. Polecam też od razu przejście bios trybu silence. 

Osiągi są ok jak na 3080.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wcale nie przegrałeś na silikonowej loterii. Jeżeli w wiedźminie trzyma ci 2025 mhz w 4k na defaultowej krzywej wiatraków na power limicie 370w to bardzo dobry wynik, Niewiele czipów da rade. Są oczywiście lepsze sztuki ale głównie z większym power limitem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może przestańcie testować cewki przy kilku tysiącach fps bo wtedy wszystkie świergotają ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Art385 napisał:

Może przestańcie testować cewki przy kilku tysiącach fps bo wtedy wszystkie świergotają ;)

TUF, a przede wszystkim Strix u mnie rzęził poniżej 100fps.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 godzin temu, Kaczorex26 napisał:

A jak z kulturą pracy? Też masz takie spotrzeżenie, że karta domyślnie ma dosyć agresywną krzywą wentylatorów? U siebie w Masterze to była pierwsza rzecz do poprawienia, bo karta za wszelką cenę chciała utrzymać 65 stopni Celsjusza :) 
Duży plus za tekst!

PS
Masz małą literówkę w tytule tematu, ale to już czepialstwo ;) 

Dzięki! Korzystam z domyślnej krzywej wentylatorów na biosie OC - po UV w mojej obudowie (Fractal R4 z 6 wentylatorami) wentylatory na karcie utrzymują max 1530RPM po UV co jest dla mnie satysfakcjonujące. Wolę mieć trochę wyższą głośność w grach i zapas na lato, niż hot-spot w obudowie w odległości kilka mm od radiatora na procesorze :)

13 godzin temu, Xaxaos napisał:

Ale żeś się chłopie napocił. Ściana tekstu w tym 50% zbędnej retoryki, ale rozumiem, że masz potrzebę wygadania.

Mam tą samą kartę i mogę potwierdzić, że niektóre wtyki są lekko krzywo osadzone i wtyczka nie wchodzi. Trzeba płaskim śrubokrętem wygiąć lekko pin do środka. 1 min roboty.

Co do UV, to faktycznie rdzenie od Gigabyte są takie sobie. Więcej da się wyciągnąć z Asusa czy MSI. 

Karta ma bios, który jest ustawiony by zadbać o tempy poniżej 66C i wiatraki na silent biosie chodzą po 1600 obr/min. Karta jest po prostu średnia, albo dobra jak kto woli. Mam już jakiś czas i polecam. Polecam też od razu przejście bios trybu silence. 

Osiągi są ok jak na 3080.

Ano napociłem się, ale tekst cały czas poprawiam, więc procentowy udział merytorycznej zawartości rośnie ;) 

16 minut temu, Konradox napisał:

wcale nie przegrałeś na silikonowej loterii. Jeżeli w wiedźminie trzyma ci 2025 mhz w 4k na defaultowej krzywej wiatraków na power limicie 370w to bardzo dobry wynik, Niewiele czipów da rade. Są oczywiście lepsze sztuki ale głównie z większym power limitem.

Spodziewałem się wyższego taktowania w okolicach 0,85V. W internetach ludzie twierdzą, że mają karty potrafiące działać przy 1950-1970 @ 0,85V. U mnie max to 1845-1860MHz.

11 minut temu, Art385 napisał:

Może przestańcie testować cewki przy kilku tysiącach fps bo wtedy wszystkie świergotają ;)

Moja obserwacja jest taka, że tam gdzie jest kilka tysięcy FPS, obciążenie GPU i tak jest małe i cewki nie są słyszalne. Dlatego starałem się dokładnie to opisać - cewki najbardziej słyszałem w 3DMarku Vantage, gdzie jest kilkaset FPS i duże obciążenie GPU.

 

Nie do końca wiem jak podlinkować tutaj obrazki z zewnętrznych serwisów by poprawnie się wyświetlały, więc by obejść limit 102,4kB dorzucam brakujące załączniki / zdjęcia w tym poście :)

5.jpg

6.jpg

7.jpg

Edytowane przez michu_roztocz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, Griszah napisał:

TUF, a przede wszystkim Strix u mnie rzęził poniżej 100fps.

Testować warto do 240fps no niech nawet 360fps bo już monitory chyba są z tym odświeżaniem. Jednak kilka tysięcy fps to jeszcze przez całe życie nie miałem takiej karty aby nie zaczęła grać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Konradox napisał:

wcale nie przegrałeś na silikonowej loterii. Jeżeli w wiedźminie trzyma ci 2025 mhz w 4k na defaultowej krzywej wiatraków na power limicie 370w to bardzo dobry wynik, Niewiele czipów da rade. Są oczywiście lepsze sztuki ale głównie z większym power limitem.

A czekaj, teraz doczytałem jeden drobny szkopuł - "4k".

Testowałem na monitorze w rozdzielczości 1440p. Teraz przeniosłem do TV 4k i można zapomnieć o 2010MHz o których pisałem wcześniej. Czasem zostanie wbita taka częstotliwość, ale wszystko zależy od miejsca, bo zdarzają się również i spadki poniżej 1900MHz. Także ten, raczej nie mam jakichś świetnych wyników :)

Edytowane przez michu_roztocz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok. Ja miałem Gaminga co śmigał w wiedzminie 4K +160MHZ na rdzeniu jeżeli dobrze pamiętam więc boostował do 2100 a trzymał 1995. To była jedna z lepszych sztuk jakie testowałem a było ich baardzo dużo :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie chce się czepiać ale "stary" 3Dmark Time Spy w dodatku nie wersja extreme nie odzwierciedla potencjału OC jak i stabilności jego w danym GPU, on ma nawet problem z wykorzystaniem nowych wielordzeniowych CPU, gdybyś odpalił wersje extreme w drugim teście graficznym tam gdzie na początku ma do powiedzenia PL danej konstrukcji to nie byłbyś tak optymistycznie nastawiony przez limity PL i zrzucanie zegarów w Gamingu OC, aby "Ampere" dobrze wykorzystać z OC trzeba pokusić się na wersje ROG STRIX ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak jak pisałem, pograłem chwilę na telewizorze 4k i różnicę w poborze energii widać jak na dłoni. W Wiedźminie jest to około 290W, w Star Wars Jedi Fallen Order widywałem ponad 330W, a w Horizon Zero Dawn pobór energii oscyluje wokół 270W, choć finalnie grałem i tak w 1440p z poborem około 230-250W aby utrzymywać framerate bardziej w okolicach 100FPS niż 50-80FPS.

Także fakt - trochę pospieszyłem się z wnioskami. W końcu gdy pisałem tekst, kartę miałem dopiero od 24h i testowałem tylko na monitorze 1440p. Na razie jednak nie grałem i nie mam gier, które dociążyłyby w 1440p grafę tak jak Time Spy. Niemniej, napisałem o tym, że poziom OC dostosowywałem pod konkretny benchmark, w tym przypadku Time Spy. Gdybym chciał osiągnąć wysokie wyniki w innym teście, inaczej bym ustawił kartę :)

Swoją drogą, przekonany byłem że Time Spy to w miarę świeży benchmark. Czas kurczę leci nieubłaganie :D

Edytowane przez michu_roztocz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

TL;DR Czy undervolting cokolwiek daje i jak to najlepiej załatwić?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, lys napisał:

TL;DR Czy undervolting cokolwiek daje i jak to najlepiej załatwić?

Daje potencjalnie wyższa, a z całą pewnością bardziej stabilną wydajność oraz niższy pobór energii elektrycznej. Tutaj poradnik jak to zrobić. 

https://wccftech.com/undervolting-ampere-geforce-rtx-3080-hidden-efficiency-potential/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.11.2020 o 15:41, michu_roztocz napisał:

Obiecałem w wątku zakupowym, że podzielę się swoimi wynikami i obserwacjami na temat karty którą nabyłem, toteż po dwudziestu czterech godzinach od jej otrzymania postanowiłem spisać swoje obserwacje. Spędziłem parę ładnych godzin konfrontując znalezione w Internecie informacje z własnymi obserwacjami i chciałbym się tym z Wami podzielić.

(...)

Dajcie znać co myślicie o tym tekście – być może dla kogoś okaże się wartościowy, a być może ktoś będzie miał uwagi – chętnie przyjmę konstruktywną krytykę. Niekonstruktywną mniej chętnie, ale hej – to przecież internet

Bardzo dziękuję. :notworthy:
Czapka z głowy za chęci i "jakość" tekstu.  :thumbup:

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.11.2020 o 21:06, Xaxaos napisał:

Ale żeś się chłopie napocił. Ściana tekstu w tym 50% zbędnej retoryki, ale rozumiem, że masz potrzebę wygadania.

To nie szkolna lektura żebyś musiał czytać od deski do deski, jeśli cie nie interesuje dany fragment to go zwyczajnie pomin. Rzeczy, ktore ciebie nie interesują mogą interesować innych.

Edytowane przez moskil
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.11.2020 o 21:06, Xaxaos napisał:

Ale żeś się chłopie napocił. Ściana tekstu w tym 50% zbędnej retoryki

Kolego @Xaxaos,
Gdzie mogę poczytać bez "zbędnej retoryki" Twoje teksty  ?

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.11.2020 o 15:41, michu_roztocz napisał:

...No i pobór energii elektrycznej z gniazdka po sztucznym obciążeniu zarówno procesora jak i karty graficznej to skromne 724W

Duzo ja u siebie widzialem max 480W, ale testowalem jedynie w Time Spy. Chyba stestuje jeszcze jakis Furmark+OCCT 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, moskil napisał:

Duzo ja u siebie widzialem max 480W, ale testowalem jedynie w Time Spy. Chyba stestuje jeszcze jakis Furmark+OCCT 

 

724W wbija się w trakcie jednoczesnego odpalenia Prime95 Small FFTs + FurMark. Na domyślnych ustawieniach w Time Spy pobór utrzymuje się poniżej 600W. Mimo wszystko, 9900K nie ma startu do podkręconego 7800X jeśli chodzi o pobór prądu ;) No i mój 6-letni RM750 nie jest najbardziej efektywnym zasilaczem na świecie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki za tekst. Czytałem go już wcześniej, umieściłeś go jako obszerny komentarz. 

Jestem posiadaczem RTX 3080 Vision OC. 

Możesz mi powiedzieć którym polem odczytujesz pobór prądu karty? Czy jest to pole Board Power Draw z GPU-Z ? 

Ja zjechałem z napięciem do 0.88V i karta dobija do 351W wg powyższego wskaźnika. Niżej nie próbowałem schodzić. Ustawiłem kartę na 1920 MHz i jest stabilnie, ale prędzej czy później pewnie jakaś gra się wywali. 

Średnia jest dla mnie ta karta. Na domyślnych ustawieniach potrafi dropić poniżej 1800 na rdzeniu. A sample dostarczane do recenzji osiągają niby średnio 1950 MHz. I jak tu ufać takiej firmie jak Gigabyte... 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

1 godzinę temu, kowallosu napisał:

Dzięki za tekst. Czytałem go już wcześniej, umieściłeś go jako obszerny komentarz. 

Jestem posiadaczem RTX 3080 Vision OC. 

Możesz mi powiedzieć którym polem odczytujesz pobór prądu karty? Czy jest to pole Board Power Draw z GPU-Z ? 

Ja zjechałem z napięciem do 0.88V i karta dobija do 351W wg powyższego wskaźnika. Niżej nie próbowałem schodzić. Ustawiłem kartę na 1920 MHz i jest stabilnie, ale prędzej czy później pewnie jakaś gra się wywali. 

Średnia jest dla mnie ta karta. Na domyślnych ustawieniach potrafi dropić poniżej 1800 na rdzeniu. A sample dostarczane do recenzji osiągają niby średnio 1950 MHz. I jak tu ufać takiej firmie jak Gigabyte... 

 

 

Używam RTSS z poborem energii elektrycznej wyświetlanym z HwInfo. Tam nazywa się to GPU Power i pokrywa się z Board Power Draw w GPU-Z.

W jakich testach karta dobija do 350W?

Edytowane przez michu_roztocz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 26.11.2020 o 12:58, Konradox napisał:

Ok. Ja miałem Gaminga co śmigał w wiedzminie 4K +160MHZ na rdzeniu jeżeli dobrze pamiętam więc boostował do 2100 a trzymał 1995. To była jedna z lepszych sztuk jakie testowałem a było ich baardzo dużo :)

No i okazuje się że mój też działa poprawnie ustawiony po prostu na +160MHz. Max boost 2130MHz, po 9 minutach rozgrywki w Wiedźminie 3 4k:

Min 1920MHz; Max 2100MHz (otworzyłem raz mapę...); avg 1960MHz. Parę razy widziałem ponad 2000MHz, ale co do reguły to właśnie wokół 1950MHz oscyluje taktowanie.

Za to w Time Spy kolejny najwyższy wynik dzięki takiemu ustawieniu:

https://www.3dmark.com/compare/spy/15646301/spy/15560357#

Dzięki temu że 7800X to wyjątkowo niepopularny procesor, jestem pierwszy wśród115 osób które opublikowały swoje wyniki i jedyny, który ląduje w przedziale 15000-16000 ;) 

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, michu_roztocz napisał:

 

Używam RTSS z poborem energii elektrycznej wyświetlanym z HwInfo. Tam nazywa się to GPU Power i pokrywa się z Board Power Draw w GPU-Z.

W jakich testach karta dobija do 350W?

Między innymi w gearsach w których teraz. Dobija na chwile, ale jednak dobija. Jak dla mnie ewidentnie ten bios nie jest dopracowany. Natomiast jeśli UV na 0.88v przy taktowaniu 1900-1920 bedzie stabilne, to z karty bede ogólnie zadowolony. Wydajność jest wspaniała, a różnice w kolejnych odkładanych MHz na rdzeniu są marginalne. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...