Szanowny Użytkowniku,
Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.
Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.
Administrator Serwisu Forum PC LAB informuje, że:
- Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
- Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
- Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
- Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
- Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności
Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.
-
Liczba zawartości
119 -
Rejestracja
-
Ostatnia wizyta
Odpowiedzi dodane przez michu_roztocz
-
-
8 godzin temu, kowallosu napisał:@michu_roztocz No i wlasnie to jest ten problem. Bo z jednej strony (wydajność) karta jest rewelacyjna. Natomiast odkąd ja mam komputer zamienił mi sie w piekarnik plus to zrzucanie taktowań jest dla mnie nielogiczne.
sprobuje wymienic chłodzenie na procesor, jak nie pomoże bede musiał zainwestować w lepsza obudowę.No niestety TDP rzędu 320-370W zależnie od wersji robi niestety swoje. Dlatego wszyscy robią UV, choć widzę po testach w 4k, że i nawet wtedy pobór prądu potrafi przekraczać 300W w niektórych grach (w Star Wars Jedi Fallen Order widuję 330W przy 1860MHz/0,856V).
-
19 godzin temu, kowallosu napisał:Między innymi w gearsach w których teraz. Dobija na chwile, ale jednak dobija. Jak dla mnie ewidentnie ten bios nie jest dopracowany. Natomiast jeśli UV na 0.88v przy taktowaniu 1900-1920 bedzie stabilne, to z karty bede ogólnie zadowolony. Wydajność jest wspaniała, a różnice w kolejnych odkładanych MHz na rdzeniu są marginalne.
Niestety nie mam Gearsów żeby potwierdzić zachowanie karty. Trochę też nie rozumiem - w jednym poście napisałeś, że jesteś z karty niezadowolony, a w drugim - że z karty jesteś / będziesz ogólnie zadowolony.
15 godzin temu, yufyiyadri napisał:I jakie są twoje wnioski. Bo widzę ścianę daremnego bełkotu tekstu i stek nic nie znaczącego bullshitu. Sprzedajesz te karty. Dla jakiego sklepu pracujesz co ?Dlaczego nie pisze jak te karty sa syfiaste w niskich rozdzielczościach sutter goni sutter .Spadki klatek,a testerzy testują ryzenki i głoszą po tysiąc fpsów .Piekna reklamóweczka cienkiej karty jak barszcz i jeszcze sie chwali że przepłacił.A grasz w RDR2 na 4k w ULTRA ,może Kingdom Come.Total war czy nowe WDL czy nowe AC.Witaj w klubie wyznawców zielonych .Juz za taki stek reklamówek bym ci wlepił bana.Poczytaj na reddicie jak ludzie mają problemy. Co za noob.Zapewne zaraz polecisz do administracji na skarge jak kazdy noob z tej strony.
Hmm... nawet nie chce mi się odpowiadać ?
Jeśli pracowałbym dla sklepu, nie wkładałbym raczej karty do 3-letniego komputera, który umiarkowanie się do niej nadaje.
Wielokrotnie miałem wątpliwości co do testów Hardware Unboxed - według ich np. 7800X ma wydajność w grach porównywalną z Ryzenem 5 2600, gdzie ja osobiście widzę raczej wydajność bliżsżą 3600X, ale zostawmy to na bok.
Mówienie o "problemach z wydajonścią" gdy karty generują setki FPS w grach jest lekkim nadużyciem według mnie. Mam być niezadowolony z tego, że wydajność nie spada znacząco po przejściu z 1440p na 2160p? Cytując fajny komentarz:
"So as a short summary, instead of upgrading from a 2080TI to a 3080 you should downgrade from a 4K monitor to a 720P monitor for better performance."
Przyjdą bardziej wymagające gry, to i wydajność z rozdzielczością będzie skalować się lepiej.
Nie wiem też czym jest "sutter", ale nie doświadczam żadnych przycięć, a na OLEDzie 4k 120Hz z G-Sync z pewnością takowe bym zauważył, gdyby wystąpiły.
Nie mogę się wypowiedzieć na temat gier których nie posiadam. Obecnie ogrywam Star Wars Jedi Fallen Order oraz Horizon Zero Dawn z RDR2 oraz zamówieniem na CP2077 czekającymi na swoją kolej. Gry które wymieniłeś nie leżą w obszarze moich zainteresowań.
-
1
-
-
W dniu 26.11.2020 o 12:58, Konradox napisał:Ok. Ja miałem Gaminga co śmigał w wiedzminie 4K +160MHZ na rdzeniu jeżeli dobrze pamiętam więc boostował do 2100 a trzymał 1995. To była jedna z lepszych sztuk jakie testowałem a było ich baardzo dużo
No i okazuje się że mój też działa poprawnie ustawiony po prostu na +160MHz. Max boost 2130MHz, po 9 minutach rozgrywki w Wiedźminie 3 4k:
Min 1920MHz; Max 2100MHz (otworzyłem raz mapę...); avg 1960MHz. Parę razy widziałem ponad 2000MHz, ale co do reguły to właśnie wokół 1950MHz oscyluje taktowanie.
Za to w Time Spy kolejny najwyższy wynik dzięki takiemu ustawieniu:
https://www.3dmark.com/compare/spy/15646301/spy/15560357#
Dzięki temu że 7800X to wyjątkowo niepopularny procesor, jestem pierwszy wśród115 osób które opublikowały swoje wyniki i jedyny, który ląduje w przedziale 15000-16000
-
1
-
-
1 godzinę temu, kowallosu napisał:Dzięki za tekst. Czytałem go już wcześniej, umieściłeś go jako obszerny komentarz.
Jestem posiadaczem RTX 3080 Vision OC.
Możesz mi powiedzieć którym polem odczytujesz pobór prądu karty? Czy jest to pole Board Power Draw z GPU-Z ?
Ja zjechałem z napięciem do 0.88V i karta dobija do 351W wg powyższego wskaźnika. Niżej nie próbowałem schodzić. Ustawiłem kartę na 1920 MHz i jest stabilnie, ale prędzej czy później pewnie jakaś gra się wywali.
Średnia jest dla mnie ta karta. Na domyślnych ustawieniach potrafi dropić poniżej 1800 na rdzeniu. A sample dostarczane do recenzji osiągają niby średnio 1950 MHz. I jak tu ufać takiej firmie jak Gigabyte...
Używam RTSS z poborem energii elektrycznej wyświetlanym z HwInfo. Tam nazywa się to GPU Power i pokrywa się z Board Power Draw w GPU-Z.
W jakich testach karta dobija do 350W?
-
1 minutę temu, moskil napisał:Duzo ja u siebie widzialem max 480W, ale testowalem jedynie w Time Spy. Chyba stestuje jeszcze jakis Furmark+OCCT
724W wbija się w trakcie jednoczesnego odpalenia Prime95 Small FFTs + FurMark. Na domyślnych ustawieniach w Time Spy pobór utrzymuje się poniżej 600W. Mimo wszystko, 9900K nie ma startu do podkręconego 7800X jeśli chodzi o pobór prądu
No i mój 6-letni RM750 nie jest najbardziej efektywnym zasilaczem na świecie.
-
5 godzin temu, lys napisał:TL;DR Czy undervolting cokolwiek daje i jak to najlepiej załatwić?
Daje potencjalnie wyższa, a z całą pewnością bardziej stabilną wydajność oraz niższy pobór energii elektrycznej. Tutaj poradnik jak to zrobić.
https://wccftech.com/undervolting-ampere-geforce-rtx-3080-hidden-efficiency-potential/
-
Tak jak pisałem, pograłem chwilę na telewizorze 4k i różnicę w poborze energii widać jak na dłoni. W Wiedźminie jest to około 290W, w Star Wars Jedi Fallen Order widywałem ponad 330W, a w Horizon Zero Dawn pobór energii oscyluje wokół 270W, choć finalnie grałem i tak w 1440p z poborem około 230-250W aby utrzymywać framerate bardziej w okolicach 100FPS niż 50-80FPS.
Także fakt - trochę pospieszyłem się z wnioskami. W końcu gdy pisałem tekst, kartę miałem dopiero od 24h i testowałem tylko na monitorze 1440p. Na razie jednak nie grałem i nie mam gier, które dociążyłyby w 1440p grafę tak jak Time Spy. Niemniej, napisałem o tym, że poziom OC dostosowywałem pod konkretny benchmark, w tym przypadku Time Spy. Gdybym chciał osiągnąć wysokie wyniki w innym teście, inaczej bym ustawił kartę
Swoją drogą, przekonany byłem że Time Spy to w miarę świeży benchmark. Czas kurczę leci nieubłaganie
-
2 godziny temu, Konradox napisał:wcale nie przegrałeś na silikonowej loterii. Jeżeli w wiedźminie trzyma ci 2025 mhz w 4k na defaultowej krzywej wiatraków na power limicie 370w to bardzo dobry wynik, Niewiele czipów da rade. Są oczywiście lepsze sztuki ale głównie z większym power limitem.
A czekaj, teraz doczytałem jeden drobny szkopuł - "4k".
Testowałem na monitorze w rozdzielczości 1440p. Teraz przeniosłem do TV 4k i można zapomnieć o 2010MHz o których pisałem wcześniej. Czasem zostanie wbita taka częstotliwość, ale wszystko zależy od miejsca, bo zdarzają się również i spadki poniżej 1900MHz. Także ten, raczej nie mam jakichś świetnych wyników
-
18 godzin temu, Kaczorex26 napisał:A jak z kulturą pracy? Też masz takie spotrzeżenie, że karta domyślnie ma dosyć agresywną krzywą wentylatorów? U siebie w Masterze to była pierwsza rzecz do poprawienia, bo karta za wszelką cenę chciała utrzymać 65 stopni Celsjusza
Duży plus za tekst!PS
Masz małą literówkę w tytule tematu, ale to już czepialstwo
Dzięki! Korzystam z domyślnej krzywej wentylatorów na biosie OC - po UV w mojej obudowie (Fractal R4 z 6 wentylatorami) wentylatory na karcie utrzymują max 1530RPM po UV co jest dla mnie satysfakcjonujące. Wolę mieć trochę wyższą głośność w grach i zapas na lato, niż hot-spot w obudowie w odległości kilka mm od radiatora na procesorze
13 godzin temu, Xaxaos napisał:Ale żeś się chłopie napocił. Ściana tekstu w tym 50% zbędnej retoryki, ale rozumiem, że masz potrzebę wygadania.
Mam tą samą kartę i mogę potwierdzić, że niektóre wtyki są lekko krzywo osadzone i wtyczka nie wchodzi. Trzeba płaskim śrubokrętem wygiąć lekko pin do środka. 1 min roboty.
Co do UV, to faktycznie rdzenie od Gigabyte są takie sobie. Więcej da się wyciągnąć z Asusa czy MSI.
Karta ma bios, który jest ustawiony by zadbać o tempy poniżej 66C i wiatraki na silent biosie chodzą po 1600 obr/min. Karta jest po prostu średnia, albo dobra jak kto woli. Mam już jakiś czas i polecam. Polecam też od razu przejście bios trybu silence.
Osiągi są ok jak na 3080.
Ano napociłem się, ale tekst cały czas poprawiam, więc procentowy udział merytorycznej zawartości rośnie
16 minut temu, Konradox napisał:wcale nie przegrałeś na silikonowej loterii. Jeżeli w wiedźminie trzyma ci 2025 mhz w 4k na defaultowej krzywej wiatraków na power limicie 370w to bardzo dobry wynik, Niewiele czipów da rade. Są oczywiście lepsze sztuki ale głównie z większym power limitem.
Spodziewałem się wyższego taktowania w okolicach 0,85V. W internetach ludzie twierdzą, że mają karty potrafiące działać przy 1950-1970 @ 0,85V. U mnie max to 1845-1860MHz.
11 minut temu, Art385 napisał:Może przestańcie testować cewki przy kilku tysiącach fps bo wtedy wszystkie świergotają
Moja obserwacja jest taka, że tam gdzie jest kilka tysięcy FPS, obciążenie GPU i tak jest małe i cewki nie są słyszalne. Dlatego starałem się dokładnie to opisać - cewki najbardziej słyszałem w 3DMarku Vantage, gdzie jest kilkaset FPS i duże obciążenie GPU.
Nie do końca wiem jak podlinkować tutaj obrazki z zewnętrznych serwisów by poprawnie się wyświetlały, więc by obejść limit 102,4kB dorzucam brakujące załączniki / zdjęcia w tym poście
-
2 godziny temu, harfnir napisał:Widze, że tu sporo wyjadaczy w kwestii uv. Mam zarezerwowane w euro Gigabyte 3080 gaming OC, chyba jedna z najbardziej prądożernych wersji. Robił ktoś na tej karcie uv? Ta kwestia mnie żywo interesuje jak tu dobrze zrobić uv, bo mam psu 650W, a cpu ryz 5 3600, więc i tak będzie gardełko, to mogę zejść z tymi napięciami. Jak ktoś może mi poradzić proszę pw
-
1
-
1
-
-
Obiecałem w wątku zakupowym, że podzielę się swoimi wynikami i obserwacjami na temat karty którą nabyłem, toteż po dwudziestu czterech godzinach od jej otrzymania postanowiłem spisać swoje obserwacje. Spędziłem parę ładnych godzin konfrontując znalezione w Internecie informacje z własnymi obserwacjami i chciałbym się tym z Wami podzielić.
Trochę o Gigabyte RTX 3080 Gaming OC
Udało mi się dokonać zakupu karty w sposób jakiego można pozazdrościć. Zamówienie złożyłem w poniedziałek i RTXa odebrałem we wtorek w cenie, która opiewała na „jedyne” +500-600PLN względem MSRP. Karta wyprodukowana została w tygodniu 42 bieżącego roku i – jak widać na zdjęciach - posiada poprawione wtyczki do zasilania. Więcej szczegółów można przeczytać tutaj:
Nie spowodowało to jednak, że problem z wtykami w przedłużkach nie występuje. Nie byłem w stanie umieścić wtyczek zasilania w swojej karcie używając takiej ilości siły, którą uważam za komfortową, a dla uproszczenia próbowałem jeszcze przed włożeniem karty do komputera. Na zdjęciu nie jest to widoczne, ale gniazdo znajdujące się bliżej krawędzi karty posiadało jeden minimalnie wygięty pin. Po próbach włożenia wtyczki, wygięły się dwa kolejne i summa summarum, kilka minut zajęło mi podpięcie wtyczek zasilania - konieczne było prostowanie grubą igłą.
Więcej informacji dotyczących samej karty można znaleźć w internecie. Dość powiedzieć, że PCB oraz układ chłodzenia są współdzielone z kartą serią kart RTX 3090 Eagle / Gaming OC, choć sekcja zasilania jest zubożona. Co ciekawe, nie widziałem w internecie satysfakcjonujących mnie zdjęć tej karty, więc postanowiłem wykonać je samemu.
Undervolting
Przejdźmy do gorącego tematu dotyczącego nowych RTXów. Zanim zaczniemy o tym rozmawiać, teoretyczny wstępniak dotyczący poboru energii przez praktycznie dowolny kawałek krzemu. Każda współczesna karta graficzna (w przypadku Nvidii od GTXów 600) dysponuje mechanizmem Turbo. Implementacja różni zachowaniem zależnie od generacji, ale co do reguły wygląda to tak, że o ile zachowane są odpowiednie warunki termiczne, mechanizm stara się zachować jak najwyższą częstotliwość rdzenia karty graficznej w dostępnym budżecie energetycznym wyrażanym za pomocą parametru TDP.
Okej, wstęp teoretyczny mamy za sobą, ale po co można spytać? Otóż okazuje się, że karty RTX 30x0 z przyczyn o których można dyskutować, zostały fabrycznie bardzo mocno wyżyłowane, przez co pracują daleko poza możliwościami jeśli chodzi o sprawność energetyczną. Są bardzo wydajne, ale jest to okupione bardzo wysokim poborem energii elektrycznej.
Jak wygląda to w przypadku Gigabyte Gaming OC? Moja karta zależnie od testu, startuje z okolic 2000MHz by zejść do 1950MHz w późniejszym czasie. Jest jeden ważny szczegół, który często zdaje się być pomijany: zależnie od testu. Potrafi zdarzyć się, że taktowanie spada poniżej 1900MHz. Jest to powód dla którego mam mieszane odczucia względem polecanego pospolicie poradnika dotyczącego obniżania napięcia na karcie Ampere:
https://wccftech.com/undervolting-ampere-geforce-rtx-3080-hidden-efficiency-potential/
Powyższa publikacja jest wartościowa i w zasadzie dobrze opisuje tematykę, lecz weryfikacja wyników mnie nie satysfakcjonuje – za mało testufff
Nie będąc szanującą się redakcją ani nie dysponując zaawansowanymi narzędziami, nie jestem w stanie przeprowadzić testów na poziomie, który by mnie satysfakcjonował jako czytelnika, ale mogę spróbować się zbliżyć. Dlatego postanowiłem przeprowadzić testy w trzech scenariuszach: 3DMark Time Spy, Wiedźmin 3, Horizon Zero Dawn. Każdy w powtarzalnych warunkach, dlatego w Wiedźminie użyłem miejsca pomiarowego wykorzystywanego przez popularny Polski serwis, w Horizon Zero Dawn skorzystałem z wbudowanego testu wydajności, a 3DMark to 3DMark
Muszę jeszcze zaznaczyć, że choć wygrałem w loterii szczęścia jeśli chodzi o upolowanie swojego RTX 3080, tak na krzemowej loterii zdecydowanie przegrałem. W internecie znaleźć można posty ze znacznie lepszymi wynikami niż moje, ale mówię o tym dlatego, że – jak wiadomo – każdy będzie miał inne wyniki.
Jak podejść do tematu obniżania napięcia? Ja zrobiłem to w ten sposób, że założyłem napięcie startowe 0,85V i poszukałem maksymalnego stabilnego taktowania z pomocą poradnika podlinkowanego powyżej. Oto wyniki w Time Spy:
1845@0,85V +0MHz: 17275 | 112,18 | 99,36; GPU max 285W
Następnie spróbowałem obniżyć napięcie:
1845@0,843V +0MHz: fail @ 1860-1875
Jak widać, karta nie przeszła testu, lecz oportunistyczny Turbo Boost 3.0 podniósł taktowanie ponad wartości zapisane w tablicy. Aby zostawić pewien margines błędu, ustawiłem krzywą zaczynając od napięcia o poziom wyższego niż wcześniej. Jako iż byłem wtedy już po weryfikacji poziomów do których karta się podkręca, zaaplikowałem również umiarkowane przetaktowanie pamięci i oto wynik:
1845@0,856V +700MHz: 17595; GPU max 290W
Ostatecznie, po wyłączeniu całego oprogramowania w tle, oto wynik który udało mi się uzyskać:
uv: https://www.3dmark.com/spy/15561729
stock: https://www.3dmark.com/spy/15561962
oc: https://www.3dmark.com/spy/15560357
Skoro za pomocą 3DMarka zweryfikowałem wyniki, pora na resztę testów. Oto one:
Horizon Zero Dawn:
stock: max 1965MHz, avg 1950MHz, max 338W avg 320W, max 560W @ wall, avg 530W
GPU FPS: 127 FPS / 112 FPS / 101 FPS (avg/95%/99%)
oc: max 2025MHz, avg 2000MHz, max 316W, avg 280W, max 524W @ wall, avg 500W
GPU FPS: 130 FPS / 114 FPS / 103 FPS (avg/95%/99%)
uv: max 1860MHz, avg 1860MHz, max 249W, avg 230W, max 453W @ wall, avg 430W
GPU FPS: 125 FPS / 109 FPS / 99 FPS (avg/95%/99%)
witcher 3:
stock: 560W -> 343W GPU -> 1720RPM (148FPS, 1950MHz)
oc: 545W -> 335W GPU -> 1837RPM (151FPS, 2010MHz)
uv: 470W -> 260W GPU -> 1530RPM (143FPS, 1860MHz)
Ups, zrobiłem mały spoiler w postaci wyników po oc, ale czy przpadkowo? Zaraz o tym opowiem. Na razie parę wniosków na podstawie wyników.
W przypadku testów mocno obciążających GPU wydajność po obniżeniu napięcia pracy może wzrosnąć, ponieważ na fabrycznych ustawieniach karta opiera się o swój próg TDP i aby go utrzymać, taktowanie rdzenia musi zostać znacząco obniżone. W testach rzeczywistych, gdzie obciążenie jest mniejsze, po obniżeniu napięcia karta traci możliwość wejścia na wyższe częstotliwości, ponieważ została „zablokowana” na konkretnych ustawieniach (w tym przypadku 1845MHz/0,856V).
W mniej wymagającym scenariuszu jaki reprezentuje Horizon Zero Dawn, karta pracująca na obniżonym napięciu zachowuje ponad 98% wydajności pobierając jedynie 72% energii elektrycznej.
Overclocking
Standardowo w kontekście kart RTX 3080 pada pytanie: po co ? Głównie dlatego, że spotkałem się ze stwierdzeniem, że kart Gigabyte nie da się podkręcić, ponieważ nie mają możliwości podniesienia budżetu energetycznego ponad 100%. Bzdura.
Moje doświadczenia są takie, że podkręcanie należy przeprowadzić zależnie od scenariusza w którym karta ma pracować. W moim przypadku, chciałem sprawdzić jak wysoki wynik w Time Spy uda mi się uzyskać, dlatego przeprowadziłem test z uruchomionym OSD, które wyświetlało z odświeżaniem co 1s napięcie z którym pracuje karta. W ten sposób możemy znaleźć najniższy stan energetyczny z którym karta pracuje w trakcie trwania testu, a potem wykorzystać go jako punkt startowy. W moim przypadku, na standardowych ustawieniach zdarzało się, że karta pracowała z napięciem 0,975V wciągając jednocześnie około 350W energii elektrycznej. To najbardziej wymagający fragment testu: karta musi znacząco obniżyć taktowanie i napięcie, by zmieścić się w budżecie energetycznym.
Postanowiłem użyć tego napięcia i powtórzyć w MSI Afterburner procedurę analogiczną do tej, którą przeprowadziłem w trakcie obniżania napięcia pracy. Prawdopodobnie lepsze wyniki uzyskałbym wykorzystując któryś z niższych stanów – należy pamiętać, że pobór prądu rośnie lawinowo wraz ze wzrostem napięcia zasilania układu, lecz częstotliwość również ma duży wpływ.
Zaczynając od 2060MHz, przeprowadzałem test w Time Spy i obniżałem taktowanie, aż osiągnąłem częstotliwość z którą karta była w stanie przejść go ze 100% powtarzalnością i okazało się, że maksymalne stabilne ustawienie przy 0,975V dla mojej karty to 2025MHz. Potem jeszcze weryfikacja ustawień pamięci:
2025@0,975V +0MHz: 17809
2025@0,975V +500MHz: 17976
2025@0,975V +1000MHz: 18047 | 117,28 | 103,73
2025@0,975V +1100MHz: 18026 | 117,58 | 103,28
2025@0,975V +900MHz: 18091 | 117,86 | 103,75
2025@0,975V +800MHz: 18074 | 117,59 | 103,79
I udało znaleźć się ustawienie optymalne dla mojej karty, konkretnie do testu Time Spy.
Użycie testu, który mniej obciąża kartę graficzną pozwoliłoby wykorzystać wyższe napięcie a tym samym przyspieszyć jeszcze rdzeń. Chodzi o to, by znaleźć takie ustawienie napięcia, które mieści się w narzuconym przez producenta limicie energetycznym i osiągnąć na nim jak najwyższe taktowanie.
Wyniki w trzech testach można sprawdzić w podpunkcie dotyczącym undervoltingu. Należy zwrócić uwagę na to, że w każdym teście poza Time Spy, karta pobierała znacznie mniej energii elektrycznej niż na fabrycznych ustawieniach. To pozwala stwierdzić, że wydajność w grach można jeszcze podnieść, dobierając częstotliwości przy napięciach powyżej 0,975V.
Zdjęcia
(po kliknięciu otworzy się większe zdjęcie)
Pojedynczy kabel
Na zdjęciach powyżej można zauważyć, że wykorzystuję pojedynczą wiązkę zasilacza do obu wtyczek na RTX 3080. Nie, nie polecam takiego rozwiązania. Nie, nie obawiam się o bezpieczeństwo swojego sprzętu. Uruchomiłem FurMark na 30 minut, który powoduje pobór energii na poziomie 350W, przy taktowaniu rzędu 1500MHz i napięciu około 0,8V, co wyjątkowo obciąża sekcję zasilania karty. Aby pogorszyć warunki, ręcznie ustawiłem wentylatory na prędkość 63% co wywołało wzrost temperatury do granicy 72*C powyżej której budżet energetyczny karty jest ograniczony ze względu na temperaturę. Przez cały czas trwania testu wydajność była ograniczana wyłącznie budżetem energetycznym. Na sam koniec zacząłem „macać” i mierzyć pirometrem kabel. Nigdzie nie znalazłem punktu na którym nie byłbym w stanie utrzymać ręki. Najcieplejsze miejsce, które udało mi się znaleźć za pomoca pirometru, miało temperaturę 53*C i był to kabel w miejscu nad wylotem powietrza nad kartą graficzną. Żadna z wtyczek nie miała ponad 40*C.
Poddaję to co napisałem pod krytykę i chętnie będę o tym dyskutował. Uważam jednak, że wykorzystując kartę w ustawieniach, które realnie podczas grania skutkują poborem energii na poziomie 230-260W, w dłuższej perspektywie czasu powinienem być bezpieczny. Nawet jak temperatura otoczenia wzrośnie o 10*C (obecnie wynosi 20,5*C).
Kultura pracy
Karta cechuje się umiarkowaną kulturą pracy, choć w moim egzemplarzu cewki są słyszalne w specyficznych warunkach. Często wymienianym tutaj testem jest menu Wiedźmina 3 z wyłączonym v-sync gdzie generowane jest około 2500-3000FPS. W takich warunkach cewki są słyszalne, ale nie jest to uciążliwe. Najgłośniej grają w 3DMark Vantage, gdzie karta potrafi wygenerować więcej niż 500FPS, a jednocześnie wysoki jest pobór energii elektrycznej. Jest taka scena w drugim teście, gdzie kamera przesuwa się z widoku na przestrzeń kosmiczną w stronę statku gdzie następuje spadek z około 800FPS do 500FPS. Słychać wtedy charakterystyczny, modulowany dźwięk, który można spróbować opisać w sposób "łłłłyyyyyyeeeeeeeeeeeee"
Podczas normalnego używania w grach, nawet gdy jest generowane 200-300 klatek na sekundę, cewki pozostają niesłyszalne, także w moim odczuciu problem nie jest dotkliwy.
Jeśli chodzi o hałas wentylatorów, to jest on zdecydowanie słyszalny. Przy poziomie 1100-1200RPM, gdy jedynym obciążonym elementem jest karta graficzna i pozostałe wentylatory pracują w okolicach 500RPM, szum jest słyszalny, lecz nie jest dokuczliwy. Podczas trwałego obciążenia rzędu 350W, obroty potrafią wzrosnąć do 2100RPM, ponieważ na biosie "OC" karta za wszelką cenę stara się utrzymać 64-65*C i wtedy szum jest dokuczliwy. Po wykonaniu UV, w grach, wentylatory pracują z prędkością około 1400-1500RPM i jest to według mnie poziom zupełnie akceptowalny. Jest znacznie ciszej niż na moim poprzednim Gigabyte GeForce GTX 1080 Gaming OC pracującym z domyślnymi ustawieniami, oraz wielokrotnie ciszej niż w EVGA GTX 760 z "suszarką". Nie mam nic do zarzucenia w tym aspekcie, choć inne autorskie konstrukcje są pod tym względem lepsze.
Dodatkowe obserwacje
Dla dotychczasowego opisu nie miało to znaczenia, ale kartę mam w komputerze, który znaleźć możecie w mojej sygnaturze. Gdyby coś miało ulec zmianie, wkleję tutaj konfigurację:
- Intel Core i7 7800X @ 4,5GHz / 3GHz mesh | Noctua NH-D15 | Asus TUF X299 Mark 2 | 32768MB RAM @ 2933MHz CL14-16-16-35 2T
- Gigabyte RTX 3080 Gaming OC
- Samsung SM961 256GB | 2x Crucial MX100 256GB RAID0 | Seagate ST2000DM006
- Corsair RM750 | Fractal Define R4 | 4x Noctua NF-A14 + 2x Noctua NF-P12
Nie jest to najbardziej fortunna konfiguracja, a do tego procesor i platforma słynne są ze swojego braku efektywności. Nie dysponuję obecnie narzędziem, by sterować wentylatorami w obudowie bezpośrednio korelując je z temperaturą karty graficznej. Efekt jest taki, że mogę bez problemu podgrzać układ chłodzenia procesora za pomocą karty graficznej, która znajduje się parę milimetrów niżej. Efekt taki, że gdy po długotrwałym obciążeniu karty graficznej obciążę wszystkie wątki procesora realnym obciążeniem, momentalnie osiągam 90*C na procesorze, które dopiero zaczyna spadać dzięki wentylatorom, które wchodzą na bardzo wysokie obroty. Nie wiem jak uniknąć tego zjawiska zachowując jednocześnie wysoką kulturę pracy.
No i pobór energii elektrycznej z gniazdka po sztucznym obciążeniu zarówno procesora jak i karty graficznej to skromne 724W.
Podsumowanie
Jeśli chodzi o samego Gigabyte Gaming OC to ciężko mi go porównywać z innymi konstrukcjami autosrskimi, ponieważ mam tylko tą kartę. Na podstawie testów znalezionych w internecie, w moim odczuciu plasuje się porównywalnie do Asusa TUF z delikatnym wskazaniem na tego drugiego. Lepiej rozwiązane jest chłodzenie kości pamięci i układu zasilania oraz nie ma tego dziwnego patentu z przedłużkami wtyczek zasilania. Mimo to, Gigabyte to solidna konstrukcja i nie spoglądam na Asusa zazdrosnym okiem
Napisałem ścianę tekstu i przez wysoki poziom niewyspania spowodowany intensywnymi testami, całość wyszła zdecydowanie mniej spójnie niż zakładałem, a całość okazała się rozwlekła. Dajcie znać co myślicie o tym tekście – być może dla kogoś okaże się wartościowy, a być może ktoś będzie miał uwagi – chętnie przyjmę konstruktywną krytykę. Niekonstruktywną mniej chętnie, ale hej – to przecież internet
Odkąd mam kartę nie odpaliłem ani raz żadnej gry w calach innych niż testowych na swoim komputerze i zamierzam to niebawem zmienić
!!WIP!! - jeszcze sporo edycji przede mną
-
6
-
3
-
12 minut temu, sideband napisał:Nie osłabiaj mnie. 3090 ma sens jak potrzebujesz tych 24GB i wykorzystasz je już teraz. 2022 to ta karta stanie się przepłaconym balasem i nic ci nie przyjdzie z tych 24GB w grach.
Naprawdę to decyzja ludzi jak dysponują swoimi pieniędzmi. Nikt nigdy nie próbował racjonalizować wyboru kart z absolutnie najwyższej półki - czy to Titanów, czy xx80Ti. Jest szybsza od 3080 o tyle, że żadne mody nie zamkną różnicy pomiędzy nimi i o to w 3090 chodzi
-
Zależy co chcesz osiągnąć. Do zabawy w benchmarki lepiej poszukać czegoś innego. Jeśli jesteś zainteresowany UV i (jak napisałeś) interesuje Cię granie w wolnym czasie to konkretna wersja nie ma znaczenia.
-
2 minuty temu, JeRRy_F3D napisał:mogę prosić foto, albo symbol tego ustrojstwa?
Miernik zużycia energii elektrycznej. Podstawowe na allegro od około 40zł.

-
58 minut temu, KaMoRaDo napisał:Pewnie ma miernik przy kontakcie
a nie w programie ?
Tak, dokładnie
-
1 minutę temu, floydstylee napisał:na proline podobno mają msi 3070 gaming trio na stanie https://proline.pl/msi-geforce-rtx-3070-gaming-x-trio-8gb-gddr6-pci-e-p7113901?
ktoś może potwierdzić że rzeczywiscie od ręki mozna dostac czy wykupuje sie tylko miejsce w kolejce?
W proline mają na stanie, tylko ceny wysokie, zwłaszcza w przypadku RTX 3080.
-
Otrzymałem Gigabyte RTX 3080 Gaming OC zamówiony wczoraj. Normalnie poczułem się jakbym żył w normalnych czasach - jednego dnia zamówienie, drugiego odbiór w sklepie. Mogłem nawet sobie otworzyć pudełko przed płatnością nauczony przykrymi doświadczeniami kolegi, któremu przyszło puste pudełko.
Karta jest nowa, choć folia do której była włożona została naderwana. Widać że nie była nigdy wkładana do slotu PCI-E. Tydzień produkcji na PCB 2037, na naklejce na backplate SN2042. Wtyczki nowszego typu "zalane". Widzę że zdjęcia PCB tej karty są dostępne w sieci. To przynajmniej postaram się zrobić ładne zdjęcia samej karcie bez ściągania chłodzenia podczas montażu w komputerze
Jeśli kogoś interesuje, mogę podzielić się swoimi doświadczeniami, ponieważ planuję przeprowadzić UV oraz testy poboru energii mierzone "ze ściany". No i na start rundka 3DMarków zaczynając od 2001SE
-
1
-
-
1 minutę temu, Mordechai98 napisał:A jak to jest Media Expert w jakiś ustalonych mniej więcej godzinach wrzuca karty czy to jest totalnie losowe ??
Z moich obserwacji czysto losowe, ale ja się tematem interesuje dopiero od premiery Radeonów.
-
6 minut temu, dunkunid napisał:Nie wiem jak Wy kupujecie w tym media expert, produkt dostępny w wybranych sklepach i co wpisujecie te kody na chybił trafił?
Dokładnie - wczoraj widziałem bodaj Aorusa z samego rana o 6:30 w Poznaniu, a potem koło 9:00 w Warszawie. Albo na odwrót
Mi udało się odświeżyć stronę w dobrym momencie i zamówić Gigabyte Gaming OC przez sklep internetowy za 3999zł. Zamówienie o 14:25 i od tego czasu kilka powiadomień - ostatnie z 00:52, że karta została wysłana do sklepu. Także być może uda się dzisiaj jeszcze odebrać towar!
PS. 15 lat na forum i już udało mi się 100 postów naklepać ^^'
-
2
-
-
1 godzinę temu, Pitt_34 napisał:Wyluzuj trochę. Tzn w sensie stresu i pisania w wątku o RT
Ale ja jestem wyluzowany :) Napisałem w paru punktach dlaczego uważam, że wybór 3080/6800XT wcale nie jest oczywisty, potem jeszcze jeden post i finalnie już nie chciałem kontynuować wątku, bo nie chcę robić chamskiego off-topu ;)
-
1
-
-
Ucinam wątek i nie dyskutuję dalej, bo nie tego dotyczy temat. Jak ktoś chce pogadać o RT na Radeonach, to zapraszam na priv

-
Jak pod konsole będą pisać, to na Radeonach też będzie działać. Z resztą to potwierdzone: wraz z premierą wersji na nowe konsole Radeony dostaną RT.
-
22 minuty temu, PRT1000 napisał:Na co bardziej warto teraz czekać - rtx 3080 czy rx 6800 xt? - ale tak obiektywnie, z założeniem kupna porządnego nie referenta z tej czy z tej strony bez zmieniania potem karty przez najbliższe 3 lata? (I pomijając ceny i dostępności)
Kurcze, naprawdę nie ten wątek, ale nie ma wcale oczywistej odpowiedzi na pytanie 6800XT vs 3080. Polecam zerknąć na testy po latach GTX 780/HD7970 i nowszych. To raz. Dwa to naprawdę uważam że w dalszej perspektywie, RTX 3080 braknie VRAMu. Trzy to kwestia wspólnej architektury w konsolach i na nowych Radeonach.
Myślę, że Radeony będą lepiej się starzeć. Ja kupuję kartę na teraz, dlatego RTX 3080, ale 6800XT jest naprawdę kuszącą propozycją.
-
Upolowałem właśnie na ME Gigabyte Gaming OC za 3999zł:
Teoretycznie ma być na jutro z odbiorem w sklepie obok mnie. Zobaczymy, bo już zamroziłem sobie prawie 8000zł w morele i x-komie...







Moje osobiste przemyślenia dot. RTX 3080 oraz podkręcania/obniżania napięcia
w Karty graficzne
Napisano
Ano nikt nie mówił że jest letko
u mnie zużycie prądu przez procesor przekracza mocno 200W w takim scenariuszu, gdzie na codzień nie widziałem więcej niż TDP czyli 140W.