Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

michu_roztocz

Forumowicze
  • Liczba zawartości

    119
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez michu_roztocz


  1. 7 godzin temu, moskil napisał:

    człowieniu Prime95 Small to jakies zuooo jest :] nie jestem tego w stanie odpalic na dłuzej niz pare minut bo mi się procesor zaczyna topić :P. Nawet testując sam proc zmiana z Prime Blend na Small zwieksza uzycie mocy o 120W.

    Niemniej jednak zrobilem test Furmark + Priem95 Small i wyszlo 680W, sprawność przy takim obciazeniu mam 90% wiec wychodzi ze zasilacz podaje max 612W

    Ano nikt nie mówił że jest letko :D u mnie zużycie prądu przez procesor przekracza mocno 200W w takim scenariuszu, gdzie na codzień nie widziałem więcej niż TDP czyli 140W.


  2. 8 godzin temu, kowallosu napisał:

    @michu_roztocz No i wlasnie to jest ten problem. Bo z jednej strony (wydajność) karta jest rewelacyjna. Natomiast odkąd ja mam komputer zamienił mi sie w piekarnik plus to zrzucanie taktowań jest dla mnie nielogiczne. 
    sprobuje wymienic chłodzenie na procesor, jak nie pomoże bede musiał zainwestować w lepsza obudowę. 

    No niestety TDP rzędu 320-370W zależnie od wersji robi niestety swoje. Dlatego wszyscy robią UV, choć widzę po testach w 4k, że i nawet wtedy pobór prądu potrafi przekraczać 300W w niektórych grach (w Star Wars Jedi Fallen Order widuję 330W przy 1860MHz/0,856V).


  3. 19 godzin temu, kowallosu napisał:

    Między innymi w gearsach w których teraz. Dobija na chwile, ale jednak dobija. Jak dla mnie ewidentnie ten bios nie jest dopracowany. Natomiast jeśli UV na 0.88v przy taktowaniu 1900-1920 bedzie stabilne, to z karty bede ogólnie zadowolony. Wydajność jest wspaniała, a różnice w kolejnych odkładanych MHz na rdzeniu są marginalne. 

    Niestety nie mam Gearsów żeby potwierdzić zachowanie karty. Trochę też nie rozumiem - w jednym poście napisałeś, że jesteś z karty niezadowolony, a w drugim - że z karty jesteś / będziesz ogólnie zadowolony.

      

    15 godzin temu, yufyiyadri napisał:

    I jakie są twoje wnioski. Bo widzę ścianę daremnego bełkotu  tekstu i stek nic nie znaczącego bullshitu. Sprzedajesz te karty. Dla jakiego sklepu pracujesz co ?Dlaczego nie pisze jak te karty sa syfiaste w niskich rozdzielczościach sutter goni sutter .Spadki klatek,a testerzy testują ryzenki i głoszą po tysiąc fpsów .Piekna reklamóweczka cienkiej karty jak barszcz i jeszcze sie chwali że przepłacił.A grasz w RDR2 na 4k w ULTRA ,może Kingdom Come.Total war czy nowe WDL czy  nowe AC.Witaj w klubie wyznawców zielonych .Juz za taki stek reklamówek bym ci wlepił bana.Poczytaj na reddicie jak ludzie mają problemy. Co za noob.Zapewne zaraz polecisz do administracji na skarge jak kazdy noob z tej strony.

    [Hardware Unboxed] Why the RTX 3080 Isn't as Amazing @ 1440p, CPU or Architectural Bottleneck? : AMD_Stock (reddit.com)

    Hmm... nawet nie chce mi się odpowiadać ?

    Jeśli pracowałbym dla sklepu, nie wkładałbym raczej karty do 3-letniego komputera, który umiarkowanie się do niej nadaje.

    Wielokrotnie miałem wątpliwości co do testów Hardware Unboxed - według ich np. 7800X ma wydajność w grach porównywalną z Ryzenem 5 2600, gdzie ja osobiście widzę raczej wydajność bliżsżą 3600X, ale zostawmy to na bok.

    Mówienie o "problemach z wydajonścią" gdy karty generują setki FPS w grach jest lekkim nadużyciem według mnie. Mam być niezadowolony z tego, że wydajność nie spada znacząco po przejściu z 1440p na 2160p? Cytując fajny komentarz:

    "So as a short summary, instead of upgrading from a 2080TI to a 3080 you should downgrade from a 4K monitor to a 720P monitor for better performance."

    Przyjdą bardziej wymagające gry, to i wydajność z rozdzielczością będzie skalować się lepiej.

    Nie wiem też czym jest "sutter", ale nie doświadczam żadnych przycięć, a na OLEDzie 4k 120Hz z G-Sync z pewnością takowe bym zauważył, gdyby wystąpiły.

    Nie mogę się wypowiedzieć na temat gier których nie posiadam. Obecnie ogrywam Star Wars Jedi Fallen Order oraz Horizon Zero Dawn z RDR2 oraz zamówieniem na CP2077 czekającymi na swoją kolej. Gry które wymieniłeś nie leżą w obszarze moich zainteresowań.

    • Upvote 1

  4. W dniu 26.11.2020 o 12:58, Konradox napisał:

    Ok. Ja miałem Gaminga co śmigał w wiedzminie 4K +160MHZ na rdzeniu jeżeli dobrze pamiętam więc boostował do 2100 a trzymał 1995. To była jedna z lepszych sztuk jakie testowałem a było ich baardzo dużo :)

    No i okazuje się że mój też działa poprawnie ustawiony po prostu na +160MHz. Max boost 2130MHz, po 9 minutach rozgrywki w Wiedźminie 3 4k:

    Min 1920MHz; Max 2100MHz (otworzyłem raz mapę...); avg 1960MHz. Parę razy widziałem ponad 2000MHz, ale co do reguły to właśnie wokół 1950MHz oscyluje taktowanie.

    Za to w Time Spy kolejny najwyższy wynik dzięki takiemu ustawieniu:

    https://www.3dmark.com/compare/spy/15646301/spy/15560357#

    Dzięki temu że 7800X to wyjątkowo niepopularny procesor, jestem pierwszy wśród115 osób które opublikowały swoje wyniki i jedyny, który ląduje w przedziale 15000-16000 ;) 

    • Like 1

  5.  

    1 godzinę temu, kowallosu napisał:

    Dzięki za tekst. Czytałem go już wcześniej, umieściłeś go jako obszerny komentarz. 

    Jestem posiadaczem RTX 3080 Vision OC. 

    Możesz mi powiedzieć którym polem odczytujesz pobór prądu karty? Czy jest to pole Board Power Draw z GPU-Z ? 

    Ja zjechałem z napięciem do 0.88V i karta dobija do 351W wg powyższego wskaźnika. Niżej nie próbowałem schodzić. Ustawiłem kartę na 1920 MHz i jest stabilnie, ale prędzej czy później pewnie jakaś gra się wywali. 

    Średnia jest dla mnie ta karta. Na domyślnych ustawieniach potrafi dropić poniżej 1800 na rdzeniu. A sample dostarczane do recenzji osiągają niby średnio 1950 MHz. I jak tu ufać takiej firmie jak Gigabyte... 

     

     

    Używam RTSS z poborem energii elektrycznej wyświetlanym z HwInfo. Tam nazywa się to GPU Power i pokrywa się z Board Power Draw w GPU-Z.

    W jakich testach karta dobija do 350W?


  6. 1 minutę temu, moskil napisał:

    Duzo ja u siebie widzialem max 480W, ale testowalem jedynie w Time Spy. Chyba stestuje jeszcze jakis Furmark+OCCT 

     

    724W wbija się w trakcie jednoczesnego odpalenia Prime95 Small FFTs + FurMark. Na domyślnych ustawieniach w Time Spy pobór utrzymuje się poniżej 600W. Mimo wszystko, 9900K nie ma startu do podkręconego 7800X jeśli chodzi o pobór prądu ;) No i mój 6-letni RM750 nie jest najbardziej efektywnym zasilaczem na świecie.


  7. Tak jak pisałem, pograłem chwilę na telewizorze 4k i różnicę w poborze energii widać jak na dłoni. W Wiedźminie jest to około 290W, w Star Wars Jedi Fallen Order widywałem ponad 330W, a w Horizon Zero Dawn pobór energii oscyluje wokół 270W, choć finalnie grałem i tak w 1440p z poborem około 230-250W aby utrzymywać framerate bardziej w okolicach 100FPS niż 50-80FPS.

    Także fakt - trochę pospieszyłem się z wnioskami. W końcu gdy pisałem tekst, kartę miałem dopiero od 24h i testowałem tylko na monitorze 1440p. Na razie jednak nie grałem i nie mam gier, które dociążyłyby w 1440p grafę tak jak Time Spy. Niemniej, napisałem o tym, że poziom OC dostosowywałem pod konkretny benchmark, w tym przypadku Time Spy. Gdybym chciał osiągnąć wysokie wyniki w innym teście, inaczej bym ustawił kartę :)

    Swoją drogą, przekonany byłem że Time Spy to w miarę świeży benchmark. Czas kurczę leci nieubłaganie :D


  8. 2 godziny temu, Konradox napisał:

    wcale nie przegrałeś na silikonowej loterii. Jeżeli w wiedźminie trzyma ci 2025 mhz w 4k na defaultowej krzywej wiatraków na power limicie 370w to bardzo dobry wynik, Niewiele czipów da rade. Są oczywiście lepsze sztuki ale głównie z większym power limitem.

    A czekaj, teraz doczytałem jeden drobny szkopuł - "4k".

    Testowałem na monitorze w rozdzielczości 1440p. Teraz przeniosłem do TV 4k i można zapomnieć o 2010MHz o których pisałem wcześniej. Czasem zostanie wbita taka częstotliwość, ale wszystko zależy od miejsca, bo zdarzają się również i spadki poniżej 1900MHz. Także ten, raczej nie mam jakichś świetnych wyników :)


  9. 18 godzin temu, Kaczorex26 napisał:

    A jak z kulturą pracy? Też masz takie spotrzeżenie, że karta domyślnie ma dosyć agresywną krzywą wentylatorów? U siebie w Masterze to była pierwsza rzecz do poprawienia, bo karta za wszelką cenę chciała utrzymać 65 stopni Celsjusza :) 
    Duży plus za tekst!

    PS
    Masz małą literówkę w tytule tematu, ale to już czepialstwo ;) 

    Dzięki! Korzystam z domyślnej krzywej wentylatorów na biosie OC - po UV w mojej obudowie (Fractal R4 z 6 wentylatorami) wentylatory na karcie utrzymują max 1530RPM po UV co jest dla mnie satysfakcjonujące. Wolę mieć trochę wyższą głośność w grach i zapas na lato, niż hot-spot w obudowie w odległości kilka mm od radiatora na procesorze :)

    13 godzin temu, Xaxaos napisał:

    Ale żeś się chłopie napocił. Ściana tekstu w tym 50% zbędnej retoryki, ale rozumiem, że masz potrzebę wygadania.

    Mam tą samą kartę i mogę potwierdzić, że niektóre wtyki są lekko krzywo osadzone i wtyczka nie wchodzi. Trzeba płaskim śrubokrętem wygiąć lekko pin do środka. 1 min roboty.

    Co do UV, to faktycznie rdzenie od Gigabyte są takie sobie. Więcej da się wyciągnąć z Asusa czy MSI. 

    Karta ma bios, który jest ustawiony by zadbać o tempy poniżej 66C i wiatraki na silent biosie chodzą po 1600 obr/min. Karta jest po prostu średnia, albo dobra jak kto woli. Mam już jakiś czas i polecam. Polecam też od razu przejście bios trybu silence. 

    Osiągi są ok jak na 3080.

    Ano napociłem się, ale tekst cały czas poprawiam, więc procentowy udział merytorycznej zawartości rośnie ;) 

    16 minut temu, Konradox napisał:

    wcale nie przegrałeś na silikonowej loterii. Jeżeli w wiedźminie trzyma ci 2025 mhz w 4k na defaultowej krzywej wiatraków na power limicie 370w to bardzo dobry wynik, Niewiele czipów da rade. Są oczywiście lepsze sztuki ale głównie z większym power limitem.

    Spodziewałem się wyższego taktowania w okolicach 0,85V. W internetach ludzie twierdzą, że mają karty potrafiące działać przy 1950-1970 @ 0,85V. U mnie max to 1845-1860MHz.

    11 minut temu, Art385 napisał:

    Może przestańcie testować cewki przy kilku tysiącach fps bo wtedy wszystkie świergotają ;)

    Moja obserwacja jest taka, że tam gdzie jest kilka tysięcy FPS, obciążenie GPU i tak jest małe i cewki nie są słyszalne. Dlatego starałem się dokładnie to opisać - cewki najbardziej słyszałem w 3DMarku Vantage, gdzie jest kilkaset FPS i duże obciążenie GPU.

     

    Nie do końca wiem jak podlinkować tutaj obrazki z zewnętrznych serwisów by poprawnie się wyświetlały, więc by obejść limit 102,4kB dorzucam brakujące załączniki / zdjęcia w tym poście :)

    5.jpg

    6.jpg

    7.jpg


  10. 2 godziny temu, harfnir napisał:

    Widze, że tu sporo wyjadaczy w kwestii uv. Mam zarezerwowane w euro Gigabyte 3080 gaming OC, chyba jedna z najbardziej prądożernych wersji. Robił ktoś na tej karcie uv? Ta kwestia mnie żywo interesuje jak tu dobrze zrobić uv, bo mam psu 650W, a cpu ryz 5 3600, więc i tak będzie gardełko, to mogę zejść z tymi napięciami. Jak ktoś może mi poradzić proszę pw :)

     

    • Like 1
    • Thanks 1

  11. Obiecałem w wątku zakupowym, że podzielę się swoimi wynikami i obserwacjami na temat karty którą nabyłem, toteż po dwudziestu czterech godzinach od jej otrzymania postanowiłem spisać swoje obserwacje. Spędziłem parę ładnych godzin konfrontując znalezione w Internecie informacje z własnymi obserwacjami i chciałbym się tym z Wami podzielić.

    Trochę o Gigabyte RTX 3080 Gaming OC

    Udało mi się dokonać zakupu karty w sposób jakiego można pozazdrościć. Zamówienie złożyłem w poniedziałek i RTXa odebrałem we wtorek w cenie, która opiewała na „jedyne” +500-600PLN względem MSRP. Karta wyprodukowana została w tygodniu 42 bieżącego roku i – jak widać na zdjęciach - posiada poprawione wtyczki do zasilania. Więcej szczegółów można przeczytać tutaj:

    https://www.overclockers.co.uk/forums/threads/3080-3090-3070-gigabyte-eagle-gaming-oc-vision-power-connector-concerns.18900176/

    Nie spowodowało to jednak, że problem z wtykami w przedłużkach nie występuje. Nie byłem w stanie umieścić wtyczek zasilania w swojej karcie używając takiej ilości siły, którą uważam za komfortową, a dla uproszczenia próbowałem jeszcze przed włożeniem karty do komputera. Na zdjęciu nie jest to widoczne, ale gniazdo znajdujące się bliżej krawędzi karty posiadało jeden minimalnie wygięty pin. Po próbach włożenia wtyczki, wygięły się dwa kolejne i summa summarum, kilka minut zajęło mi podpięcie wtyczek zasilania - konieczne było prostowanie grubą igłą.

    Więcej informacji dotyczących samej karty można znaleźć w internecie. Dość powiedzieć, że PCB oraz układ chłodzenia są współdzielone z kartą serią kart RTX 3090 Eagle / Gaming OC, choć sekcja zasilania jest zubożona. Co ciekawe, nie widziałem w internecie satysfakcjonujących mnie zdjęć tej karty, więc postanowiłem wykonać je samemu.

    Undervolting

    Przejdźmy do gorącego tematu dotyczącego nowych RTXów. Zanim zaczniemy o tym rozmawiać, teoretyczny wstępniak dotyczący poboru energii przez praktycznie dowolny kawałek krzemu. Każda współczesna karta graficzna (w przypadku Nvidii od GTXów 600) dysponuje mechanizmem Turbo. Implementacja różni zachowaniem zależnie od generacji, ale co do reguły wygląda to tak, że o ile zachowane są odpowiednie warunki termiczne, mechanizm stara się zachować jak najwyższą częstotliwość rdzenia karty graficznej w dostępnym budżecie energetycznym wyrażanym za pomocą parametru TDP.

    Okej, wstęp teoretyczny mamy za sobą, ale po co można spytać? Otóż okazuje się, że karty RTX 30x0 z przyczyn o których można dyskutować, zostały fabrycznie bardzo mocno wyżyłowane, przez co pracują daleko poza możliwościami jeśli chodzi o sprawność energetyczną. Są bardzo wydajne, ale jest to okupione bardzo wysokim poborem energii elektrycznej.

    Jak wygląda to w przypadku Gigabyte Gaming OC? Moja karta zależnie od testu, startuje z okolic 2000MHz by zejść do 1950MHz w późniejszym czasie. Jest jeden ważny szczegół, który często zdaje się być pomijany: zależnie od testu. Potrafi zdarzyć się, że taktowanie spada poniżej 1900MHz. Jest to powód dla którego mam mieszane odczucia względem polecanego pospolicie poradnika dotyczącego obniżania napięcia na karcie Ampere:

    https://wccftech.com/undervolting-ampere-geforce-rtx-3080-hidden-efficiency-potential/

    Powyższa publikacja jest wartościowa i w zasadzie dobrze opisuje tematykę, lecz weryfikacja wyników mnie nie satysfakcjonuje – za mało testufff ;)

    Nie będąc szanującą się redakcją ani nie dysponując zaawansowanymi narzędziami, nie jestem w stanie przeprowadzić testów na poziomie, który by mnie satysfakcjonował jako czytelnika, ale mogę spróbować się zbliżyć. Dlatego postanowiłem przeprowadzić testy w trzech scenariuszach: 3DMark Time Spy, Wiedźmin 3, Horizon Zero Dawn. Każdy w powtarzalnych warunkach, dlatego w Wiedźminie użyłem miejsca pomiarowego wykorzystywanego przez popularny Polski serwis, w Horizon Zero Dawn skorzystałem z wbudowanego testu wydajności, a 3DMark to 3DMark :)

    Muszę jeszcze zaznaczyć, że choć wygrałem w loterii szczęścia jeśli chodzi o upolowanie swojego RTX 3080, tak na krzemowej loterii zdecydowanie przegrałem. W internecie znaleźć można posty ze znacznie lepszymi wynikami niż moje, ale mówię o tym dlatego, że – jak wiadomo – każdy będzie miał inne wyniki.

    Jak podejść do tematu obniżania napięcia? Ja zrobiłem to w ten sposób, że założyłem napięcie startowe 0,85V i poszukałem maksymalnego stabilnego taktowania z pomocą poradnika podlinkowanego powyżej. Oto wyniki w Time Spy:

    1845@0,85V +0MHz: 17275 | 112,18 | 99,36; GPU max 285W

    Następnie spróbowałem obniżyć napięcie:

    1845@0,843V +0MHz: fail @ 1860-1875

    Jak widać, karta nie przeszła testu, lecz oportunistyczny Turbo Boost 3.0 podniósł taktowanie ponad wartości zapisane w tablicy. Aby zostawić pewien margines błędu, ustawiłem krzywą zaczynając od napięcia o poziom wyższego niż wcześniej. Jako iż byłem wtedy już po weryfikacji poziomów do których karta się podkręca, zaaplikowałem również umiarkowane przetaktowanie pamięci i oto wynik:

    1845@0,856V +700MHz: 17595; GPU max 290W

    Ostatecznie, po wyłączeniu całego oprogramowania w tle, oto wynik który udało mi się uzyskać:

    uv: https://www.3dmark.com/spy/15561729

    stock: https://www.3dmark.com/spy/15561962

    oc: https://www.3dmark.com/spy/15560357

    Skoro za pomocą 3DMarka zweryfikowałem wyniki, pora na resztę testów. Oto one:

    Horizon Zero Dawn:

    stock: max 1965MHz, avg 1950MHz, max 338W avg 320W, max 560W @ wall, avg 530W

                    GPU FPS: 127 FPS / 112 FPS / 101 FPS (avg/95%/99%)

    oc: max 2025MHz, avg 2000MHz, max 316W, avg 280W, max 524W @ wall, avg 500W

                    GPU FPS: 130 FPS / 114 FPS / 103 FPS (avg/95%/99%)

    uv: max 1860MHz, avg 1860MHz, max 249W, avg 230W, max 453W @ wall, avg 430W

                    GPU FPS: 125 FPS / 109 FPS / 99 FPS (avg/95%/99%)

    witcher 3:

    stock: 560W -> 343W GPU -> 1720RPM (148FPS, 1950MHz)

    oc: 545W -> 335W GPU -> 1837RPM (151FPS, 2010MHz)

    uv: 470W -> 260W GPU -> 1530RPM (143FPS, 1860MHz)

    Ups, zrobiłem mały spoiler w postaci wyników po oc, ale czy przpadkowo? Zaraz o tym opowiem. Na razie parę wniosków na podstawie wyników.

    W przypadku testów mocno obciążających GPU wydajność po obniżeniu napięcia pracy może wzrosnąć, ponieważ na fabrycznych ustawieniach karta opiera się o swój próg TDP i aby go utrzymać, taktowanie rdzenia musi zostać znacząco obniżone. W testach rzeczywistych, gdzie obciążenie jest mniejsze, po obniżeniu napięcia karta traci możliwość wejścia na wyższe częstotliwości, ponieważ została „zablokowana” na konkretnych ustawieniach (w tym przypadku 1845MHz/0,856V).

    W mniej wymagającym scenariuszu jaki reprezentuje Horizon Zero Dawn, karta pracująca na obniżonym napięciu zachowuje ponad 98% wydajności pobierając jedynie 72% energii elektrycznej.

    Overclocking

    Standardowo w kontekście kart RTX 3080 pada pytanie: po co ? Głównie dlatego, że spotkałem się ze stwierdzeniem, że kart Gigabyte nie da się podkręcić, ponieważ nie mają możliwości podniesienia budżetu energetycznego ponad 100%. Bzdura.

    Moje doświadczenia są takie, że podkręcanie należy przeprowadzić zależnie od scenariusza w którym karta ma pracować. W moim przypadku, chciałem sprawdzić jak wysoki wynik w Time Spy uda mi się uzyskać, dlatego przeprowadziłem test z uruchomionym OSD, które wyświetlało z odświeżaniem co 1s napięcie z którym pracuje karta. W ten sposób możemy znaleźć najniższy stan energetyczny z którym karta pracuje w trakcie trwania testu, a potem wykorzystać go jako punkt startowy. W moim przypadku, na standardowych ustawieniach zdarzało się, że karta pracowała z napięciem 0,975V wciągając jednocześnie około 350W energii elektrycznej. To najbardziej wymagający fragment testu: karta musi znacząco obniżyć taktowanie i napięcie, by zmieścić się w budżecie energetycznym.

    Postanowiłem użyć tego napięcia i powtórzyć w MSI Afterburner procedurę analogiczną do tej, którą przeprowadziłem w trakcie obniżania napięcia pracy. Prawdopodobnie lepsze wyniki uzyskałbym wykorzystując któryś z niższych stanów – należy pamiętać, że pobór prądu rośnie lawinowo wraz ze wzrostem napięcia zasilania układu, lecz częstotliwość również ma duży wpływ.

    Zaczynając od 2060MHz, przeprowadzałem test w Time Spy i obniżałem taktowanie, aż osiągnąłem częstotliwość z którą karta była w stanie przejść go ze 100% powtarzalnością i okazało się, że maksymalne stabilne ustawienie przy 0,975V dla mojej karty to 2025MHz. Potem jeszcze weryfikacja ustawień pamięci:

    2025@0,975V +0MHz: 17809

    2025@0,975V +500MHz: 17976

    2025@0,975V +1000MHz: 18047 | 117,28 | 103,73

    2025@0,975V +1100MHz: 18026 | 117,58 | 103,28

    2025@0,975V +900MHz: 18091 | 117,86 | 103,75

    2025@0,975V +800MHz: 18074 | 117,59 | 103,79

    I udało znaleźć się ustawienie optymalne dla mojej karty, konkretnie do testu Time Spy.

    Użycie testu, który mniej obciąża kartę graficzną pozwoliłoby wykorzystać wyższe napięcie a tym samym przyspieszyć jeszcze rdzeń. Chodzi o to, by znaleźć takie ustawienie napięcia, które mieści się w narzuconym przez producenta limicie energetycznym i osiągnąć na nim jak najwyższe taktowanie.

    Wyniki w trzech testach można sprawdzić w podpunkcie dotyczącym undervoltingu. Należy zwrócić uwagę na to, że w każdym teście poza Time Spy, karta pobierała znacznie mniej energii elektrycznej niż na fabrycznych ustawieniach. To pozwala stwierdzić, że wydajność w grach można jeszcze podnieść, dobierając częstotliwości przy napięciach powyżej 0,975V.

    Zdjęcia

    1.jpg.cb9c2a0ed84fad86a93f42a302f775c7.jpg 2.jpg.3ebcaa9947b965dc250b8ddfaac2e668.jpg  4.jpg.a9b1568ad1b12af82aeb564c79e7a6ca.jpg 5.jpg.02524674e982cb02580e8171a261aae2.jpg 6.jpg.5c75dd626bec41aed0f115f6afe62934.jpg 7.jpg.38f10f38da0b2a08e9184097e9fc52ab.jpg

    (po kliknięciu otworzy się większe zdjęcie)

    Pojedynczy kabel

    Na zdjęciach powyżej można zauważyć, że wykorzystuję pojedynczą wiązkę zasilacza do obu wtyczek na RTX 3080. Nie, nie polecam takiego rozwiązania. Nie, nie obawiam się o bezpieczeństwo swojego sprzętu. Uruchomiłem FurMark na 30 minut, który powoduje pobór energii na poziomie 350W, przy taktowaniu rzędu 1500MHz i napięciu około 0,8V, co wyjątkowo obciąża sekcję zasilania karty. Aby pogorszyć warunki, ręcznie ustawiłem wentylatory na prędkość 63% co wywołało wzrost temperatury do granicy 72*C powyżej której budżet energetyczny karty jest ograniczony ze względu na temperaturę. Przez cały czas trwania testu wydajność była ograniczana wyłącznie budżetem energetycznym. Na sam koniec zacząłem „macać” i mierzyć pirometrem kabel. Nigdzie nie znalazłem punktu na którym nie byłbym w stanie utrzymać ręki. Najcieplejsze miejsce, które udało mi się znaleźć za pomoca pirometru, miało temperaturę 53*C i był to kabel w miejscu nad wylotem powietrza nad kartą graficzną. Żadna z wtyczek nie miała ponad 40*C.

    Poddaję to co napisałem pod krytykę i chętnie będę o tym dyskutował. Uważam jednak, że wykorzystując kartę w ustawieniach, które realnie podczas grania skutkują poborem energii na poziomie 230-260W, w dłuższej perspektywie czasu powinienem być bezpieczny. Nawet jak temperatura otoczenia wzrośnie o 10*C (obecnie wynosi 20,5*C).

    Kultura pracy

    Karta cechuje się umiarkowaną kulturą pracy, choć w moim egzemplarzu cewki są słyszalne w specyficznych warunkach. Często wymienianym tutaj testem jest menu Wiedźmina 3 z wyłączonym v-sync gdzie generowane jest około 2500-3000FPS. W takich warunkach cewki są słyszalne, ale nie jest to uciążliwe. Najgłośniej grają w 3DMark Vantage, gdzie karta potrafi wygenerować więcej niż 500FPS, a jednocześnie wysoki jest pobór energii elektrycznej. Jest taka scena w drugim teście, gdzie kamera przesuwa się z widoku na przestrzeń kosmiczną w stronę statku gdzie następuje spadek z około 800FPS do 500FPS. Słychać wtedy charakterystyczny, modulowany dźwięk, który można spróbować opisać w sposób "łłłłyyyyyyeeeeeeeeeeeee" ;) Podczas normalnego używania w grach, nawet gdy jest generowane 200-300 klatek na sekundę, cewki pozostają niesłyszalne, także w moim odczuciu problem nie jest dotkliwy.

    Jeśli chodzi o hałas wentylatorów, to jest on zdecydowanie słyszalny. Przy poziomie 1100-1200RPM, gdy jedynym obciążonym elementem jest karta graficzna i pozostałe wentylatory pracują w okolicach 500RPM, szum jest słyszalny, lecz nie jest dokuczliwy. Podczas trwałego obciążenia rzędu 350W, obroty potrafią wzrosnąć do 2100RPM, ponieważ na biosie "OC" karta za wszelką cenę stara się utrzymać 64-65*C i wtedy szum jest dokuczliwy. Po wykonaniu UV, w grach, wentylatory pracują z prędkością około 1400-1500RPM i jest to według mnie poziom zupełnie akceptowalny. Jest znacznie ciszej niż na moim poprzednim Gigabyte GeForce GTX 1080 Gaming OC pracującym z domyślnymi ustawieniami, oraz wielokrotnie ciszej niż w EVGA GTX 760 z "suszarką". Nie mam nic do zarzucenia w tym aspekcie, choć inne autorskie konstrukcje są pod tym względem lepsze.

    Dodatkowe obserwacje

    Dla dotychczasowego opisu nie miało to znaczenia, ale kartę mam w komputerze, który znaleźć możecie w mojej sygnaturze. Gdyby coś miało ulec zmianie, wkleję tutaj konfigurację:

    • Intel Core i7 7800X @ 4,5GHz / 3GHz mesh | Noctua NH-D15 | Asus TUF X299 Mark 2 | 32768MB RAM @ 2933MHz CL14-16-16-35 2T
    • Gigabyte RTX 3080 Gaming OC
    • Samsung SM961 256GB | 2x Crucial MX100 256GB RAID0 | Seagate ST2000DM006
    • Corsair RM750 | Fractal Define R4 | 4x Noctua NF-A14 + 2x Noctua NF-P12

    Nie jest to najbardziej fortunna konfiguracja, a do tego procesor i platforma słynne są ze swojego braku efektywności. Nie dysponuję obecnie narzędziem, by sterować wentylatorami w obudowie bezpośrednio korelując je z temperaturą karty graficznej. Efekt jest taki, że mogę bez problemu podgrzać układ chłodzenia procesora za pomocą karty graficznej, która znajduje się parę milimetrów niżej. Efekt taki, że gdy po długotrwałym obciążeniu karty graficznej obciążę wszystkie wątki procesora realnym obciążeniem, momentalnie osiągam 90*C na procesorze, które dopiero zaczyna spadać dzięki wentylatorom, które wchodzą na bardzo wysokie obroty. Nie wiem jak uniknąć tego zjawiska zachowując jednocześnie wysoką kulturę pracy.

    No i pobór energii elektrycznej z gniazdka po sztucznym obciążeniu zarówno procesora jak i karty graficznej to skromne 724W.

    Podsumowanie

    Jeśli chodzi o samego Gigabyte Gaming OC to ciężko mi go porównywać z innymi konstrukcjami autosrskimi, ponieważ mam tylko tą kartę. Na podstawie testów znalezionych w internecie, w moim odczuciu plasuje się porównywalnie do Asusa TUF z delikatnym wskazaniem na tego drugiego. Lepiej rozwiązane jest chłodzenie kości pamięci i układu zasilania oraz nie ma tego dziwnego patentu z przedłużkami wtyczek zasilania. Mimo to, Gigabyte to solidna konstrukcja i nie spoglądam na Asusa zazdrosnym okiem

    Napisałem ścianę tekstu i przez wysoki poziom niewyspania spowodowany intensywnymi testami, całość wyszła zdecydowanie mniej spójnie niż zakładałem, a całość okazała się rozwlekła. Dajcie znać co myślicie o tym tekście – być może dla kogoś okaże się wartościowy, a być może ktoś będzie miał uwagi – chętnie przyjmę konstruktywną krytykę. Niekonstruktywną mniej chętnie, ale hej – to przecież internet

    Odkąd mam kartę nie odpaliłem ani raz żadnej gry w calach innych niż testowych na swoim komputerze i zamierzam to niebawem zmienić

     

    !!WIP!! - jeszcze sporo edycji przede mną  

     

    • Like 6
    • Thanks 3

  12. 12 minut temu, sideband napisał:

    Nie osłabiaj mnie. 3090 ma sens jak potrzebujesz tych 24GB i wykorzystasz je już teraz. 2022 to ta karta stanie się przepłaconym balasem i nic ci nie przyjdzie z tych 24GB w grach.

    Naprawdę to decyzja ludzi jak dysponują swoimi pieniędzmi. Nikt nigdy nie próbował racjonalizować wyboru kart z absolutnie najwyższej półki - czy to Titanów, czy xx80Ti. Jest szybsza od 3080 o tyle, że żadne mody nie zamkną różnicy pomiędzy nimi i o to w 3090 chodzi :)


  13. Otrzymałem Gigabyte RTX 3080 Gaming OC zamówiony wczoraj. Normalnie poczułem się jakbym żył w normalnych czasach - jednego dnia zamówienie, drugiego odbiór w sklepie. Mogłem nawet sobie otworzyć pudełko przed płatnością nauczony przykrymi doświadczeniami kolegi, któremu przyszło puste pudełko.

     

    Karta jest nowa, choć folia do której była włożona została naderwana. Widać że nie była nigdy wkładana do slotu PCI-E. Tydzień produkcji na PCB 2037, na naklejce na backplate SN2042. Wtyczki nowszego typu "zalane". Widzę że zdjęcia PCB tej karty są dostępne w sieci. To przynajmniej postaram się zrobić ładne zdjęcia samej karcie bez ściągania chłodzenia podczas montażu w komputerze :) Jeśli kogoś interesuje, mogę podzielić się swoimi doświadczeniami, ponieważ planuję przeprowadzić UV oraz testy poboru energii mierzone "ze ściany". No i na start rundka 3DMarków zaczynając od 2001SE :D

    • Like 1

  14. 6 minut temu, dunkunid napisał:

    Nie wiem jak Wy kupujecie w tym media expert, produkt dostępny w wybranych sklepach i co wpisujecie te kody na chybił trafił?

     

    Dokładnie - wczoraj widziałem bodaj Aorusa z samego rana o 6:30 w Poznaniu, a potem koło 9:00 w Warszawie. Albo na odwrót ;) Mi udało się odświeżyć stronę w dobrym momencie i zamówić Gigabyte Gaming OC przez sklep internetowy za 3999zł. Zamówienie o 14:25 i od tego czasu kilka powiadomień - ostatnie z 00:52, że karta została wysłana do sklepu. Także być może uda się dzisiaj jeszcze odebrać towar!

     

    PS. 15 lat na forum i już udało mi się 100 postów naklepać ^^'

    • Like 2

  15. 1 godzinę temu, Pitt_34 napisał:

    Wyluzuj trochę. Tzn w sensie stresu i pisania w wątku o RT :D

    Ale ja jestem wyluzowany :) Napisałem w paru punktach dlaczego uważam, że wybór 3080/6800XT wcale nie jest oczywisty, potem jeszcze jeden post i finalnie już nie chciałem kontynuować wątku, bo nie chcę robić chamskiego off-topu ;)

    • Upvote 1

  16.   

    22 minuty temu, PRT1000 napisał:

    Na co bardziej warto teraz czekać - rtx 3080 czy rx 6800 xt? - ale tak obiektywnie, z założeniem kupna porządnego nie referenta z tej czy z tej strony bez zmieniania potem karty przez najbliższe 3 lata? (I pomijając ceny i dostępności)

     

    Kurcze, naprawdę nie ten wątek, ale nie ma wcale oczywistej odpowiedzi na pytanie 6800XT vs 3080. Polecam zerknąć na testy po latach GTX 780/HD7970 i nowszych. To raz. Dwa to naprawdę uważam że w dalszej perspektywie, RTX 3080 braknie VRAMu. Trzy to kwestia wspólnej architektury w konsolach i na nowych Radeonach.

    Myślę, że Radeony będą lepiej się starzeć. Ja kupuję kartę na teraz, dlatego RTX 3080, ale 6800XT jest naprawdę kuszącą propozycją.

×
×
  • Dodaj nową pozycję...