Skocz do zawartości

Rekomendowane odpowiedzi

2 godziny temu, sideband napisał:

W grach będziesz miał mniej zapewne gorsze pady dają o sobie znać ;)

Póki co nie widziałem więcej jak 70 kilka stopni w grach na ramach. Ten test je obciąża na 100% więc wątpię żeby miało być gorzej.

Za to normą po 90 stopni było na 3090, gdzie ramy są po obu stronach PCB.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 13.04.2024 o 17:33, someI napisał:

Aż tak nisko się nie da, ale około 1/3 nominalnej wydajności przy 140W

Czyli można by ograniczyć do np. 165W i porównać z RTX 4060ti 16GB ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak. Na RTX 4090 możesz zasymulować każdą grafę wyprodukowaną do tej pory.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ustaw Power Limit na 1% i będzie git. 

  • Haha 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
W dniu 15.04.2024 o 17:36, Tygrysek2002 napisał:

mam tak samo na Gigabyte GeForce RTX 4070 TI SUPER GAMING OC

Udało mi się to ogarnąć, przynajmniej firmware update od Gigabyte, bo ten od Nvidii dalej boję się uruchomić. Trzeba było zmienić język systemu windows na English USA i dopiero wtedy się zaktualizowało poprawnie.

Edytowane przez Xeite

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Napisałem to w dziale gier ale tutaj też przekleję. Jestem ciekawy czy RTX5000 coś zmieni pod tym kątem. Może zamiast interpolacji będzie ekstrapolacja, co by pozwoliło pozbyć się opóźnienia?
 

Cytat

 

Ok, pograłem trochę z DLSS-FG po zmianie z 3090 na 4090 i powiem tak.

W porównaniu do dostępnego moda DLSSFG-TO-FSRFG od nukema to widać różnice w jakości przykładowo w CP2077 gdzie ten mod FSR po prostu nie działa prawidłowo.

Natomiast jeśli chodzi o gry w których FSR-FG nie ma oczywistych błędów jak w cymbergaju to w trakcie normalnej rozgrywki (a nie porównywania pojedynczych klatek) to nie widzę praktycznej różnicy między FG od nivdii robionej na tym ich czary-mary OFA, a tym FG na shaderach od AMD. Pograłem na obu wersjach frame-gena w wieśku 3 RT i w horizon forbidden west, i w obu w trakcie normalnej gry nie zauważam wad FSR-FG które by psuły wrażenia jak te artefakty w CP2077. Do tego zwykle FSR-FG jest kilka % bardziej wydajny od DLSS-FG mimo że obciąża normalne shadery a nie offloaduje to na tensory i OFA.

Podsumowując, myślę że jeśli tylko FSR-FG będzie zaimplementowane oficjalnie bez bugów to jakościowo będzie bardzo dobrym rozwiązaniem w praktyce niewiele albo wcale nie ustępującym DLSS-FG.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Złamałem się, wywaliłem Fryzjera z obudowy i zamiast 4070 Ti Super zakupiłem 4080 Super od Gigabyte, wersja WINDFORCE V2.

Że tak powiem, to chyba był najwyższy czas, bo po wyjęciu mojego RTX 2070 i bliższej inspekcji okazało się, że termopady soki już puściły.
I druga sprawa, jeżeli producent obudowy pisze, że maksymalna długość grafiki jaką możesz tam włożyć to 334 mm, a ty kupisz kartę, która ma, według informacji na oficjalnej stronie, 300 mm, to wiedz, że ktoś tu trochę mija się z prawdą, bo wlazło na styk, może 2 mm zostało przerwy i musiałem zdemontować wiatrak z przodu budy żeby to jakoś po skosie wcisnąć. Buda to Cooler Master HAF XB. To chyba już jej ostatnia wymiana karty, bo grafiki straszliwie przybrały na masie. Jak położyłem starą grafę obok nowej to wyglądała jak chucherko.

Fajna rzecz, zasilanie przypina się w 2/3 długości karty ale z tyłu, ominęła mnie gimnastyka z kablami. Szczególnie, że zamiast fryzjera mam teraz Assassina IV od DeepCool.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wrzucam jako przestrogę bo widać, że najwyraźniej EKWB jest w tarapatach finansowych i ciężko powiedzieć jak długo jeszcze pociągnie

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A oni mają w ogóle jakąś konkurencję sensowną czy głównie AiO zostanie na rynku ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
24 minuty temu, Ryszawy napisał:

I druga sprawa, jeżeli producent obudowy pisze, że maksymalna długość grafiki jaką możesz tam włożyć to 334 mm, a ty kupisz kartę, która ma, według informacji na oficjalnej stronie, 300 mm, to wiedz, że ktoś tu trochę mija się z prawdą, bo wlazło na styk, może 2 mm zostało przerwy i musiałem zdemontować wiatrak z przodu budy żeby to jakoś po skosie wcisnąć. Buda to Cooler Master HAF XB.

Po pierwsze gratulować zmiany, na tym modziki będą piknie śmigać w gierkach.

Druga sprawa to na stronce gigabyte podają długość tej karty nie 300mm, a 330mm

https://www.gigabyte.com/uk/Graphics-Card/GV-N408SWF3V2-16GD/sp#sp

L=330 W=136 H=58 mm

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fakt, 330mm, ale powinno być jeszcze z pół centa luzu, a nie ma.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Ryszawy

330 do 334 w budzie. Pisałeś, że masz 2 milimetry luzu. Czyli brakuje gdzieś ~2 milimetry według specu GPU i obudowy. Pewnie po stronie budy :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W Skyrim z ENB nie jest źle, 45 stopni i mniej niż 100W poboru energii. Poprzednio było 70-80 stopni i pobór mocy pod gwizdek. Fps Limit na 60 klatek, bo inaczej gra wariuje, ach ta kochana Bethesda i jej ogarnięci programiści.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
4 godziny temu, Ryszawy napisał:

Zakupiłem 4080 Super od Gigabyte, wersja WINDFORCE V2.

Tutaj:

jest ciekawe porównanie WINDFORCE V1 vs V2; Gość podejrzewa, że dostał żle zmontowaną szt. V2; Hot Spot >100...

Ciekaw jak Twoja szt., wrzuć coś dla porównania jak odpalisz GPU

Edytowane przez gabinetVR

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Jutro. Muszę posprzątać, bo bałagan po wymianie chłodzenia. Czytałem wczoraj, liczę, że gość po prostu miał egzemplarz ze źle nałożoną pastą. O dziwo wątków o tym i o problemach z chłodzeniem jest od groma, ale właściwie dotyczą Asusa.

Trochę wstyd w zielonych kartach za 1K zielonych.

Można gdzieś w Polsce kupić karty FE? Bo wszyscy piszą, że właśnie była dostawa, ale w polskim sklepiku Nvidii nie ma.

Edytowane przez Ryszawy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

OK. Zrobiłem test na szybko, ale bez tych ładnych wykresików jak w wątku na Reddit (ale to dlatego, że nie wiem jak je zrobić). Tam w wątku, ktoś wrzucił zresztą podobnego screena, też z wersji Gigabyte Windforce 2.0.

Tak wygląda ten z wątku:

nQSbkU1.jpeg

A tak moje wyniki:

Eft7ApS.png

Raczej wszystko w normie. Tamten egzemplarz pewnie z uwalonym chłodzeniem.

I po UV, pamięci +1000. Trochę słabiej, ale chłodniej i zapotrzebowanie na prąd sporo poniżej 300W
bh5YqR5.png

Edytowane przez Ryszawy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jest sens robić UV? Te chłodzenie jest takie wielkie że powinno sobie poradzić nawet w lato, a te kilkadziesiąt watów więcej pewnie nawet nie zauważysz na rachunku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@cichy45 Tu nie chodzi o rachunki tylko o temperaturę w pomieszczeniu, w którym grasz, szczególnie latem.

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Że sobie poradzi to nie znaczy, że zrobi to bezgłośnie. Nizsze temperatury, mniej rpm, mniej dogrzewa inne podzespoły i sam pokój. 

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok, rozumiem. Ja jestem ciepłolubny, a wiatraczki mi nie przeszkadzają. UV jedynie robiłem na 3090 ale nie z powodu głośności tylko tego że na stock się odbijała od 350W power limitu praktycznie non stop. Ale z 4000 tego problemu nie ma, to jedynie częstotliwość podniosłem i tyle :E

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Jeśli nie masz klimy, w upalne lato komp generujący 560 W podgrzeje Ci nieduży pokój o 10C np. z 30 do 40 stopni.

Edytowane przez tgolik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
58 minut temu, tgolik napisał:

40 stopni

Tak jak pisałem, jestem ciepłolubny :E 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Latem 25-30 to normalka u mnie. Zresztą miło było popatrzeć na te cyferki z RivaTuner, które w Skyrim z ENB pokazywały 45-55 stopni i 80W.

Zrobiłem UV również ze względu na mój leciwy już zasilacz, niby ThermalTake 850W 80 Plus Gold, ale ma już swoje lata i tylko dwa wyjścia PCI-E, a przejściówki dołączane do RTX 480 Super wymagają trzech linii zasilania, bo TDP to 320W.

Edytowane przez Ryszawy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Hyperthreading jest ogromną luką w zabezpieczeniach procesora, którą można załatać tylko... wyłączając HT. I dotyczy to zarówno procesorów Intela jak i AMD. https://www.techtarget.com/searchsecurity/news/252452053/PortSmash-side-channel-attack-targets-Intel-Hyper-Threading https://www.tomshardware.com/news/new-vulnerability-affects-all-amd-zen-cpus Ponadto zyski z HT są niewielkie, co prawda ma się dwa razy tyle wątków ale działają one znacznie wolniej niż na procesorze wyposażonym w dwa razy tyle identycznych rdzeni bez włączonego HT.
    • W takim razie napisz program, który dodaje dwie liczby w taki sposób, by efektywnie wykorzystać moc obliczeniową ... no bez szaleństw, czyli powiedzmy 8 wątków   ... a jak nie potrafisz, to zajmij się sprzedażą buraków.
    • Mam w czeluściach X2 5600, 6000 oraz 3600+,Twoja fajna maszynka, ale nie mam czasu tego testować i badać, jednak ciepłe miesiące to nie dla mnie czas na takie rzeczy.
    • Jest rok 2008. Po napisanej maturze postanowiłem sobie w lipcu odświeżyć platformę. Wcześniej nadal siedziałem na Athlon'ie 64 3200+ Venice s.754, 1GB DDR1 oraz GF 7300GT DDR3. Nadal również korzystałem z monitora CRT oraz mój komputer po części nadal służył jako rodzinny sprzęt (było to chwilę przed zakupem tego pierwszego Acer'a Aspire z poprzednich wpisów). Z moich ówczesnych kieszonkowych było mnie, po raz pierwszy, stać na większość nowych podzespołów i jedynie płytę główną kupiłem używaną. Nowa platforma składała się z odblokowanego Athlon'a 64 X2 5000+ tzw. Black Edition, 2x1GB A-Data Vitesta Extreme Edition 800MHz CL4 oraz ASUS'a M2N-E. Kupiłem wtedy również nowe chłodzenie procesora, ponieważ do wersji Black Edition nie dodawano box'a. Był to Arctic Freezer 64 Pro. Poniżej załączam autentyczne zdjęcia z tamtego okresu: W takim właśnie kartoniku przyszła do mnie ta płyta główna. Był to OEM bez tylnej blaszki. Wszystko zbiegło się również z moim pierwszym doświadczeniem nowego, na ówczesne czasy, systemu operacyjnego Windows Vista: Który tak mnie zachwycił swoim wyglądem, że właśnie musiałem zrobić sobie na pamiątkę te powyższe zdjęcie Jako ciekawostkę dopowiem, że te zdjęcia były wykonane telefonem, a dokładniej był to kultowy już Sony Ericsson K750i. Hehe, po ikonkach doskonale widać, co już wtedy było dla mnie najważniejsze Od razu również przyszedł czas na pierwsze testy: Tak jak wspominałem już we wcześniejszym wpisie, dopiero z początkiem 2008 roku miałem taką wydajność w 3DMark'u 03. Poza tym operowałem głównie na rozdzielczości 1024x768 @ 85Hz. ... Jednakże już pod koniec lipca 2008 roku udało mi się znaleźć pracę dorywczą, dzięki której udało mi się nabyć moją pierwszą, porządną oraz nową kartę graficzną, którą do teraz posiadam w swojej kolekcji, a była to karta GeForce 8800 GTS 512MB Od razu, po pierwszym uruchomieniu, przyszedł czas na 3DMark'a 03 oraz Crysis'a na DX10: Oba powyższe wyniki leciały na podkręconym procesorze, ale na Stock kartach. Chwilę później od razu sprawdziłem max tej karty: Sztuka ta cechowała się ponadprzeciętnymi możliwościami OC pamięci na karcie i poniekąd dlatego jakoś nie miałem ochoty się jej pozbywać Tak czy siak, wszystko wtedy było podkręcone pod korek. Płyta główna miała blokadę napięcia na ram do 1.95V oraz ubogie dzielniki, dlatego całość jest ustawiona tak śmiesznie, a odblokowany mnożnik w Black Edition się na nic nie zdał ... Pamiętam jeszcze, że chwilę później, za zdaną maturę otrzymałem od rodziców prezent w postaci licencji na Vistę Home Premium  Dlatego też na powyższych screen'ach widnieje ta "najlepsza wersja tymczasowa", oczywiście lecąca na 30-dniowym okresie próbnym, aby właśnie później przeinstalować system do docelowej edycji. Poza tym, jak obecnie na to patrzę, to widzę jaki dokładnie błąd popełniłem. Mianowicie, uparłem się na używanie 64 bitowego systemu, posiadając jedynie 2GB ram'u. Obecnie wiem, że akurat wersja 64 bitowa Visty jest wyraźnie wolniejsza względem wersji 32 bitowej, która po dobrej konfiguracji śmiga naprawdę dobrze na takich sprzętach. ... Mając w pamięci tę historię, postanowiłem z ciekawości wrzucić tego GTS'a 512 do tej "Platformy roku 2006" na testy, aby sprawdzić ile dokładnie ten Athlon 64 X2 był wolniejszy od C2D. Szczególnie, że oba procesory miały bardzo podobne taktowania oraz pamięci ram. Oto co mi wyszło i na początek grafa Stock: Przy okazji wyniki te można porównać do wyników na 8800 GTX 768MB. Widać tę lekką przewagę tych 24 ROP'ów oraz większej przepustowości pamięci w paru podtestach. ... Później wrzuciłem moje sprawdzone daily OC na tej karcie i ponowiłem wszystkie testy: Pięknie widać jak sporo większą moc oferował ten C2D, że już przy Stock karcie jest w stanie nawiązać walkę z wykręconą pod korek tę samą kartą, ale pod Athlon'em 64 X2 Brisbane G2. Tak, do teraz nieco żałuję, że w tamtych czasach nie dałem szans, a wręcz całkowicie pominąłem platformę LGA775, dlatego w tej chwili tak cieszy mnie jej doświadczanie i zbieranie nowych doświadczeń  W sumie, jak tak sobie teraz przypomnę, to żyłem wtedy w takiej bańce, że Intel oraz Pentium 4 jest gorszy od AMD oraz Athlon'ów, więc postawiłem od razu na Athlon'a, nawet nie sprawdzając wcześniej co ma do zaoferowania konkurencja. Pomijając już fakt, że nie miałem pojęcia wtedy czym różni się Brisbane od Windsor'a, myśląc, że niższy proces litograficzny jest pod każdym względem lepszy, bo jest nowszy. ... Jak wszystko dobrze pójdzie, to niedługo wrzucę podobne testy, na dokładnie tej samej karcie, ale właśnie na Windsorze F3 6000+ (ADX6000IAA6CZ) oraz M2N-SLI Deluxe, czyli kolejnych podzespołach, na które w tamtym czasie nie było mnie stać, dlatego kupiłem 5000+ BE oraz M2N-E.
    • Z tego co pamiętam to miałeś sztywne 4.1ghz na 3600 więc znając ciebie pewnie to było niestabilne i w końcu jakaś gra się wyłożyła  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...