Skocz do zawartości

Rekomendowane odpowiedzi

4 godziny temu, sonio napisał:

Więc kto kłamie? Kto robi źle?

Nikt nie kłamie :)

Po prostu przy takim porównaniu odmiennych architektur bardzo wiele zależy od konkretnej gry, jej optymalizacji i użytego API. Proste porównanie jedną cyfrą jest realne i jasne przede wszystkim w ramach podobnej architektury.
Dlatego wyniki będą takie, że w jednych tytułach 6700XT będzie na poziomie 3070, a w innych 3060Ti. Nawet uśrednianie nie ma większego sensu, bo względem jakiego kryterium :)

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, GregM00 napisał:

Nikt nie kłamie :)

Po prostu przy takim porównaniu odmiennych architektur bardzo wiele zależy od konkretnej gry, jej optymalizacji i użytego API. Proste porównanie jedną cyfrą jest realne i jasne przede wszystkim w ramach podobnej architektury.
Dlatego wyniki będą takie, że w jednych tytułach 6700XT będzie na poziomie 3070, a w innych 3060Ti. Nawet uśrednianie nie ma większego sensu, bo względem jakiego kryterium :)

 

Ja do doskonale wiem. Pisałem o tym wcześniej. W ogóle nie chciałem udowadniać nikomu która karta lepsza czy gorsza - tylko zostałem wywołany do tablicy dziwiąc się, bo na techspocie widziałem wiele ciekawych testów i tyle samo mniej ciekawych. Wręcz aż sam się zdziwiłem jak pięknie pokryły się wyniki HU i techspot :) Chyba ściągali od siebie :) 

W ogóle - zaczeło się od porównia dwóch bliźniaczych konstrukcji AMD, a tu szukanie gdzie tam na wykresie ma leżeć GF. 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko mnie uwiera w oczy podawanie avg fps?

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 minut temu, Adolph napisał:

Tylko mnie uwiera w oczy podawanie avg fps?

Zwykle jest jeszcze 1% Low.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, Adolph napisał:

Tylko mnie uwiera w oczy podawanie avg fps?

A jak podaja programowy 0.1% to juz nie boli?

Dla wlasnie takich jak ty sa wlasnie testy w sieci z podaniem testow nie tylko avg ale 99 i 0.1 . Fajnie wyglada na wykresie i nic pozatym w 99% przypadkow bo sa programowe, robione msi afterb...lub podobnym programem a nie sprzetowym co wyswietla sie na ekranie. Zrozumiale bo kase to kosztuje i czas.

5 godzin temu, GregM00 napisał:

Zwykle jest jeszcze 1% Low.

wymien tyle redakcji z 1% ktora robi to poprawnie by zapelnic reke. Zostana ci palce.

Ujme to inaczej w rozgryce 10 minutoqwej 1% to 360 okienek cale 6 sekund. Jeszcze lepiej to 0.1% 36 okienek 0.5sekundy w 10 minutach.

Teraz pomys jak to przeklada sie na rozgryke.

Edytowane przez MaxForces

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, sonio napisał:

Wręcz aż sam się zdziwiłem jak pięknie pokryły się wyniki HU i techspot :) Chyba ściągali od siebie :)

Wow, ale zaskoczenie, skoro TechSpot to po prostu wersja pisania HWU.

  • Haha 1
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, MaxForces napisał:

Ujme to inaczej w rozgryce 10 minutoqwej 1% to 360 okienek cale 6 sekund. Jeszcze lepiej to 0.1% 36 okienek 0.5sekundy w 10 minutach.

Nie ma okienek. 1% to średnia z 360 najniższych wartości (o ile średni fps wynosi 60, bo analizowana jest każda ramka; 10 min * 60s * 60fps = 36000 bazowych ramek)  ze wszystkich wygenerowanych przez 10 minut ramek, a 0.1% - z 36 najniższych wartości. Hint z RTSS (domyślnie to jest ustawione na unlimited)
obraz.png.ea5cbeeea524f94b08aaa8d8d451da47.png

Edytowane przez GregM00

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Generalnie czas renderowania każdej klatki jest inny, stąd 1% low czy 0.1% low nie do końca oznacza, że gorszy od tych wartości frametime był dokładnie przez 1/0.1% czasu rozgrywki. Z tym, że z tymi wartościami wiąże się kilka niuansów:

  • nawet rzeczywiście trwające bardzo krótko czasowo przycięcia mogą być denerwujące,
  • ale percentyle wcale nie muszą ich wychwycić!
  • ponadto programowy pomiar frametime jest po prostu do kitu,
  • dlatego mierząc wydajność programowo zdecydowanie bardziej sensownie jest pozostać przy FRAPS-owym minimalnym FPS, a jeżeli podczas rozgrywki pojawiały się anomalie z płynnością animacji, to wtedy należy dać o tym adnotację.

To tyle w temacie ;)

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czy ktoś widział test (i może podlinkowac) UV/power limitów dla 7900xtx? Tzn. jaki wpływ na wydajność mają poszczególne ustawienia. Jestem ciekawy, bo takie testy widzialem dla rtx4090, dla nowych CPU z obu stajni, ale dla 7900xtx jakby mi google nie działał :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, sonio napisał:

Czy ktoś widział test (i może podlinkowac) UV/power limitów dla 7900xtx? Tzn. jaki wpływ na wydajność mają poszczególne ustawienia. Jestem ciekawy, bo takie testy widzialem dla rtx4090, dla nowych CPU z obu stajni, ale dla 7900xtx jakby mi google nie działał :)

Może tutaj?

 

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki, coś w tym stylu.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odnośnie problemu z kompilacją shaderów, pogłębiłem temat, to jest w sumie nadal otwarty problem. Owszem, przy DX12 kompilacja jest asynchroniczna (nie odbywa się w chwili użycia jak przy DX11, ale może być przeprowadzana wcześniej) ale z tego co piszą, to może trwać i 30 minut (mam wrażenie, że wraz z rozwojem jakości grafiki programy shaderów robią się i bardziej złożone i jest ich więcej).
Stąd jednym z rozwiązań jest szybka kompilacja shaderów w trybie nieoptymalnym, a potem już w trakcie gry ponowna, optymalna kompilacja w tle i zastąpienie tych pierwszych.
Ciekawym pomysłem jest też stworzenie dla gry bazy w chmurze już skompilowanych shaderów, z których gra, po zorientowaniu się co do hardware'u, wersji sterownika i ustawień użytkownika, pobierałaby te właściwie (o ile byłyby dostępne). Czyli docelowy efekt byłby jak na konsolach, gdzie jednolity hardware powoduje, że gra ma już skompilowane zawczasu shadery i nie występuje problem z kompilacją (i ewentualnym stutteringiem).

Edytowane przez GregM00

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 godzin temu, MaxForces napisał:

Dla wlasnie takich jak ty sa wlasnie testy w sieci z podaniem testow nie tylko avg ale 99 i 0.1 . Fajnie wyglada na wykresie i nic pozatym w 99% przypadkow bo sa programowe, robione msi afterb...lub podobnym programem a nie sprzetowym co wyswietla sie na ekranie. Zrozumiale bo kase to kosztuje i czas.

Ale ja nie o tym. Tylko o zestawieniu średniej wydajności z x gier wyrażonej w średnim FPS.
Jeżeli wezmę jedną grę, gdzie karta A ma 50 fps ,a karta B ma 10% przewagi i 55 fps. Do tego wezmę drugą grę, gdzie karta B ma 100 fps, a karta A będzie mieć 10% przewagi, czyli osiągnie 110.
Procentowo są równe, ale w dwóch tytułach karta A uzyskała 160 fps, a karta B 155fps. Można też odwrotnie. W pierwszym teście dać karcie B przewagę 20%. Procentowo będzie szybsza, w średnim fps będzie równa.
AVG fps, z natury będzie faworyzować gry o wysokim fps. Dlatego zapytałem, czy kogoś jeszcze to uwiera. Po prostu od lat nie widziałem, aby ktoś zwracał na to uwagę.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sumowanie fps do sredniej to chybiony pomysl. Srednia avg daje najlepsze zobrazowanie sytuacji gdzie nadal nie jest idealnie i sa potrzebne opisy odnosnie bledow 

Edytowane przez MaxForces

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Praktycznie się potwierdza,że RX 7800 XT na papierze jak jest w tej podanej specyfikacji z Navi 32 nie ma szans z 4070 Ti i będzie trochę lepszy od 4070.

Edytowane przez Spl97

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, Adolph napisał:

AVG fps, z natury będzie faworyzować gry o wysokim fps. Dlatego zapytałem, czy kogoś jeszcze to uwiera. Po prostu od lat nie widziałem, aby ktoś zwracał na to uwagę.

Jak się ogląda materiały, gdzie "średnia wydajność" to średnia ze wszystkich średnich FPS-ów, to wtedy może uwierać :E Ale nie ma żadnych przeciwwskazań, żeby to policzyć legitnie procentowo i wtedy, czy w danej grze jest więcej kl./s, czy mniej, nie ma absolutnie żadnego znaczenia.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Spl97 napisał:

Praktycznie się potwierdza,że RX 7800 XT na papierze jak jest w tej podanej specyfikacji z Navi 32 nie ma szans z 4070 Ti i będzie trochę lepszy od 4070.

Najważniejsze będzie jak to wycenią.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, GregM00 napisał:

Najważniejsze będzie jak to wycenią.

Mnie osobiście rozkłada jak dużo W pobierają te karty. Na dobrą sprawę na prawdę dobrą wersję 7900xtx idzie znaleźć już za 6k (, za więcej to mamy już wersje odjechane z 3 wtyczkami 8pin. Za tyle to zostają najtańsze 4080, i to tylko jak utrafisz promocję (zwykle jak jestem w pracy, więc mogę sobie pomarzyć). Ale jak zaczniesz porównywać ile W bierze 4080 vs 7900xtx - często to prawie 80-90W różnicy w grach i 20-40w w innych rzeczach. Dużo nie dużo, ale robi to różnicę - szczególnie latem. No a jak teraz wygląda 7800XT z swoim 280W? Znów więcej niż 4070TI.

 

Sam się wacham bo tak mi się podoba 7900xtx red devil, ale zastanawia mnie czy w to iść czy zamiast tego kupić GeForce RTX 4080 Phantom. Ta sama cena.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bierz 4080, 7900xtx musiałby być minimum 1000zl tańszy od 4080, żeby byl w jakimś stopniu atrakcyjny. Tak wygląda moja opinia, jeszcze do niedawna zwanego przez innych forumowiczów "fanboyem amd".

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przy tej samej cenie też wolałbym 4080 od 7900xtx. 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, sonio napisał:

No a jak teraz wygląda 7800XT z swoim 280W? Znów więcej niż 4070TI.

Ale też niżej niż 335W przy 6950XT :)

Kluczowe dla mnie jest to, czy te nowe modele będą pozwalały na UV podobne do tego w RDNA2. Czyli pośrednio, czy są skopane energetycznie na podobieństwo Navi31, czy nie.

19 minut temu, sonio napisał:

Sam się wacham bo tak mi się podoba 7900xtx red devil, ale zastanawia mnie czy w to iść czy zamiast tego kupić GeForce RTX 4080 Phantom. Ta sama cena.

AMD coś tam nadal grzebie w sterownikach, małe szanse, ale może coś poprawią odnośnie zużycia energii. Jak nie, to te modele z Navi 31 wyglądają po prostu kiepsko energetycznie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, novi napisał:

Bierz 4080, 7900xtx musiałby być minimum 1000zl tańszy od 4080, żeby byl w jakimś stopniu atrakcyjny. Tak wygląda moja opinia, jeszcze do niedawna zwanego przez innych forumowiczów "fanboyem amd".

Ale też nie można porównywać topki amd czyli Red devila albo szafira do niższej półki nv... Tymczasem w mindfactory jest do wzięcia red devil za 5650...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, wkamil73 napisał:

Ale też nie można porównywać topki amd czyli Red devila albo szafira do niższej półki nv... Tymczasem w mindfactory jest do wzięcia red devil za 5650...

Zgodzę się że Red devil po prostu wymiata i totalnie jeśli chodzi o samą wersje to nie ja nie widzę nic konkurencyjnego przy 4080- przynajmniej w tej samej cenie. A jakby cena w PL była 5700 za Red devila to nawet bym się nie zastanawiał. Tylko zdjęcia na forum wrzucał z nowego nabytku. 

20 minut temu, GregM00 napisał:

Ale też niżej niż 335W przy 6950XT :)

Kluczowe dla mnie jest to, czy te nowe modele będą pozwalały na UV podobne do tego w RDNA2. Czyli pośrednio, czy są skopane energetycznie na podobieństwo Navi31, czy nie.

AMD coś tam nadal grzebie w sterownikach, małe szanse, ale może coś poprawią odnośnie zużycia energii. Jak nie, to te modele z Navi 31 wyglądają po prostu kiepsko energetycznie.

Nie wiem co to AMD robi, ale kurcze, szkoda że tak ostatnio olewają temat energii w swoich produktach. Tym bardziej że np. recenzenci opisują że karta x ma np. tryb Eco z blokadą power limitu, ale nawet im się nie chce sprawdzić jak wygląda wydajność. Co prawda są treści z blokadą na 300w zrobioną ręcznie, ale dla GF są odpowiedniki z blokadą nawet na 200W. No chyba że ktoś widział porównanie GF i Radka na tych samych power limitach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne aktualnie

  • Tematy

  • Odpowiedzi

    • Tak, takich niedoróbek pełno w grze, ale tego raczej nie zmienią. Każdy inaczej odbiera grę i jak dla każdego z osobna robić poprawki, to ja tego nie widzę. Chyba, że da się w opcjach gry np. wyłączyć/ograniczyć kamienie, bo opcja podnoszenia z automatu jest, tylko że dotyczy wszystkiego Co do użycia RAM i Vram, to pierwszy odczyt jest do załatwienia dokupując/zmieniając pojemność RAM, za to co do drugiej wartości, to tacy użytkownicy jak ja mają kłopot, bo Vramu nie da się dołożyć, a karty zmienić na taką z pojemniejszym Vramem  nie mogę, bo mnie po prostu nie stać, więc albo spaczują grę i będzie można komfortowo pograć z 8GB Vram, albo zacznie się wieszanie psów. Nie ma żadnej przyjemności grać miodnie, żeby chrupło i nagle z masła 60fps zrobiło się 22 fps i kapota. Znowu restart gry i tak w kółko. Żałuję, że nie kupiłem 3060 12GB, bo DLSS + FG dało by mi więcej radochy, niż silniejsza karta z uboższym Vramem. Trochę ponarzekałem, należy się, bo jest mnóstwo niedoróbek, ale i tak czas spędzony w grze dał mi fun Poczekam na lepszą optymalizację odnośnie nagłych spadków fps, tak jak to miało miejsce w HZD, które jest miodne
    • A u mnie na biurku stoi teraz mniejszy brat - Aorus FO27Q3. Wersja 27 cali, 1440p, 360 Hz. Monitor ma być do mojego drugiego zestawu w którym obecnie jest 4K 144Hz Asus XG27UQR (nie zastępuje głównego LG C2 42 i do niego specjalnie nie będę się odnosił). Testowałem natomiast  (to znaczy chciałem kupić, ale mi nie podeszły) ostatnio LG 27GS95 i ASUS PG27AQDM.  Pierwsze wrażenia są bardzo dobre. Aorus QD-OLED ma od razu, na pierwszy rzut oka, lepszy obraz. Biel z QDOLED nie ma tego różowo-zielonego tintu Czcionki w nowym układzie subpikseli są super. Normalnie używam tu IPS 4K z wysokim gamutem (Asus XG27UQR) i nie widzę różnicy. Natomiast WOLEDy miały gorszą ostrość typowego IPS 1440p. Kolory, no trzeba przyznać, że są "bardziej". Ogólnie to już się przyzwyczaiłem, że WOLEDy mają kolory nie natarczywe, naturalne a ww. IPS z wysokim gamutem czy ten QD OLED idą w stronę wesołego miasteczka nocą. To może się podobać, zwłaszcza, że gdy, czy treści oglądane na PC/YT raczej nie są naturalne. 360Hz. Kiedyś miałem Asusa 240Hz IPS. Te 360Hz to petarda. Nie gram w sieciowe strzelanki, ale na szybko przejrzane jednoosobowe fpsy są super. Zresztą nie tylko fps. Np. Plague Tale Requiem z FG wyciąga mi 270 klatek - na RTX 4080 i większości wymaksowanych ustawieniach (bez RT, którego nie lubię). Test UFO wygląda obłędnie.  HDRu jakoś specjalnie nie męczę, bo wiem, że LG 42 będzie lepszy, ale miłą niespodzianką jest, że można tu trochę poustawiać w HDR jak w TV. Do tego monitor sam się przełącza po wybraniu HDR w Windows.  Nie ma wentylatora, jest cichy. Nie piszczy zasilacz ani płyta główna. Nie widziałem migotania z Gsync. Po unboxingu i kilku godzinach zamierzam go zostawić.       - 
    • A kogo to obchodzi co tam się dzieje? Jakiś afrykański kraj na zadupiu bez zasobów naturalnych, gdzie lada dzień umrze z głodu 5mln ludzi. Całe szczęście, że mamy ONZ które może zaprowadzić pokój aby miliony niewinnych ludzi nie cierpieli z powodu wojny... oh wait  Pewnie zareagują jak połowa kraju zginie, jak w przypadku Rwandy 40mln USD które Polska co roku płaci do ONZ są wykorzystane idealnie   
    • Wtedy najniższa to była tylko na umowie reszta pod stołem, jak to się mówiło, czy się stoi czy się leży dwa tysiące się należy.
    • Tylko muszę dopasować... I świecące muszą być... GSKILLE mi się podobają... Tak wiem, dzieciarnia, ale jakoś tak wyszło, że widać u mnie w budzie te ramy i pompkę AiO, więc chociaż coś tam się poświeci. Tylko opóźnienie jakie wybrać... tak za 400 zł z CAS 18 można wziąć... pewnie im mniej tym lepiej. Chyba, że coś innego polecacie... Lexar, Corsair... itd. I tak będę musiał sprawdzić czy kostki są kompatybilne... wiecie to płyta ITX... co prawda ASUS FOR GEJMERS ... ale tam chyba takie standartowe kostki do 3600 Mhz przyjmuje.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...