Skocz do zawartości
xtn

Ograniczenie wsparcia dla Pascali w nowych grach?!

Rekomendowane odpowiedzi

Bo tam dx12 był doklejony a tu od podstaw masz gry robione w tym API?

Wcześniejsze implementacje dx12 to zwykłe protezy czasem gorzej działające od dx11

Kolejna i podstawowa sprawa o czym już napisałem. Turing ma jednostki fp16 , Pascal nie. Wystarczy że w danej grze część efektów będziesz miał puszczone na fp16 i Pascal leży względem turinga czy nawet polarisa. Im więcej gier będzie robionych głównie pod dx12 bez dx11 tym turing będzie odjeżdżał bo tam właśnie wykorzystywane są jednostki fp16. To samo jest z portami z konsol. Producenci gier optymalizują część efektów pod fp16 bo to jest czysty zysk wydajności a w konsoli masz polarisa. Później port wychodzi na pc i okazuję się tak jak w przypadku rdr2 ze Pascal dostaję w d...

 

:E :E

 

Od kiedy RAGE na którym bazuje RDR2 był budowany z myślą o DX12? Eksperty już chyba zapomniały że na tym samym silniku chodziło GTA IV na DX9 (8:E) i GTA V z DX10/11

COD i nowy silnik? Bo co, bo Activision puściło bajeczkę dla małych dzieci? Dalej gniją na starym ID Tech'u 3, a DX12 i DXR został doklejony. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

:E :E

 

Od kiedy RAGE na którym bazuje RDR2 był budowany z myślą o DX12? Eksperty już chyba zapomniały że na tym samym silniku chodziło GTA IV na DX9 (8:E) i GTA V z DX10/11

COD i nowy silnik? Bo co, bo Activision puściło bajeczkę dla małych dzieci? Dalej gniją na starym ID Tech'u 3, a DX12 i DXR został doklejony. ;)

Co za spiskowe teorie dziejów. Silnik do nowego Coda powstawał w Polsce, we Wrocławiu chyba. Zawsze możesz napisać do odziału i się spytać dlaczego ściemniają :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdybyś nie miał wsparcia to nie uruchomił byś gry na 1070 więc nie myl pojęć.

Koledze przez zwrot "wsparcie" chodzi o optymalizacje pod konkretny tytuł. Także uruchomi bez problemu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Spójrz tam na FHD ustawienia High i masz GTX1660 praktycznie na równi z GTX1070. GTX 1660Ti ma 15% przewagi nad GTX 1070, a GTX1080 jest tylko 10% bardziej wydajny od GTX 1660Ti. Przejrzyj sobie testy z premiery GTX1660Ti lub nawet 1660 Super i zobaczysz nagły spadek Pascali, który bardzo ładnie widać na tle Radeonów. W tym teście GTX1070 jest na równi z RX590 i tylko 10% szybszy od RX580. Takiego układu wydajności nie było jeszcze pod koniec października.

Ty wyciągasz błędne wnioski, nie mając żadnych podstaw do tego.

Rzeczywiście w tej grze widać wzrost różnicy wydajności między Pascalami a Turingami, i to wszystkimi. Na PPC jest test GTX 1660 Ti w Wiedźmin 3: Krew i Wino. W tym teście GTX 1660 Ti wypada słabiej od GTX 1070 a RTX 2070 jest 30% wydajniejszy od GTX 1070.

W RDR2 (FullHD, wysokie) GTX 1660 Ti ma większą wydajność od GTX 1070 o 15% a RTX 2070 jest wydajniejszy od GTX 1070 już o 50%.

 

W Wolfenstein II różnice w wydajności między tymi kartami też są identyczne jak w RDR2.

 

Czemu ty nadal nie przyjmujesz do wiadomości, że w tej grze to wykorzystanie możliwości nowej architektury Turing (wykonywanie w tym samym czasie instrukcji FP32 i INT a także szybsze obliczenia w FP16) powoduje zauważalny wzrost wydajności?

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież to widać jak na dłoni, że im dalej w las tym bardziej taki GTX 1060 6GB (Nowy za tysiaka :E) dostaje baty od polarisa za 600zł, nie mówiąc już o RX580/590. Gnioty typu GTX1050TI które niedawno jeszcze były polecane, obecnie nadają się do wyświetlania pulpitu (Obecnie RX570 niemalże dwukrotnie szybszy od 1050TI - obie w tej samej cenie).

Zresztą tak było zawsze. Na takim HD7870/7950 można było przesiedzieć ładny kawał czasu, podczas gdy Keplery szybciutko zaczęły magicznie łapać zadyszkę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ty wyciągasz błędne wnioski, nie mając żadnych podstaw do tego.

Rzeczywiście w tej grze widać wzrost różnicy wydajności między Pascalami a Turingami, i to wszystkimi. Na PPC jest test GTX 1660 Ti w Wiedźmin 3: Krew i Wino. W tym teście GTX 1660 Ti wypada słabiej od GTX 1070 a RTX 2070 jest 30% wydajniejszy od GTX 1070.

W RDR2 (FullHD, wysokie) GTX 1660 Ti ma większą wydajność od GTX 1070 o 15% a RTX 2070 jest wydajniejszy od GTX 1070 już o 50%.

 

W Wolfenstein II różnice w wydajności między tymi kartami też są identyczne jak w RDR2.

 

Czemu ty nadal nie przyjmujesz do wiadomości, że w tej grze to wykorzystanie możliwości nowej architektury Turing (wykonywanie w tym samym czasie instrukcji FP32 i INT a także szybsze obliczenia w FP16) powoduje zauważalny wzrost wydajności?

Ty nadal wietrzysz w bełkot marketingowy nvidii, ja już nie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ty nadal wietrzysz w bełkot marketingowy nvidii, ja już nie.

Jaki bełkot?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

SundayUser, przypomnę ci tylko, że GTX 1060 miał premierę 3,5 roku temu, więc twoje porównanie trochę z d...

 

xtn, no właśnie jaki bełkot? Ty wierzysz w swoje wymyślone teorie. Może się odniesiesz do mojego postu. Czy już brak argumentów?

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sądzę, że to jest dla niego bełkot, którego nie rozumie.

wykonywanie w tym samym czasie instrukcji FP32 i INT a także szybsze obliczenia w FP16 powoduje zauważalny wzrost wydajności

Edytowane przez DjXbeat

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawa dyskusja.

Jednak pewne rzeczy które się przewinęły w temacie wymagają uporządkowania.

 

1. Za bezpośredniego rywala GTX1060 należałoby przyjąć RX480, a nie RX580 jak to z uporem maniaka robi wiele osób.

RX480 i GTX1060 wyszły mniej-więcej w tym samym czasie (lato 2016r.), natomiast RX580 wyszedł w kwietniu 2017r. (i niemal cała produkcja tej karty poleciała do krypto).

 

2. W okolicach premiery obu kart RX480 przegrywał z GTX1060 niemal w każdej wymagającej grze (poza bodajże Battleifieldem).

Ba! Najmocniejszy Polaris miał wówczas problem by w całym przekroju gier wyraźnie pokonać GTX970.

Było to o tyle zaskakujące że pod względem czystej mocy obliczeniowej (bez kombinowania z FP16 i async) RX480 jest o 15-20% mocniejszy od GTX1060, o popularnym Maxwellu nawet nie wspominając.

Więc w sumie równie dobrze możnaby postawić pytanie AMD- dlaczego ich karty wypadają tak słabo na premierę i dopiero z czasem "dobijają" do swoich realnych możliwości?

 

3. Później pojawiało się coraz więcej tytułów w których Polaris coraz skuteczniej rywalizował ze swoim Pascalowym odpowiednikiem.

Nie było to jednak nic nadzwyczajnego- ot w jednej grze lepszy był RX480, w drugiej GTX1060.

Zwolennicy AMD trąbili już wówczas o lepszym starzeniu się kart AMD, ale mimo iż sam posiadałem wówczas RX480 uważałem to za pitolenie, bo oni do swoich teorii dobierali tylko tytuły Radeono-lubne, "przypadkiem" pomijając te w których relatywnie lepiej wypadały karty Nvidii.

Jednak gdy się zerknęło na GameGPU.ru, który testuje większość wychodzących tytułów, to wydajność na RX480/GTX1060 rozkładała się praktycznie po równo.

Wypominano również szybkie zestarzenie się Keplera, "zapominając" równocześnie co się stało z serią 6xxx od AMD po przejściu na GCN.

 

4. Ostatnie dwa miesiące dały jednak posiadaczom Pascali (mnie również) sporo do myślenia.

Pierwszym wyraźnym sygnałem był nowy CoD: MW.

Mimo wszystko wciąż nie było to nic nadzwyczajnego- seria od Activision zawsze chodziła lepiej na kartach czerwonych, a poza tym równocześnie wyszedł The Outer Worlds lepiej działający na kartach Nvidii.

Fakt- ta ostatnia gra działa na archaicznym silniku i wygląda nieporównywalnie gorzej od nowego CoD'a, ale jednak.

Przed wyjściem RDR 2 przewidywałem że relacja wydajnościowa pomiędzy kartami Nvidii a AMD będzie co najmniej porównywalna, bo w końcu GTA V latające na tym samym silniku było jednym z najbardziej "Nvidio-lubnych" tytułów obecnej generacji.

Jak widać- stało się zupełnie inaczej.

Bo czego jak czego, ale RX'a 580 dobijającego wydajnością do GTX1070 to w najoptymistyczniejszych dla AMD scenariuszach bym się nie spodziewał.

 

5. Niezależnie czy słaba wydajność Pascali w RDR2 jest wynikiem "kombinacji" Nvidii, czy braków w architekturze- fakt ten w dłuższym okresie czasu odbije się niekorzystnie na zielonych.

Mnie obecna sytuacja do przejścia na Turinga na pewno nie przekonała.

Wręcz przeciwnie- nasuwa się naturalne pytanie: jak bardzo "upadnie" Turing po wyjściu Ampere?

W perspektywie przyszłość rysuje się znacznie lepiej dla konkurencyjnych RX'ów 5700/5700XT i sądząc po licznych komentarzach- nie tylko ja tak uważam.

Edytowane przez Paw79

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Wręcz przeciwnie- nasuwa się naturalne pytanie: jak bardzo "upadnie" Turing po wyjściu Ampere?" thumbup.gif

 

 

Szczerze zacząłem się rozglądać za nowa kart ale jakbym nie konbinowal to nie mogę się przekonać do RTX 2070 Super ze względu na to co się dzieje z kartami Nv teraz.

Co z tego ze lepsze OC i teoretycznie wydajność wyższa= RTX2080 jak za rok jak wyjdzie Ampere się okaże ze Turingi zostaną zdeptane przez Nv i sterowniki lub samych Devow.

RX 5700XT nie dość ze tańszy to równie wydajny (brak RT ale tutaj nie jest to na ten moment potrzebne i tak). Przed Radkiem jednak blokuje mnie jego pobór mocy i hałas.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

SundayUser, przypomnę ci tylko, że GTX 1060 miał premierę 3,5 roku temu, więc twoje porównanie trochę z d...

 

xtn, no właśnie jaki bełkot? Ty wierzysz w swoje wymyślone teorie. Może się odniesiesz do mojego postu. Czy już brak argumentów?

Bronicie nvidii, jak niepodległości, na bazie teorii, że coś tak powinno działać ale nie macie kompletnie pojęcia, czy te wasze teorie są w ten sposób zaimplementowane w grach.

Ja opieram się na kolejnych testach w najnowszych grach, czyli faktach, które nawet mało rozgarnięte dziecko z podstawówki jest w stanie zauważyć na wykresach. Nie wymagam tego żebyś zmienił myślenie, bo to twoja sprawa ale jak chcesz sobie teoretyzować o technologiach, to twój wybór. Dla mnie liczą się fakty, czyli w tym przypadku wykresy. Pisałem to wcześnie, czy jest to cięcie w sterownikach, czy jakieś cięcia w samych silnikach gier, tego nie da się im udowodnić ale wykresy są jednoznaczne. Wydajność Pascali w najnowszych grach nagle rypnęła o 15-20%.

 

"Wręcz przeciwnie- nasuwa się naturalne pytanie: jak bardzo "upadnie" Turing po wyjściu Ampere?" thumbup.gif

 

 

Szczerze zacząłem się rozglądać za nowa kart ale jakbym nie konbinowal to nie mogę się przekonać do RTX 2070 Super ze względu na to co się dzieje z kartami Nv teraz.

Co z tego ze lepsze OC i teoretycznie wydajność wyższa= RTX2080 jak za rok jak wyjdzie Ampere się okaże ze Turingi zostaną zdeptane przez Nv i sterowniki lub samych Devow.

RX 5700XT nie dość ze tańszy to równie wydajny (brak RT ale tutaj nie jest to na ten moment potrzebne i tak). Przed Radkiem jednak blokuje mnie jego pobór mocy i hałas.

Pobór mocy masz praktycznie ten sam w Navi, a chałas to już kwestia kupna karty z dobrym chłodzeniem, identycznie jak to ma miejsce w kartach pokroju RTX 2060 Super i wyżej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

SundayUser, przypomnę ci tylko, że GTX 1060 miał premierę 3,5 roku temu, więc twoje porównanie trochę z d...

 

Debiutował w tym samym czasie co polarisy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Przed Radkiem jednak blokuje mnie jego pobór mocy i hałas.

 

Kup kartę pokroju Red Devil, Nitro+, a nie będziesz się przejmował hałasem. A pobór mocy to jest na poziomie GTX 2070 super.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...

 

Pobór mocy masz praktycznie ten sam w Navi, a chałas to już kwestia kupna karty z dobrym chłodzeniem, identycznie jak to ma miejsce w kartach pokroju RTX 2060 Super i wyżej.

 

No nie do końca, ogólnie patrze jeszcze na to przez pryzmat GTX 1070, a RX 5700 XT poborem mocy dorównuje GTX 1080Ti a to już słabo jak na kartę tego pokroju.

 

Kup kartę pokroju Red Devil, Nitro+, a nie będziesz się przejmował hałasem. A pobór mocy to jest na poziomie GTX 2070 super.

 

Gdzie ? :

power-gaming-peak.png

 

RTX 2070 Super dopiero po OC zaczyna zżerać duzo więcej energii ale jeden czort, to wszystko jest na poziomie GTX 1080Ti lub nawet czasem wyższym.

 

power-gaming-peak.png

Edytowane przez kadajo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bronicie nvidii, jak niepodległości, na bazie teorii, że coś tak powinno działać ale nie macie kompletnie pojęcia, czy te wasze teorie są w ten sposób zaimplementowane w grach.

Ja opieram się na kolejnych testach w najnowszych grach, czyli faktach, które nawet mało rozgarnięte dziecko z podstawówki jest w stanie zauważyć na wykresach. Nie wymagam tego żebyś zmienił myślenie, bo to twoja sprawa ale jak chcesz sobie teoretyzować o technologiach, to twój wybór. Dla mnie liczą się fakty, czyli w tym przypadku wykresy. Pisałem to wcześnie, czy jest to cięcie w sterownikach, czy jakieś cięcia w samych silnikach gier, tego nie da się im udowodnić ale wykresy są jednoznaczne.

To chyba ty jednak nie masz pojęcia, ponieważ to nie są żadne teorie. Ja sam sprawdziłem na mojej karcie wydajność po zastąpieniu części obliczeń w Compute Shader z FP32 na INT. Tak samo po zamianie FP32 na FP16. Mogę to łatwo udowodnić. A ty możesz udowodnić, że tak nie jest?

A co jeszcze widać na wykresach oprócz tego co wcześniej napisałem?

 

Wydajność Pascali w najnowszych grach nagle rypnęła o 15-20%.

Pisałem ci o wyciąganiu błędnych wniosków? Turing'i zyskują w związku z wykorzystaniem nowej architektury ale to nie znaczy, że z Pascal'ami coś się stało.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bardzo dobre podsumowanie PAW79, może w końcu niedowiarki zauważą spadek wydajności.

 

Też jestem ciekaw, jaka będzie tendencja wydajności Pascali w nowych tytułach, ale obawiam się spadku wydajności.

 

Też straciłem zaufanie od turingów, bo pewnie w Ampere pojawi się nowa technologia, której będzie brakowało w turingach. Zawsze myslałem, że to Ray Tracing będzie tym, co spowoduje spadek kompatybilności poprzedniej generacji, a tu pojawia się FP16, jako bat na poprzednie generacje;-)

 

Wniosek z tego prosty: nie opłaca się inwestować w kartę nvidii "na lata". Jak coś, to już od AMD. I ja tak zrobię, w przyszłym roku, chyba, ze mój GTX 1070 spadnie niedługo w wydajności poniżej 1650, to wcześniej :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bronicie nvidii, jak niepodległości, na bazie teorii, że coś tak powinno działać ale nie macie kompletnie pojęcia, czy te wasze teorie są w ten sposób zaimplementowane w grach.

Ja opieram się na kolejnych testach w najnowszych grach, czyli faktach, które nawet mało rozgarnięte dziecko z podstawówki jest w stanie zauważyć na wykresach. Nie wymagam tego żebyś zmienił myślenie, bo to twoja sprawa ale jak chcesz sobie teoretyzować o technologiach, to twój wybór. Dla mnie liczą się fakty, czyli w tym przypadku wykresy. Pisałem to wcześnie, czy jest to cięcie w sterownikach, czy jakieś cięcia w samych silnikach gier, tego nie da się im udowodnić ale wykresy są jednoznaczne. Wydajność Pascali w najnowszych grach nagle rypnęła o 15-20%.

Nikt nikogo nie broni tylko trzeba do sprawy podejść profesjonalnie bez wyciągania pochopnych wniosków. Podałem Ci wcześniej przykład z kepler vs maxwell gdzie błąd w sterownikach skutkował tym, że na premierę Wiedźmina 3 kepler zaliczył ~14% zjazd wydajności. Po niecałym miesiącu problem naprawiono i wydajność wróciła.

Problemem jest to, że na podstawie 2 gier z góry już założyłeś tezę i szukasz do niej argumentów a te, które nie pasują np. "wykonywanie w tym samym czasie instrukcji FP32 i INT a także szybsze obliczenia w FP16 powoduje zauważalny wzrost wydajności" z góry odrzucasz. Trochę więcej obiektywizmu.

Edytowane przez DjXbeat

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W Wolfenstein II różnice w wydajności między tymi kartami też są identyczne jak w RDR2.

 

Czemu ty nadal nie przyjmujesz do wiadomości, że w tej grze to wykorzystanie możliwości nowej architektury Turing (wykonywanie w tym samym czasie instrukcji FP32 i INT a także szybsze obliczenia w FP16) powoduje zauważalny wzrost wydajności?

RDR2 nie korzysta z obniżonej precyzji lub VRS. Różnice w Wolfie są większe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nikt nikogo nie broni tylko trzeba do sprawy podejść profesjonalnie bez wyciągania pochopnych wniosków. Podałem Ci wcześniej przykład z kepler vs pascal gdzie błąd w sterownikach skutkował tym, że na premierę Wiedźmina 3 kepler zaliczył ~14 zjazd wydajności. Po niecałym miesiącu problem naprawiono i wydajność wróciła.

Problemem jest to, że na podstawie 2 gier z góry już założyłeś tezę i szukasz do niej argumentów a te, które nie pasują np. "wykonywanie w tym samym czasie instrukcji FP32 i INT a także szybsze obliczenia w FP16 powoduje zauważalny wzrost wydajności" z góry odrzucasz. Trochę więcej obiektywizmu.

 

Jak już to Kepler vs Maxwell ;)

Wydajność wróciła, a pamiętasz chociaż ile gówna się wylało do opinii publicznej zanim problem naprawiono?

Ciekawe ile czasu byśmy poczekali na poprawki gdyby tak wszyscy milczeli jak grób, a problem zgłaszany byłby przez kilka jednostkowych użytkowników ;)

 

Sądzę, że to jest dla niego bełkot, którego nie rozumie.

Nie wiem kiedy Wy zrozumienie że obliczenia na FP16 nie są używane ani w RDR2 ani w żadnej innej z omawianych w tym temacie gier, które miały ostatnio premierę.

Edytowane przez DisconnecT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RDR2 nie korzysta z obniżonej precyzji lub VRS. Różnice w Wolfie są większe.

O VRS nie wspominałem. A skąd wiesz, że w shaderach w RDR2 nie ma obliczeń FP16?

Porównując RTX 2070 z GTX 1070 to masz 50% wyższą wydajność zarówno w RDR2 jak i w Wolfenstein II.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zakładam tak na logikę. Wiem, że na pewno są w Wolfenstein II i właśnie tam Turing'i notują dodatkowy wzrost wydajności względem Pascal'i. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O VRS nie wspominałem. A skąd wiesz, że w shaderach w RDR2 nie ma obliczeń FP16?

Porównując RTX 2070 z GTX 1070 to masz 50% wyższą wydajność zarówno w RDR2 jak i w Wolfenstein II.

Pokaż mi tytuł z wykorzystaniem FP16 i by zarazem nie było o tym wspomniane wink.gif

 

FC5 masz FP16 zaimplementowane tylko dla radków tego też nie wiesz?

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A w FC5 to nie wywalili FP16 w ogóle w którejś aktualizacji? Bo tak jakoś mi się kojarzy, ale może to kiepska pamięć.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...