Skocz do zawartości
xtn

Ograniczenie wsparcia dla Pascali w nowych grach?!

Rekomendowane odpowiedzi

Stare karty nie są ograniczane przez sterownik tylko przez brać pełnej obsługi danego API i tyle. AMD przygotowywało GCN (chyba od 3.0, ale nie mam pewności) do Mantle i później do API konsolowych, a NV skupiła się na dx9 i dx11 - DX10 pominęła i była nawet o tym głośna afera z AC od Ubisoftu - Teraz dopiero wychodzą gry, które można nazwać full Vulcan/DX12, ba nawet protezy gier na DX12 działają na niskich/średnich detalach lepiej niż odpowiedniki NV z tamtych czasów.

 

Już w jednym temacie mówiłem, że NV karty NV mają krótką żywotność, bo NV nie zawraca sobie głowy nowościami tylko doi ile może obecne API. Ampere Turingowi też odskoczy, a będzie to maksymalnie widoczne w grach full Vulcan/DX12 bez żadnych naleciałości z DX11.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdzie w takiej kwestii "ubijanie sterownikami" ?

Ubijanie sterami musiałoby mieć efekt także na stare konstrukcje.

Ja o tym nie pisałem. To mi bardziej wygląd na złe działanie na tle kart konkurencji z tamtego czasu

 

nvidia prawie każdą nową serią robi spory krok do przodu, amd co drugą...

czym różniły się RX 470/480/570/580?

+ jaki przyrost oferował RX470/480 względem 290xa?

no właśnie żadne. rx 290 dziś działa lepiej niż kilka lat później wypuszczone produkty nvidi. Były prądożerne, ale właśnie za cenę działania lepiej od nvidi po kilku latach. Były przyszłościowe.

 

o czym my tu gadamy?

zobaczmy skoki i rozwój kart NV na średnim poziomie : 770/970/1070/2070

gtx 970 wyszło rok później niż r9 290 a dziś nie jest szybsze

Edytowane przez qrek1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja o tym nie pisałem. To mi bardziej wygląd na złe działanie na tle kart konkurencji z tamtego czasu

 

 

no właśnie żadne. rx 290 dziś działa lepiej niż kilka lat później wypuszczone produkty nvidi. Były prądożerne, ale właśnie za cenę działania lepiej od nvidi po kilku latach. Były przyszłościowe.

 

 

gtx 970 wyszło rok później niż r9 290 a dziś nie jest szybsze

 

1. Ktoś inny tu dym kręci o ubijanie kart.

2. Zależy od porównania. Każdy ubiera sprawę w ciuchy pod dwój gust.

GTX 780ti vs RX570 ...

RX290 w założeniu był konkurentem dla 780.

Jak chcemy porównywać do tego segmentu i kilka lat później - to pada na gtx 1080... a tu raczej 290kka nie ma podskoku..

3. 290/290x/780/780ti wypadają różnie zależnie od gry.290 był drugą kartą od góry - czyli możemy odnosić do 980tek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak chcemy porównywać do tego segmentu i kilka lat później - to pada na gtx 1080... a tu raczej 290kka nie ma podskoku..

Nie o to nie o to. 1080 wyszło 3 lata później. gtx 970 oraz 1060 jak wychodziły to był poziom starego r9 290.

Edytowane przez qrek1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przerabiałem kiedyś ten temat i doszedłem do wniosku takiego, że karty od AMD przez lata są produkowane w tej samej architekturze, ich wydajność rośnie w jakimś stopniu coraz to nowszymi sterownikami.

Natomiast NVIDIA jak wypuszcza karty to te sterowniki są na tyle dopracowane, że na starcie otrzymujemy praktycznie max wydajność, architektura zmienia się co 1-2 generacje, a NVIDIA po prostu już tak nie optymalizuje sterowników starszych generacji, bo priorytetem są nowe serie.

Nie znaczy to jednak, że celowo obniża wydajność starych kart, bo ta poprostu zostaje na starym poziomie i nie rośnie jak w przypadku AMD.

Dlatego po latach są takie kwiatki, że Radeon potrafi odjechać dawnemu konkurentowi, kwestia dopieszczonych sterowników + Radeony lepiej spisują się w grach z dx12 i vulkanie a tych gier jest coraz więcej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Należy nadmienić że karty AMD są zwykle sprzętowo mocniejsze od odpowiedników Nvidii.

Np. taki RX480 był od początku ok. 20% mocniejszy od GTX1060.

Vega 56 była na premierę porównywana z GTX'em 1070, mimo że różnica w TFlops'ach pomiędzy tymi kartami to ok. 50% (plus 75% wyższa przepustowość pamięci).

 

Możnaby wręcz zadać odwrotne pytanie- dlaczego Radeony tak słabo wypadają na premierę i dopiero z czasem ich moc zaczyna być wykorzystywana?

 

Wyjątek stanowi para R9 290X vs GTX780Ti.

Te karty sprzętowo są pod każdym względem porównywalne.

Tu przydałaby się nieco głębsza analiza- czy na relatywnie niższą wydajność GTX'a w nowych produkcjach wpływają nierozwijane sterowniki, zastosowane technologie, czy może ograniczenie w postaci 3GB VRAM.

Szkoda że autor publikacji nie zdecydował się dodać do porównania Keplera w wersji z 6GB pamięci.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Możnaby wręcz zadać odwrotne pytanie- dlaczego Radeony tak słabo wypadają na premierę i dopiero z czasem ich moc zaczyna być wykorzystywana?

słyszałem teorię że nvidia bardzo współpracuje z producentami gier, "doradzając" im jak pisać gry by na ich kartach optymalnie chodziły, więc póki jest wsparcie to nowe gry wypadają na nvidiach dobrze. Potem wychodzi nowa generacja doradztwo dla starej się kończy i jest tylko doradztwo dla nowej, bo to najważniejsze. W przypadku radeonów tego nie ma, więc zostaje czysta moc obliczeniowa i siłą rzeczy nie ma spadków z powodu braku wsparcia dla nowych gier, bo nigdy tej optymalizacji nie było.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z teoretyczna mocą obliczeniowa zgadzam się w 100% Radeony na papierze są przeważnie mocniejsze, ale praktyka weryfikuje inaczej, jak dla mnie główny problem tkwi w sterownikach i ich narzucie, to między innymi dlatego Radeony odzywają przy nisko poziomowym api, to po części tłumaczy dlaczego z czasem stają się wydajniejsze, bo po prostu sterowniki stają się bardziej dopracowane.

A co do RX 290x vs 780ti to myślę że wszystko po troche na to się składa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko jedno w jaki sposób NVIDIA ogranicza poprzednie generacje. Czy to jest już w momencie projektowania GPU, czy dopiero brak wsparcia dla nowych gier w kolejnych sterownikach, czy jeszcze inny sposób którego nie jesteśmy w stanie zidentyfikować. Taki proceder trwa od kilku generacji i ja jako konsument mam dość tego typu postarzania produktu. Dlatego trzymam kciuki za amd chociaż ich sterowniki są bardziej problematycznie niż nvidii i wymagają mocniejszych CPU, żeby uzyskać pełną moc ich kart.

 

Tak jak w przypadku CPU czerwoni zmusili Intela do przyspieszenia rozwoju, tak jest szansa na ukrócenie działań NVIDII przez konkurencję że strony AMD i może paradoksalnie Intela na rynku GPU w przyszłym roku.

Edytowane przez xtn

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko jedno w jaki sposób NVIDIA ogranicza poprzednie generacje. Czy to jest już w momencie projektowania GPU, czy dopiero brak wsparcia dla nowych gier w kolejnych sterownikach, czy jeszcze inny sposób którego nie jesteśmy w stanie zidentyfikować. Taki proceder trwa od kilku generacji i ja jako konsument mam dość tego typu postarzania produktu. Dlatego trzymam kciuki za amd chociaż ich sterowniki są bardziej problematycznie niż nvidii i wymagają mocniejszych CPU, żeby uzyskać pełną moc ich kart.

 

Tak jak w przypadku CPU czerwoni zmusili Intela do przyspieszenia rozwoju, tak jest szansa na ukrócenie działań NVIDII przez konkurencję że strony AMD i może paradoksalnie Intela na rynku GPU w przyszłym roku.

W sumie narzut drivera mocno się rozmył po tym jak dostaliśmy 6 rdzeni w niskiej miarę cenie. Wszystkie redakcje testują na 8700k/9900k - przy słabszych CPU wyniki w teorii powinny się spłaszczyć, jednak jeśli narzut nadal jest problemem to pogłębić. Dalej idzie nowe API które znów zmieniają obraz gry.

 

Bądź mądry i pisz wiersze :E nie mniej jednak PurePC ze swoimi testami starych kart włożyli kij w mrowisko i nabijają sobie kosmicznych wyświetleń. Mówimy jednak o konstrukcjach zeszłej epoki - Nvidia zdobyła rynek Maxwellem. Dopiero jego porównanie na serio dałby szerszy obraz temu co się dzieje. AMD puściło wtedy kotletowe 390. Z punktu widzenia jednak gracza dopiero od tych kart warto sprawdzać co się dzieje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przeczytalem wiekszosc postow tego watku i szczerze mowiac to nie moge uwierzyc jakie tu terie spiskowe sie uprawia :E

Nie dosc, ze przez 2.5 roku uzytkowania mojej karty nie zauwazylem zadnych spadkow wydajnosci w grach w ktore gram; to jeszcze wiele z tych gier chodzi lepiej niz w dniu premiery. Czyli w pozniej wypuszczanych sterownikach Nvidia dokonywala wciaz aktualizacji i fixow.

Wg mnie sytuacja wyglada z gola inaczej. To rok temu nabywcy turingow zostali przez NV lekko "wycyckani" i dopiero teraz zaczynaja otrzymywac w grach wydajnosc jaka powinni miec od dnia zero. A marudzenie ludzi, ktorzy siedza na pascalach, ze im turingi zaczynaja odjezdzac w nowych tytulach jest po prostu niedorzeczne :hmm::E

 

W ktoryms poscie z drugiej czy trzeciej strony watku, ktos sie zapytal "jak sie teraz musza czuc ludzie, ktorzy kupili 1080Ti?". Od siebie moge dodac, ze czuja sie wysmienicie, gdyz to byl najprawdopodobniej ich najlepszy zakup GPU w historii.

Skoro 2.5 roku temu kupilem karte za 3.3k pln a dzisiejszy jej wydajnosciowy odpowiednik kosztuje ok 2.5k pln to oznacza, ze przez 2.5 roku mialem wydajnosc w grach na najwyzszym poziomie i zaplacilem za to 800pln za 2.5 roku.

Jesli to nie jest najlepszy deal ever jesli chodzi o GPU to nie wiem co nim jest :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

amsztel a słyszałeś o kryptowalutach? A ten "najlepszy deal ever" podsumuję krótko. Trafiło się ślepej kurze ziarno.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wg mnie sytuacja wyglada z gola inaczej. To rok temu nabywcy turingow zostali przez NV lekko "wycyckani" i dopiero teraz zaczynaja otrzymywac w grach wydajnosc jaka powinni miec od dnia zero

Tu chodzi trochę o coś innego. Jak kupowałeś to miałeś kartę 60% wydajniejszą od konkurencyjnego rx 580. Dziś masz kartę która w nowy grach jest wydajniejsza o 30% od rx 580. (Procenty wzięte z kapelusza tylko by zobrazować sytuację). Tak więc nabywcy radeonów mają prawo czuć się lepiej niż ty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko jedno w jaki sposób NVIDIA ogranicza poprzednie generacje.

Czemu od razu zarzucasz, że ogranicza skoro nie jesteś w stanie w żaden sposób tego udowodnić? Równie dobrze mógł byś napisać, że developerzy optymalizują kod gry pod nowe architektury ewentualnie przerzucają obliczenia na wydajniejsze fp16 int32 w nowszych architekturach.

W tej ocenie jesteś niesamowicie stronniczy nie mając na to żadnych dowodów. Prowadzącemu kanał o telefonach nie przystoi taki brak obiektywizmu bo to rzutuje całkowicie na wartość Twoich materiałów. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czemu od razu zarzucasz, że ogranicza skoro nie jesteś w stanie w żaden sposób tego udowodnić? Równie dobrze mógł byś napisać, że developerzy optymalizują kod gry pod nowe architektury ewentualnie przerzucają obliczenia na wydajniejsze fp16 int32 w nowszych architekturach.

W tej ocenie jesteś niesamowicie stronniczy nie mając na to żadnych dowodów. Prowadzącemu kanał o telefonach nie przystoi taki brak obiektywizmu bo to rzutuje całkowicie na wartość Twoich materiałów. ;)

Wielkie korporacje ukrywają takie rzeczy najlepiej jak potrafią. Mają na to kasę, jak i ludzi. Podobne odczucia miałem z serią GTX9xx ale olałem temat i przeszedłem na RX580, jednak ten narzut na CPU zmęczył mnie i po pół roku kupiłem GTX1070 w nadziei, że zostanę z tą kartą na dłużej, a tu niestety kolejny zonk i dlatego postanowiłem, że rzucę temat co inni o tym sądzą. Na swoim kanale zawsze mówię to co myślę, czy się to komuś podoba, czy nie. To tylko hobby zwykłego użytkownika, a nie praca youtubera dla ilości wyświetleń, czy kasy.

 

Orientujesz się trochę w smartfonach? Znasz specyfikację najnowszego Redmi 8? Wiesz, że Xiaomi dając nowy model wykorzystało soc ze słabszego Redmi 7a? Czy jakiś kanał na polskim YT o tym zrobił materiał? Ja na nic nie trafiłem. Powoli zbieram się za taki film, jak można wypuścić nowszy model w specyfikacji słabszej od poprzedniego modelu i promować jako nowość. W Redmi 7 jest snap 632, a w Redmi 8 snap 439, ten sam co w Redmi 7a. Tyle na temat korporacji. Co do AMD to też nie jest moja ulubiona firma i prawdopodobnie w przyszłym roku przejdę znowu na Intela 10gen, jeżeli tylko spełni moje oczekiwania, bo Ryzen 3000 ich nie spełnia pod wieloma względami.

 

W sprawie rx5700xt na forum na bieżąco piszę jakie mam z nim problemy, a jakie zniknęły, więc nie stoję po żadnej stronie barykady.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RDR2 to gra która debiutowała na konsole, a jak wychodzą porty z konsol na pc, chyba każdy wie, dodatkowo w konsolach bebechy amd i to pod nie była od początku robiona gra.

 

Może i racja że amd będą bardziej długowieczne, sam zastanawiam się nad jakimś radkiem, ale cenowo wcale nie jest tak dobrze, używki prawie w cenie nowych (rx570)

 

A co do postarzania to moim zdaniem po prostu nowsza archi lepiej sobie radzi, szczególnie w dx12/vulcan.

 

Tak samo można dać przykład że rx5500xt 8gb jest szybszy od rx 580 8gb bo olali optymalizacje dla 580 ;)

 

wydajnosc.png

 

PS. Również kupiłem 1070 z myślą "na dłużej" i wyniki w rd2 niepokoją.

 

Update, ustawieniach "HUB" średnio 60fps i fajne uczucie płynności, więc nie ma tragedii.

Edytowane przez kubinek83bb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tyle ze 1070 wyszla 3.5 roku temu, wiec chyba nie ma na co narzekac jesli chodzi o jej wydajnosc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Cena 5500XT zależy tylko od tego, że Polarisy zalegają i trzeba je wyprzedać kończąc produkcję.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Karty nvidii maja duze problemy w RDR 2 i dotyczy to rowniez turingow. RX 5700XT z latwoscia pokonuje drozszego od siebie 2070S w tej grze. Na zmiane sytuacji raczej nie ma co liczyc

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślałem, że ten temat już umarł. Skoro nie, to podzielę się moimi przemyśleniami.

 

Po premierze RTX'ów jak ludzie się pytali co kupić, np. GTX 1070 czy RTX 2070 to dostawali rady w stylu bierz GTX'a, RT ssie, ceny RTX'ów są z kosmosu, skok wydajności jest zbyt mały, itp.

Teraz jak zaczęły się pojawiać gry, które wykorzystują zmiany wprowadzone w architekturze Turing i wydajność wzrosła znacząco, to należałoby się przyznać do udzielania nietrafionych porad a nie snuć jakieś teorie spiskowe.

 

RTX 2070 ma prawie równo 50% wyższą wydajność od GTX 1070 w nowych grach, m. in. w RDR2. Z czego wynika taki wzrost wydajności? Turing'i potrafią w tym samym czasie wykonywać obliczenia na liczbach całkowitych i zmiennoprzecinkowych. Ja to sprawdziłem na mojej karcie i mogę potwierdzić, że można odpowiednio pisząc shader uzyskać o wiele wyższą wydajność. Z resztą NVidia pisała o tym jeszcze przed premierą RTX'ów. W dokumencie Turing Whitepaper.pdf jest nawet wspomniany Wiedźmin jako przykład gry, w której wzrost wydajności nie będzie tak zauważalny ze względu na to, że shadery korzystają głównie z instrukcji FP.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Relacja GTX 1060-6 vs RX 580-8, test z kwietnia 2017;

 

wydajnosc.png

 

Wczorajszy test małego navi;

 

wydajnosc.png

 

Coś słabo nV ubija wydajność GP106.

 

Ale kończąc śmiechy. Takie porównanie nie ma kompletnie żadnego sensu. Inny zestaw gier, inne sterowniki, wersje systemów itd.

 

Trzeba by teraz wziąć zestaw testowy z kwietnia 2017 i wykonać dziś identyczny test. Zmieniają się tylko sterowniki. 2017 vs 2019. Ale takie testy chyba @tomcug przeprowadzał na ithardware. Nic nie wykazał, a starsze architektury nawet lekko zyskiwały na nowych driverach ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Brak spadków wydajności w tytułach przed Turingiem niczego nie oznacza wink.gif Dlatego pisałem, że nie da się w prosty sposób sprawdzić czy Nv w praktyce "trochę" olewa starsze architektury w nowych tytułach czy nie. Już pomijam wpływ developera na działanie konkretnej architektury.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeszcze się zaraz okaże, że NVidia odpowiada za zmiany klimatu na świecie.

 

Ja wiem, że tobie chodzi o optymalizację sterowników. Nie przerzucaj jednak odpowiedzialności za jej brak z deweloperów na producenta kart graficznych. Od wielu lat są już dostępne niskopoziomowe API pozwalające w 100% wykorzystać możliwości sprzętu i nie powinna być do tego potrzebna ingerencja sterownika graficznego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież od zawsze było wiadomo, że Dżiforsy są popsute. ATI/AMD zawsze sprzedawało karty, które może nie błyszczały w dniu premiery, ale po kilku latach nigdy nie okazywały się gównem tak jak to zawsze było u Nvidii. Nawet za czasów TNT.. Zawsze mało ramu, poobcinane szyny, oszukane potoki, niedorobione szejdery, oszukane wsparcie nowych dajrekt ixów, przewały na synchronizacji, albo najnowsze Nvidia's bringing HDMI 2.1 VRR support to its RTX 20 Series GPUs..

 

I tylko do RTXów bo inne karty nie mają HDMI 2.1. A nie czekajcie, RTXy też nie mają HDMI 2.1 a jedynie dostają wsparcie VRR na kabel HDMI dla TV LG :D.. ale wszystkie nagłówki już wprowadzają w błąd, jakoby RTXy miały dostać HDMI 2.1 a to dalej zwykłe HDMI 2.0. Jedynie dodają synchronizację do wybranych telewizorów po kablu HDMI. Wspaniale, AMD oferuje to od lat bez ograniczenia się tylko do OLEDów LG ;)

 

Oni od zawsze tak wałują i nic w tym dziwnego.

 

Tylko to nie jest tak, że nvidia musi ograniczć wydajność w sterownikach czy coś w ten deseń.

Tu po prostu czas pokazuje zawsze to samo, poprzednia architektura była skopana :D

 

 

Fajnie, że ostatnio nie jesteśmy do końca bezradni:

https://www.ceneo.pl/Karty_graficzne;szukaj-radeon+rx+5700+xt

 

Przydałoby się jeszcze coś takiego na rynku: https://ownsnap.com/amd-rx-5950xt-and-rx-5850xt-are-inevitable-to-launch-this-end-of-a-year/

 

I Quake2 RT moga sobie wsadzić :)

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Inny temat na naszym forum :)

 

Płaczecie o to, że NV kroi i nie optymalizuje - a prawda jest taka, że dostajemy gotowy produkt - który przez jakiś czas firma tylko udoskonala

sytuacja z AMD - pokazuje niestety, że dostajemy coś na czego poprawne działanie trzeba "trochę" poczekać ;)

Edytowane przez yampik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...