Skocz do zawartości
yampik

NVIDIA (GTX) rly RTX 30x0

Rekomendowane odpowiedzi

Pierwsza okazja na wypuszczenie nowych GPU będzie za nieco ponad miesiąc, podczas GTC. Następna dopiero z początkiem czerwca (computex), a potem Gamescom.

Chyba,że Nvidia wypuści nowe karty na własnym evencie. Huang ostatnio zapraszał na GTC i wspomniał, że

nie będziecie rozczarowani
, JayzTwoCent stwierdził kilka dni temu, że
Nvidia przygotowuje się do premiery nowej generacji i jest już na ostatniej prostej
.

 

Edytowane przez Smogsmok

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wątpię, że nie będziemy rozczarowani osiągami, ale oby nie rozczarowali cenami.

Liczę, że na GTC ujawnią pierwsze informacje skoro Huang już podkręca hype. Przed premierą Turingów chyba jakoś w tym okresie roku mówił, że premiera nowych kart jest jeszcze odległa (aby wyprzedać zalegające Pascale), tym razem jest inaczej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To że wydają sporo przed premierą tą kolekcjonerke pod Cyberpunka jest pewnie czymś podyktowane. Zwłaszcza w takich ilościach i do rozdania. Nawet na to licze :E

 

Mniejsza że był to czas zakładanej nie odległej premiery ;P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakaklowiek firma na swiecie dala kiedys 100% wiecej wydajnosci co gen podobnej cenie :hmm: Nie sadze by to mialo miejsce ale lepiej sie milo zaskoczyc. 50% w rasteryzacji jest mozliwe, ale czy bedzie sie to im oplacac :E

w latach 1996-2006, karty graficzne były co rok 100% szybsze w podobnej cenie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

w latach 1996-2006, karty graficzne były co rok 100% szybsze w podobnej cenie

Wówczas kupowałeś topowy komp to już za rok wydawał się słaby, a po dwóch latach to już ledwo co odpalał gry nawet na minimum :lol2:. Wówczas Nv nie wydawała GPU co dwa lata, a co rok, a też oferowała swoje topowe konstrukcje w cenie około 500$, a nie jak teraz od serii titan się zaczęło 1000$ i coraz wyżej. Ludzie wymieniali częściej GPU, a jak już kupowali GPU to z reguły szybsze konstrukcje, więc różnice względem starszego komputera były spektakularne.

 

exMAyx7NnRznxsZEtYnEZh-650-80.gif

TNT 2 vs Geforce 1 dawało 94% poprawę wydajności, oraz 144% z OC.

 

ut_asbestos_aa_af.gif

Nawet seria FX uznawana przez ludzi za porażkę była dużo szybsza od poprzedniej generacji i w niektórych przypadkach tak jak tutaj różnica sięgała 280%.

 

ut2k4high.jpg

GTX 7900 też sporo był szybszy od 6800

 

14021.png

Najmilej wspominam jednak 8800 GTX. Sam kupiłem wersje Ultra za swoją pierwszą wypłatę :P. Ta karta była wówczas tak szybka... że dopiero crysis musiał wyjść, aby uświadomić mi, że jej potęga nie była nieskończona :lol2:.

 

Swoją drogą ciekawi mnie, czy faktycznie zobaczymy nowe karty Ampere na GDC? Coś ta zapowiedz odświeżonej karty 2080ti w edycji cyberpunk nie za dobrze wróży, bo skoro ampere ma też zostać pokazane to po co jeszcze promować turingi.

 

Na pewno dużo osób czeka na turingi z uwagi na oczekiwaną poprawą wydajności w RT. Osobiście też liczę na więcej VRAMU, bo jak wyjdą konsole to te wszystkie obecne karty poza może titanem RTX 24GB pewnie napotkają limity VRAMU. Ja oczekuje też wreszcie solidnej poprawy wydajności względem 1080ti, bo 2080ti choć w niektórych grach potrafiło pokazać pazur to większości przypadków różnica na poziomie 30% no niezbyt zachęcała do zmiany.

Edytowane przez pawel86ck

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ut_asbestos_aa_af.gif

Nawet seria FX uznawana przez ludzi za porażkę była dużo szybsza od poprzedniej generacji i w niektórych przypadkach tak jak tutaj różnica sięgała 280%.

 

ut2k4high.jpg

GTX 7900 też sporo był szybszy od 6800

 

14021.png

Najmilej wspominam jednak 8800 GTX. Sam kupiłem wersje Ultra za swoją pierwszą wypłatę :P. Ta karta była wówczas tak szybka... że dopiero crysis musiał wyjść, aby uświadomić mi, że jej potęga nie była nieskończona :lol2:.

 

Kiedyś to były czasy ... :( z 8800 miałem to samo po przejściu z 7900GS szczena mi opadła jaki skok wydajności nastąpił, teraz to już nie ma czasów :kwasny: wszystkie gry są klepane tak samo żadko która potrafi wciągnąć tylko o kasę chodzi i o skórki na bronie :lol2: :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

o kasę chodzi i o skórki na bronie :lol2: :lol2:

 

jakie bronie

 

rękawiczki kupujta :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Współcześni nastolatkowie nie wiedzą jak to jest przeżywać zajebisty postęp technologiczny w pecetach i w grach. W 1999 grać w Might and Magic VII: For Blood and Honor, a już 7 lat później siepać w The Elder Scrolls IV: Oblivion, z modami oczywiście. To co się od Crysisa działo nie umywa się do zmian zachodzących do 2008. Dzisiaj jakieś Fortnajty i mikrotransakcje. Dzieciaki jarają się skrzynkami. Czasem wychodzą perełki jak Wiedźmin III ale ogólnie jest raczej zastój. Może 9-ta generacja konsol jakoś rozrusza ten kurwidołek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W 2001 roku mój pierwszy PC amd duron 900 + GeForce 2 MX 400 i tak długie czas. Dopiero po 10 latach za symboliczne 100 zł kupiłem amd athlon 2000+ geforce 6200 oraz zmieniłem ram z 256mb sdr na 1gb ddr1. Teraz jak człowiek zarabia to pomyśli sobie jak długo na tym złomku łupał w gry. Co z tego że w topowe gry PC nie pozwalał grać. Było sporo innych gier dających równie dobrą frajdę.

Edytowane przez hopes

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W 2001 roku mój pierwszy PC amd duron 900 + GeForce 2 MX 400 i tak długie czas. Dopiero po 10 latach za symboliczne 100 zł kupiłem amd athlon 2000+ geforce 6200 oraz zmieniłem ram z 256mb sdr na 1gb ddr1. Teraz jak człowiek zarabia to pomyśli sobie jak długo na tym złomku łupał w gry. Co z tego że w topowe gry PC nie pozwalał grać. Było sporo innych gier dających równie dobrą frajdę.

Moj pierwszy PC w domu też miał durona witaj w rodzinie :lol2: wcześniej chodziłem do kafejki na CS 1.3/1.5 :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W 2001 roku mój pierwszy PC amd duron 900 + GeForce 2 MX 400 i tak długie czas. Dopiero po 10 latach za symboliczne 100 zł kupiłem amd athlon 2000+ geforce 6200 oraz zmieniłem ram z 256mb sdr na 1gb ddr1. Teraz jak człowiek zarabia to pomyśli sobie jak długo na tym złomku łupał w gry. Co z tego że w topowe gry PC nie pozwalał grać. Było sporo innych gier dających równie dobrą frajdę.

Tylko w topowe? Mój pierwszy pecet miał 5200 FX i Semprona 2800+. Ledwo chodziły na nim aktualne gry. Potem jak 5200 padła, to wymieniłem ją na 6200 i było odrobinę lepiej. Nawet w Crysisa grałem na najmniejszych detalach. :E

 

Jak po niecałej dekadzie wymieniłem tego peceta na 2500k i 560Ti to dopiero miałem okazję nadrobić te wszystkie gry, które chodziły mi tak tragicznie, że były niegrywalne, albo w ogóle się nie odpalały (AC). Ale w Gothic 3 grałem, zacinał się co kilka sekund, było ~15 fps, ale i tak potrafiłem się w nim bawić. lol2.gif I w sumie gdyby nie tragiczna wydajność w G3 to prawdopodobnie nie zainteresowałbym się sprzętem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Swoją drogą ciekawi mnie, czy faktycznie zobaczymy nowe karty Ampere na GDC? Coś ta zapowiedz odświeżonej karty 2080ti w edycji cyberpunk nie za dobrze wróży, bo skoro ampere ma też zostać pokazane to po co jeszcze promować turingi.

Oni nie promują turingów tylko markę Nvidia RTX, pozbywanie się tak wcześnie RTX 2080Ti w wersji cyberpunk 2077 oznacza, że premiera nowych GPU w najgorszym przypadku nie później niż wrzesień. Ja obstawiam przedział między początek kwietnia-koniec czerwca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ponieważ Volta wyszła wcześniej niż Turing to następca Volty też wyjdzie wcześniej niż następca Turinga.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale sobie wymyśliłeś teorie tak czy inaczej pierwszy Ampere pojawi się w postaci karty do obliczeń, a nie karty dla zwykłych śmiertelników.

Turing to zoptymalizowana Volta do innych zastosowań. GP100 w sumie bliżej do Volty niż do Pascala, a w nazwie nadal widnieje Pascal także do nazewnictwa Nv nie przywiązywałbym większej wagi wink.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Isharoth no nie było lekko. Trzeba było dobierać gry do sprzętu. Swego czasu byłem wręcz wdzięczny że istniał Click! który był relatywny tani i wręcz przebierali w grach które warto było dołączyć do przyjemnego czasopisma.

Edytowane przez hopes

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Isharoth no nie było lekko. Trzeba było dobierać gry do sprzętu. Swego czasu byłem wręcz wdzięczny że istniał Click! który był relatywny tani i wręcz przebierali w grach które warto było dołączyć do przyjemnego czasopisma.

Ja przez 5 lat cisnąłem głównie w multiplayer w Neverwinter Nights i bardzo dobrze wspominam te czasy. A i tak NWN nie chciało mi działać płynnie w 1280x1024. Musiałem grać w większość gier na niższej rozdziałce. Z tego co pamiętam to zwykle 800x600.

 

Dziś tak naprawdę jest o wiele lepiej. Sprzęt niby jest drogi, ale jak kupi się go w dobrym momencie (przykład GPU - Pascale) to starczy na długie lata. Kiedyś się kupowało topkę, a i tak czasem nie starczyło to żeby gry chodziły bezproblemowo. A za rok, dwa lata sprzęt już nawet niedomagał. :E

Ja Turinga na Ampere raczej nie wymienię, naiwnie liczę na to że 2080 starczy mi do CP2077 w jakichś sensownych ustawieniach w 4K, a więcej gier na PC i tak nie widzę na horyzoncie. Większość będę kupował na Switcha, a potem na PS5/Xboxa jak nowe konsole trochę się już zaadaptują na rynku.

 

Z drugiej strony jeśli Ampere okaże się kolejnym Pascalem (w co wątpię) to będzie mnie trochę bolało. Chociaż byłem świadom, że składam kompa w najgorszym momencie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja w tym roku nie widze zadnych gier poza jedna, dla ktorych mialbym zmienic gpu. Cyberpunk to jest jedyna gra w tym roku, ktora o tym zadecyduje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja w tym roku nie widze zadnych gier poza jedna, dla ktorych mialbym zmienic gpu. Cyberpunk to jest jedyna gra w tym roku, ktora o tym zadecyduje.

Przecież ty zmieniasz co chwile kartę :E Przez ostatni rok widzę w sygnaturze 5 albo 6 chyba że właśnie tylko sygnaturą się zmienia :P

Edytowane przez Send1N

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież ty zmieniasz co chwile kartę :E Przez ostatni rok widzę w sygnaturze 5 albo 6 chyba że właśnie tylko sygnaturą się zmienia :P

2x6 plus kilka szt i by sie zgadzalo :lol2: Fakt tylko za duze straty na odprzedazy kazdej karty i drugi raz sie w to pakowac nie bede tylko jak zmienie to do razu na 3080ti bo za te wszystkie zmiany i odsprzedaze ze strata kart mialbym spokojnie 2080S/2080ti lub nowa konsole. Co potestowane to moje :D

Edytowane przez Phoenixsuple

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Też siedziałem długie lata na cod 1.1 i diablo 2. Multi oczywiście. Przy CRT 800/600 było Oki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiadomo coś o złączu HDMI 2.1 w nowej nadchodzącej serii kart nvidi :question:

Inaczej czy w ogóle mają zamiar dać takie wyjście bo z premierą tych kart Oledzik chulałby wtedy aż miło

Edytowane przez Czarny_PLone

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem next gen na 99% dostanie HDMI 2.1

NVIDIA dość mocno nawiązała współpracę z LG. Udostępnili nawet na RTXach VRR po kablu HDMI, mimo iż do niedawna twierdzili że się nie da i jest to niezgodne ze specyfikacją. Swoją wymówkę obeszli psedo częściowym wsparciem HDMI2.1 i VRR. Tak oto dali coś na wyłączność dla LG :D i na prezentacjach OLEDow CX (48) też chyba razem gdzieś występowali.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chętnie bym kartę, a nawet cały pecet wymieniał co rok, gdyby był sens. Jednak go nie ma, gry nie potrafią wykorzystać więcej niż 4 rdzeni 8 wątków, nowe karty graficzne są niewiele lepsze w stosunku wydajność/cena, RAM najpierw zdrożał by znów stanieć i niektórzy się cieszą, że nie jest droższy niż w 2016.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

gry nie potrafią wykorzystać więcej niż 4 rdzeni 8 wątków, nowe karty graficzne są niewiele lepsze w stosunku wydajność/cena

:hmm: bardzo intelowskie podejście do procesorów zanim ryzen wszedł na rynek. Gry potrafią więcej rdzeni wykorzystać - oczywiście zależy jaka gra bo nie wszystkie wiadomo. Gdyby było tak jak piszesz to kto w ogóle patrzyłby na i7-9700K - pomijając cenę. Co do stosunku wydajność/cena to porównaj sobie rtx super z cenami pascali. Pierwsze rtx miały praktycznie ten sam stosunek wydajność/cena co pascal bo wiedzieli że ludzie i tak będą kupować. Teraz AMD weszło do gry również w GPU i już nie mogą tak dużo kosić pieniążków jak kiedyś.

Edytowane przez hopes

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

gry nie potrafią wykorzystać więcej niż 4 rdzeni 8 wątków

Na jakim swiecie Ty zyjesz :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...