Skocz do zawartości
Minciu

NVIDIA GeForce GTX-RTX 20x0

Rekomendowane odpowiedzi

ja ci powiem ze planuje kupic nowa serie dla rtx, mam monitor fhd wiec co najwyzej interesuje mnie 2070 max 2080 ale jesli te karty nie pociagna 60fps z rtx to zakup mija sie z celem bo wtedy kupuje 1080ti i mam overkila do fhd. jednak chcialbym skosztowac tej nowosci technologicznej.w innym przypadku bedzie trzeba poczekac na next gen na pascalu lub poczekac az 2080ti stanieje.

 

RTX 2070 ma 60% mocy RTX 2080 Ti w RT także żebyś się tym RT nie rozczarował. Nikomu nigdy źle nie życzę ale warto mieć to na względzie ;)

 

z kolei w Twoim wypadku to nie szalej, że max 2080 do FHd ;)

 

Zawsze można zarzucić 8K DSR w przypadku starszych gier jak już ktoś koniecznie chce kupić np RTX 2080 Ti do monitora FHD, sam już tak robiłem z np Vice City i co ciekawe, cała ale to dosłownie calutka gra skaluje się bardzo dobrze :D Wiedźmin 1 z 2007 roku też znacznie lepiej wygląda miejscami przy 8K DSR na tym samym monitorze ;) Szkoda tylko, że interfejs w tej grze się kiepsko skaluje np. napisy i generalnie przy 8K DSR na 22" potrzeba praktycznie lupy :E

 

edit

 

Taka ciekawostka przyrodnicza mojego autorstwa, porównanie prawie 4K DSR, prawie bo dokładnie 4x 1680 x 1050 i prawie 8K DSR bo 16x 1680 x 1050 w Wiedźminie 2 :E

 

https://drive.google.com/drive/folders/19nPMNpC35XE9fADyegjC0A9bFOAr2iJz

 

Podgląd pliku 8K dsr jest niedostępny bo plik źródłowy ma bagatela 80 MB :E Po co w ogóle to sprawdzałem? Bo mogę, ot z czystej ciekawości :)

Edytowane przez Kris194

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RTX 2070 ma 60% mocy RTX 2080 Ti w RT także żebyś się tym RT nie rozczarował. Nikomu nigdy źle nie życzę ale warto mieć to na względzie ;)

Tyle że z RT ustawionym na Ultra Quality może być tak samo jak z dotychczasowymi opcjami Ultra. Czyli marginalny wzrost jakości obrazu (względem High), za to znaczny spadek wydajności. Inaczej mówiąc RT High na 2070 będzie miał podobną wydajność co RT Ultra na 2080 Ti.

Edytowane przez Avitr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie mam kłopotów z czytaniem tylko sądziłem, że się zwyczajnie pomyliłeś bo przy specyfikacji jaką będzie miał RTX 2070 byłoby nie lada osiągnięciem nie osiągnięcie wydajności GTX 1080, dla porównania:

 

GTX 1080

 

1733 MHz (Boost clock na papierze)

2560 CC

160 TMU

64 ROP

320,3 GB/s (Przepustowość podsystemu pamięci)

 

 

RTX 2070

 

1620 (Boost clock na papierze)

2304 CC

144 TMU

64 ROP

448 GB/s (Przepustowość podsystemu pamięci)

 

Do tego w Turingu dostajesz o 50% sprawniejsze jednostki cieniujące (co nie znaczy, że wydajność całego układu taka będzie, w żadnym razie) i dochodzi jeszcze przebudowana pamięć podręczna, zapewne nie "z nudów". Spójrz na to i powiedz mi jak Nvidia mogłaby nie osiągnąć wydajności GTX 1080 w RTX 2070 ;) Chyba tylko ubijając na siłę sterownikami :E halflife (alek) może być blisko co do wydajności RTX 2070 ale coś więcej to będzie można powiedzieć po testach RTX 2080 Ti i RTX 2080.

Pożyjemy zobaczymy jak będzie.

Może tak:

GPU : TU104 Base Clock : TBD

Cores : 2304 Boost Clock : TBD

TMUs : 144 Memory Clock : 1750 MHz

ROPs:48 Memory 8 GB GDDR6 256b

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie możesz mieć 48 ROP w RTX 2070 bo na każdy 32-bitowy kontroler pamięci przypada 8 ROP tak jak w przypadku Pascali a na każdy 32-bitowy kontroler 1 kostka VRAM czyli w tym przypadku 1GB GDDR6 ;) Z tego właśnie względu w RTX 2080 Ti jest ich 88 a w RTX 2080 64 ;) W przypadku GTX 970 Nvidia bawiła się w wałki na podsystemie pamięci i jak większość pamięta, odbiło się to bardzo głośnym i szerokim echem. Gdybyś chciał wiedzieć więcej to proponuję przestudiować sobie whitepaper od GTX 1080, tam jest wszystko bardzo ładnie opisane.

 

https://international.download.nvidia.com/geforce-com/international/pdfs/GeForce_GTX_1080_Whitepaper_FINAL.pdf

 

A jak i to to dla Ciebie za mało to gdzieś tu zawsze "kręci się" sideband, on Ci to wyłoży jak profesor na studiach :E

Edytowane przez Kris194

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zawsze można zarzucić 8K DSR w przypadku starszych gier jak już ktoś koniecznie chce kupić np RTX 2080 Ti do monitora FHD, sam już tak robiłem z np Vice City i co ciekawe, cała ale to dosłownie calutka gra skaluje się bardzo dobrze :D Wiedźmin 1 z 2007 roku też znacznie lepiej wygląda miejscami przy 8K DSR na tym samym monitorze ;) Szkoda tylko, że interfejs w tej grze się kiepsko skaluje np. napisy i generalnie przy 8K DSR na 22" potrzeba praktycznie lupy :E

 

edit

 

Taka ciekawostka przyrodnicza mojego autorstwa, porównanie prawie 4K DSR, prawie bo dokładnie 4x 1680 x 1050 i prawie 8K DSR bo 16x 1680 x 1050 :E

 

https://drive.google.com/drive/folders/19nPMNpC35XE9fADyegjC0A9bFOAr2iJz

 

Podgląd pliku 8K dsr jest niedostępny bo plik źródłowy ma bagatela 80 MB :E Po co w ogóle to sprawdzałem? Bo mogę, ot z czystej ciekawości :)

Jasne, sam się kiedyś bawiłem w takie cuda ze starszymi tytułami jak Ty, ale mimo wszystko w życiu bym nie kupił takiej karty do takiego monitora, ale niech sobie każdy kupuje na co ma ochotę ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sory panowie że tak tym spamuję poprawiłem trochę poprzednią scenę.

Reytransing ze wszystkim jego dobrodziejstwami.

Na GTX 660 renderowało mi się to 40 minut przy 636 samplach.

JUHw1a7.jpg

Edytowane przez Andrew2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sory panowie że tak tym spamuję poprawiłem trochę poprzednią scenę.

Reytransing ze wszystkim jego dobrodziejstwami.

Na GTX 660 renderowało mi się to 40 minut przy 636 samplach.

https://imgur.com/JUHw1a7.jpg

wyglada oblednie wiec liczenie w czasie rzeczywistym musi niezle zasoby zjadac :o

Edytowane przez qjin
weź nie cytuj takich dużych grafik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przejrzałem wszystkie materiały jakie są dostępne i już opublikowane przez Nvidię i zakładając że dane się potwierdzą wydajność powinna wyglądać mniej więcej tak (sprawdzimy po 14 września)

 

podali 1080 i 2080 więc na bazie ich jako wyznacznik (moje spekulacje dla 4K)

 

2070 będzie szybsza od 1080 o ok. 15-20%

2080 będzie szybsza od 1080 o ok. 40-50%

2080ti będzie szybsza od 1080 o ok. 80-100% (prawdopodobnie przy niższej rozdzielczości CPU zrobi odcięcie wydajności nawet na topowym CPU 5.0Ghz)

 

1080ti vs 2080ti -> 2080ti będzie szybsza o ok. 50-70% od 1080ti

Takie ulokowanie kart ma sens (pomijam procentowe różnice):

2080ti>2080>1080 Ti>2070>1080

 

Biorąc pod uwagę same ceny, 2070 wypełniłoby lukę pomiędzy 1080 Ti a 1080, czyli po premierze kart spadek cen 1080 Ti może być nieznaczny. Nvidia może też zostawia sobie furtkę dla późniejszego wydania 2070 Ti.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czytałeś ten artykuł, do którego odnosi się film, bo zadałeś absurdalne pytanie? Gość w żałosny sposób zachęca do kupna nowej serii wymyślając tak głupie argumenty, że tego nie można odbierać inaczej niż tekst reklamowy. I Jezus go słusznie wyśmiał.

No, to nawet naganianie nie jest, oni niczym cygan co perfumy chce wcisnąć 8:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak swoją drogą, wszyscy mówią że konsole blokują rozwój grafiki że nie ma rozwoju w grafice, a jak coś wchodzi nowego co tą grafikę ma poprawić to jest płacz bo "omg to teraz mamy znowu grać w full hd i ta cenaaaa" Narazie nie widzieliśmy jak to wygląda w praktyce w grach bo nie ma takich gier i kart jeszcze dostępnych :D A wszyscy wieszaja psy na kartach które nie wyszły bo ma zbędny bajer. Tylko rewolucje zawsze gdzieś trzeba zacząć :P Co myślicie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo wszyscy by chcieli za darmo... wiesz lol2.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Azazell

Tak swoją drogą, wszyscy mówią że konsole blokują rozwój grafiki że nie ma rozwoju w grafice, a jak coś wchodzi nowego co tą grafikę ma poprawić to jest płacz bo "omg to teraz mamy znowu grać w full hd i ta cenaaaa" Narazie nie widzieliśmy jak to wygląda w praktyce w grach bo nie ma takich gier i kart jeszcze dostępnych :D A wszyscy wieszaja psy na kartach które nie wyszły bo ma zbędny bajer. Tylko rewolucje zawsze gdzieś trzeba zacząć :P Co myślicie?

 

Bo tak jest od dawna. łatwo jest zrzucić winę na konsolę. Tylko jeśli producentowi zależy na oprawie graficznej to niech robi gry tylko na PC. A niestety wymądrzają się tylko a w rzeczywistości bardziej im zależy na zyskach i sprzedaży produktu niż na oprawie graficznej. Dlatego wybieraja rynek konsolowy bo tam się lepiej sprzedają gry. Chociaż z drugiej strony na konsoli można zrobić przepiękne gry których nawet nie uświadczymy na PC :) np Uncharted, Horizon itp. Więc to wszystko jest takie pokręcone.. Prawda jest taka ze nie powinno się gadać takich bzdur, że to konsole ograniczją rozwój grafiki. Niestety to nie prawda. Rozwój ograniczają producenci podzespołów do PC :).

Edytowane przez Azazell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tez sie z tym zgodze ze konsole nie ograniczaja, przeciez wiele gier co jest na konsoli wyglada i lepiej dziala na pc bo mamy sowaczki od low po ultra. rozwoj ograniczaja ceny podzespolow a nie konsole.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Trollmaker

Podobnie obstawiam. Co do procka akurat patrzę, że masz 7960X, delidowałeś? Do mnie doszła nowa sztuka 7980XE z nowego batcha, tak zimna po OC, że szok. Się zastanawiam czy Intel usprawnił proces i lepsze TIM daje pod IHS, albo to już lutowane proce z batchów które będą do refreshy SKLX, np i9 8980XE. Na kilka i9 7960X oraz i9 7980XE, to nie widziałem takich temperatur na tych prockach, tutaj mam poziom tempów po delidzie. A, proca dopiero co dwa dni temu wyjąłem z zaplombowanego pudełka...

Jakie masz temperaturki ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak swoją drogą, wszyscy mówią że konsole blokują rozwój grafiki że nie ma rozwoju w grafice, a jak coś wchodzi nowego co tą grafikę ma poprawić to jest płacz bo "omg to teraz mamy znowu grać w full hd i ta cenaaaa" Narazie nie widzieliśmy jak to wygląda w praktyce w grach bo nie ma takich gier i kart jeszcze dostępnych :D A wszyscy wieszaja psy na kartach które nie wyszły bo ma zbędny bajer. Tylko rewolucje zawsze gdzieś trzeba zacząć :P Co myślicie?

dla mnie to rewolucja, bo o ile rtx jest od lat na rynku to liczenie w czasie rzeczystistym na domowym komputerze to postep w dobra strone. nowa jakosc grafiki nie kraci mnie bardziej niz jakies tam 4K. skoro juz teraz nowe gpu beda sobie radzily w stabilnym 60fps w 4k no to czas na jakies nowosci bo juz kazda kolejna generacja bedzie na tyle szybka zeby 4k latalo w 60fps, czas podniesc poprzeczke.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie śledzę wnikliwie tematu. Patrząc na specyfikację to tak średnio to wygląda 1080ti vs 2080.

Jest szansa żeby gtx1080ti=rtx2080 przy RT OFF ,na obecnych tytułach ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie śledzę wnikliwie tematu. Patrząc na specyfikację to tak średnio to wygląda 1080ti vs 2080.

Jest szansa żeby gtx1080ti=rtx2080 przy RT OFF ,na obecnych tytułach ?

 

 

14 września będą testy więc wszystko się wyjaśni co do wydajności nowych kart graficznych :)

 

ja sam sprzedałem swego GTX 970 3 miechy temu za dość dobra cena , a teraz celuję w RTX 2080 zobaczy się jaka jego będzie wydajność w grach :)

Edytowane przez mksej

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

980Ti: 6 TFLOPs 250W

1070: 6.5 TFLOPs 150W

 

Różnica na korzyść 1070 to 8%

 

W rzeczywistości różnice w wydajności się pokrywają

---------------

1080Ti: 11.3 TFLOPs

2070: 7.5 TFLOPs

----------+-+--

1080: 8.9 TFLOPs

 

Różnica między 2070, a 1080Ti to 50.6% na korzyść 1080Ti

 

Różnica 1080Ti względem GTX1080 to 26.9%

Realna różnica się pokrywa.

 

Różnica między 2070, a 1080 to 18.6% na korzyść GTX1080.

 

RTX2080: 10.1TFLOPS

 

Różnica między 2080, a 1080Ti to 11% na korzyść 1080Ti

Różnica między 2080, a 1080 to 13% na korzyść 2080 :E

 

Z powyższego wynika, że Nvidia, chce nam wcisnąć kotleta 2070, który nie równa się z 1080Ti, a powinien (wg. Tendencji)

A na dodatek ten kotlet który jest 51% słabszy od 1080Ti, jest o 25% droższy niż odpowiednik w poprzedniej generacji!!!

 

A co wynika z powyższego?

Że nvidia próbuje wcisnąć wydajnosciowego GTX2060, przemianowanego na RTX2070 w cenie 25% wyższej niż to czym prawdziwy RTX2070 powinien być! :E

 

 

 

 

 

PS. Teraz już wiecie czemu RTX2060(2070 :E)

Nie ma NVLINK, bo kto by pakował "sli" do 2060.

 

2080 jest tym czymm powinien by ć 2070,

A 2080Ti jest tym czym powinien być 2080.

Edytowane przez plmnb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

[quote name='Trollmaker' date='26 Sierpień 2018 - 10:52' timestamp='1535277173' post='151995

Jakie masz temperaturki ?

 

Przy 4.5 Ghz 1.175v + mesh 3.1 przy 1.13 Cache Voltage + mem 3800 Cl16.16.16 T1 przy 1.13 SA / 1.12 VCCIO /

Mam w OCCT maks do 85C (ponad 1h testu) w blenderze maks do 93C.

 

Procek out of the box jak to się mówi, bez delida. Na wcześniejszych 7960X / 7980XE delidowanych z LM pod czapką, miałem podobne albo nieraz wyższe temperatury w tych samych warunkach testowych oraz podobnej temperaturze otoczenia.

 

W grach czy OS, CPU nie przekracza mi 55C... Także zaskoczony miło jestem. Ale tak podobno jest, że cichaczem Intel usprawnia archi (lepszy krzem się wylosował) + pod czapką dali inną pastę bo na luta raczej bym nie liczył, jak by lutować zaczęli to by było info o tym. Chyba, że trafiłem 7980XE z partii wafla który już pod refreshe SKLX trzaskany był. Niemniej, miłe zaskoczenie. No ale nie róbmy offtopa, jak coś pisz do mnie PW na PPC albo FB Extreme Hardware, tutaj mam priv nie działąjący.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a wziales pdo uwage ze shadery sa 50% wydajniejsze w turingu o czym mowi sama nvidia??

Edytowane przez Phoenixsuple

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a wziales pod uwage ze wydajnosc schaderow wzorla o 50% w stosunku do pascala? NIE. to sa oficjalne informacje od nvidia wiec porownywanie po golych cyfrach nistety sie nie sprawdzi. mysle ze nvidia nie zawiodla nigdy i nie zawiedzie tym razem.

 

Co z tego, że wydajność shaderów wzrosła o 50%, skoro MAKSYMALNA teoretyczna wydajność tego układu mimo wzrostu wydajności shaderów to nadal 7.5TFLOP?

 

To tak jakbyś powiedział, że 300 konny (wg tabliczki znamionowej) samochód będzie miał wiekszą moc niż to co już powiedział nam producent tylko dlatego, że zastosowano turbine o 50% "wydajniejszą" :E

Problem w tym, że producent określił już jego moc :E

 

Inna rzecz to fakt, że różnica w TFLOPachc pokrywa się z różnicami względem rzeczywistej wydajności.

 

Polecam sprawdzić realne różnice wydajności między kartami jednego producenta, a TFLOP-ami.

Pokrywają się, taki jest fakt.

 

 

Nvidia zaliczy wtopę za za pakowanie technologii RTX do 1070tki, zwiększając jej TDP o 65W i cenę o 25% względem premiery 1070 :E

Edytowane przez plmnb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trzeba się z osądami czy dobrze czy źle wstrzymać do testów a potem do tego jak to będzie działać w grach wykorzystujących RTX.

19 dni do testów, stay tuned and keep calm ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...