Skocz do zawartości
Minciu

NVIDIA GeForce GTX-RTX 20x0

Rekomendowane odpowiedzi

17 minut temu, sideband napisał:

Gdybyś nie wiedział to liczenie DLSS zajmuje całe 2ms na tensorach. Ampere można liczyć jednocześnie RT+AI tylko różnice z tego wynikające będą niewielkie.

Różnicę na plus dla Ampere będą rosnąć wraz ze wzrostem ilości obliczeń w grach.

Jak będą chcieli to w nowych grach różnica wzrośnie i tyle, wystarczy popatrzeć jak rosła wydajność Turingów, premierowo 1080 Ti walczył jak równy z 2080, teraz już nawet 2070 czasami spuszcza mu manto w nowych tytułach, a przecież wydajność kart się nie zmieniła.  :E

3840x2160ultra.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wzrośnie na pewno. Ampere może w tym samym czasie obliczać śledzenie promieni i dodatkowo wykonywać inne obliczenia w Async Compute. Np. w Control podobną ilość czasu zajmuje samo śledzenie promieni co późniejsze obliczenia i odszumianie. Małe zmiany w grze i mogłoby to działać tak, że np. podczas obliczania miejsc przecięć promieni z geometrią dla odbić byłoby już równocześnie wykonywane odszumianie oświetlenia rozproszonego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Mar_S napisał:

Jak będą chcieli to w nowych grach różnica wzrośnie i tyle, wystarczy popatrzeć jak rosła wydajność Turingów, premierowo 1080 Ti walczył jak równy z 2080, teraz już nawet 2070 czasami spuszcza mu manto w nowych tytułach, a przecież wydajność kart się nie zmieniła.  :E

To teraz sprawdź jaką wydajność ma 2070 w obliczeniach na tle 1080ti to zobaczysz skąd wzięła się wydajność.

 

1 godzinę temu, SebastianFM napisał:

Wzrośnie na pewno. Ampere może w tym samym czasie obliczać śledzenie promieni i dodatkowo wykonywać inne obliczenia w Async Compute. Np. w Control podobną ilość czasu zajmuje samo śledzenie promieni co późniejsze obliczenia i odszumianie. Małe zmiany w grze i mogłoby to działać tak, że np. podczas obliczania miejsc przecięć promieni z geometrią dla odbić byłoby już równocześnie wykonywane odszumianie oświetlenia rozproszonego.

W najlepszym bądź razie 10% do przodu tylko tensory też wykorzystują zasoby to nawet 10% może nie być.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, sideband napisał:

W najlepszym bądź razie 10% do przodu tylko tensory też wykorzystują zasoby to nawet 10% może nie być.

Przecież do tej pory Tensor'y w grach są wykorzystywane tylko do DLSS.

Ja napisałem o obliczeniach wykonywanych równolegle ze śledzeniem promieni. Sprawdzałem na mojej karcie i podczas samej pracy rdzeni RT można wykonywać bardzo dużo obliczeń i operacji na pamięci. W przykładowym programie osiągającym 4.32 GRays/s udało mi się uzyskać wykonując operacje pomiędzy puszczaniem promieni wydajność w obliczeniach 6.37 TFLOPS bez spadku wydajności samego śledzenia. Przewaga Ampere nad Turing polega na tym, że podczas śledzenia promieni można uruchomić osobny shader w Async Compute.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, Khold napisał:

Idąc takim tokiem rozumowania Twój 2080 też jest warty 1000 zł bo to prawie to samo co 2070s :E

Mój  idzie do kompa kolegi za 1200zł - po znajomości. Mnie nie zależy aby wycisnąć za niego jak najwięcej, po prostu chcę zrobić miejsce dla  3080 ;)

Edytowane przez blubaju
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, SebastianFM napisał:

Przecież do tej pory Tensor'y w grach są wykorzystywane tylko do DLSS.

Ja napisałem o obliczeniach wykonywanych równolegle ze śledzeniem promieni. Sprawdzałem na mojej karcie i podczas samej pracy rdzeni RT można wykonywać bardzo dużo obliczeń i operacji na pamięci. W przykładowym programie osiągającym 4.32 GRays/s udało mi się uzyskać wykonując operacje pomiędzy puszczaniem promieni wydajność w obliczeniach 6.37 TFLOPS bez spadku wydajności samego śledzenia. Przewaga Ampere nad Turing polega na tym, że podczas śledzenia promieni można uruchomić osobny shader w Async Compute.

A mnie chodziło o potencjalny kop z równoczesnego liczenia RT+AI, który nie będzie duży. Turing może równocześnie wykonywać obliczenia + DLSS na tensorach. Brak równoczesnego liczenia RT+AI/DLSS. 

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, novi napisał:

Moze ktos z podkręconym 10700k i jakims rtx2070+ wrzuciłby wynik benchmarku w sotrze? Nie wiem czy cos mi w systemie broi, czy po prostu tak ma być z tym renderem cpu .

A 10700 i rtx2080 Cię interesuje? ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moze również byc :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pytanie, reklamował ktoś kartę w EVGA po tych zmianach jakie wprowadzili gdzie zaczęli wymagać dowodu zakupu itd? Bo zagraniczne fora to jedno, ale wiadomo że gości z USA będą jednak traktować inaczej niż nas, obywateli trzeciego świata.  ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Patrzajta i uczta się jak się robi customowe chłodzenie GPU:

kEjcPjL.jpg

XD Robota z nudów, ale ~5 stopni mniej na grafie.

A tak bardziej poważnie, to planuje ściągnąć palitowe wentyle i założyć dwa x 120mm, tylko nie wiem jakie, doradźcie coś.

Chcę zrobić coś jak na tym filmiku:

 

Edytowane przez lukibossss

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 23.09.2020 o 12:18, Hero586 napisał:

Jak dla mnie coś za pięknie wygląda wydajność 3060 :szczerbaty: . Strzelam, że będzie vram ucięty bo w takim wypadku za bardzo zlibżone były by te karty w porównaiu do 3070 w szczególności jak wyjdą wersje TI/Super to 3070 nie będzie miał w ogóle racji bytu.

A czy jak wyszły wersje "Super" Turingów, to zwykłe 2060/2070/2080 były dalej w produkcji czy zostały wycofane? Jak ta druga opcja to problem  ze zwykłą 3070  będzie automatycznie rozwiązany.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 23.09.2020 o 13:20, caleb59 napisał:

Nareszcie się zemszczę za ten zmarnowany czas na poszukiwania bezcelowe!

 

Ja wytrzymałem bez karty w oczekiwaniu na złote runo (3080) 2 tygodnie. Jakoś przeturlam się na tym 2080 ti asusa do czasu dostępności 3080. Cyberpunk lizany przez szybę za bardzo by mnie bolał :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, blubaju napisał:

A czy jak wyszły wersje "Super" Turingów, to zwykłe 2060/2070/2080 były dalej w produkcji czy zostały wycofane? Jak ta druga opcja to problem  ze zwykłą 3070  będzie automatycznie rozwiązany.

2070 i 2080 zniknął, 2060 był dalej w produkcji, gdyż okupował inną półkę cenową w porównaniu do 2060 Super. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 23.09.2020 o 12:18, Hero586 napisał:

Jak dla mnie coś za pięknie wygląda wydajność 3060 :szczerbaty: . Strzelam, że będzie vram ucięty bo w takim wypadku za bardzo zlibżone były by te karty w porównaiu do 3070

Sprawdź różnice 2060-2070, bardzo małe i 2070 stała się od razu nieopłacalna, tu pewnie będzie podobnie czyli tak jak na tym obrazku

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na bank 3060 nie będzie szybsza niż 2070 Super/2080,  dzięki temu zostanie miejsce na 3060 Ti albo Super.
Nawiasem mówiąc są pierwsze przecieki cenowe 3070 i jak do przewidzenia było u nas MSRP zmieniono na euro, o ile oczywiście to prawda.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Mar_S napisał:

Na bank 3060 nie będzie szybsza niż 2070 Super/2080,

To jaka będzie? Szybsza od 2060 Super i tyle? To byłaby porażka, między 2070S a 2080 to bardzo dobra opcja chociaż szybsza od nich to faktycznie nie

Edytowane przez Wu70

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

1 minutę temu, Wu70 napisał:

To jaka będzie? Szybsza od 2060 Super i tyle? To byłaby porażka, między 2070S a 2080 to bardzo dobra opcja

 

a 3090 jaka miala byc, 8k gpu :D

jeszcze sie nie nauczyles brac duza poprawke na bullshity nvidii?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No 2070S jest jednak sporo powyżej 2060S, a ja właśnie o niej pisałem, w dodatku trzeba pamiętać że te porównanie wydajności nigdy nie jest równe bo mamy z reguły rozstrzał rzędu kilku-kilkunastu procent w zależności od tytułu.

@up mogą sobie pisać o 8K bo takiego panelu w zasadzie nikt nie ma, a jak ma to niedrogim dodatkiem do niego będzie 3090 w SLI, oczywiście pomijam jakieś pierdy typu 32" i 8K bo to chyba w zestawie z mikroskopem  ;)

Edytowane przez Mar_S

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Aldatha napisał:

jeszcze sie nie nauczyles brac duza poprawke na bullshity nvidii?

A to nvidia już coś mówiła o 3060?

Nieciekawy turing to na premierę 2060 był poziom 1070Ti i teraz spodziewam się minimum takiego samego skoku

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z perspektywy czasu uważam że zmiana z 1070->2060s była błędem dla tych +25% wydajności. Spokojnie mogłem całą generację Turinga przesiedzieć na 1070 i nic by się nie stało. Teraz przy premierze Ampere dopiero wychodzi jaką porażką wydajnościową i cenową były Turingi względem Pascali. Mimo wszystko jestem zadowolony z 2060s i daje radę nawet 3440x1440.

Edytowane przez Khold

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
44 minuty temu, Khold napisał:

Z perspektywy czasu uważam że zmiana z 1070->2060s była błędem dla tych +25% wydajności. Spokojnie mogłem całą generację Turinga przesiedzieć na 1070 i nic by się nie stało. Teraz przy premierze Ampere dopiero wychodzi jaką porażką wydajnościową i cenową były Turingi względem Pascali. Mimo wszystko jestem zadowolony z 2060s i daje radę nawet 3440x1440.

Hmm ? Dla mnie to by wymiana nie miała sensu jakbyś szedł tak jak ja z 1060 6GB na 2070S to przy minimalizacji kosztów RTX nowy ze sklepu bezpośrednio od EVGA kosztował mnie 1500 zł :) Bo jeszcze się załapałem na promocję ? Dla mnie przeskok wydajnościowy musi być minimum 60% aby było warte dołożenia ciut kasy do interesu.

Edytowane przez MrTooth
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
42 minuty temu, Khold napisał:

Spokojnie mogłem całą generację Turinga przesiedzieć na 1070 i nic by się nie stało

Mając monitor 1920 albo 2560 spokojnie możesz siedzieć na GTX1070 i czekać na RTXy 4000.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, Radio_Tirana napisał:

Mając monitor 1920 albo 2560 spokojnie możesz siedzieć na GTX1070 i czekać na RTXy 4000.

A czemu nie na RTX 5000 ? ?

 RTX 3070 będzie godnym następca GTX 1070, nie to co premierowe padło RTX 2070.

Edytowane przez Doamdor

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...