Skocz do zawartości
Minciu

NVIDIA GeForce GTX-RTX 20x0

Rekomendowane odpowiedzi

Akurat DLSS praktycznie nic nie zmieni jeżeli chodzi o różnicę między generacjami.

Jakby ktoś chciał wiedzieć to Ampere ma zmiany w TMU i poprawiony lekko kontroler pamięci czego nie ma w white paper. Na dzień dzisiejszy pod DX-em Ampere ma jedną funkcjonalność więcej od Turinga, co będzie dalej to się okaże.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
4 minuty temu, sideband napisał:

Akurat DLSS praktycznie nic nie zmieni jeżeli chodzi o różnicę między generacjami.

Jesteś pewny?  :E
Daj im z rok, albo nawet pół   ;)

Edytowane przez Mar_S

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdybyś nie wiedział to liczenie DLSS zajmuje całe 2ms na tensorach. Ampere można liczyć jednocześnie RT+AI tylko różnice z tego wynikające będą niewielkie.

Różnicę na plus dla Ampere będą rosnąć wraz ze wzrostem ilości obliczeń w grach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
48 minut temu, Hero586 napisał:

Jak dla mnie coś za pięknie wygląda wydajność 3060 :szczerbaty: . Strzelam, że będzie vram ucięty bo w takim wypadku za bardzo zlibżone były by te karty w porównaiu do 3070 w szczególności jak wyjdą wersje TI/Super to 3070 nie będzie miał w ogóle racji bytu.

W grach/rozdzielczości, gdzie 6GB nie jest problemem to 2060 jest równie szybki co GTX1080/podkręcona Vega 56. Naturalna ewolucja tym przypadku. 

Niech już dają 3060, skowyt sprzedających 2070 Super będzie niesamowity. 

  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

No właśnie gram w 4K i 6GB to już problem :/, ale racja większość osób raczej nie doświadczy takich problemów.

Edytowane przez Hero586

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, Radio_Tirana napisał:

Niech już dają 3060, skowyt sprzedających 2070 Super będzie niesamowity. 

Nareszcie się zemszczę za ten zmarnowany czas na poszukiwania bezcelowe!

tenor.gif

  • Haha 6

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, sideband napisał:

Gdybyś nie wiedział to liczenie DLSS zajmuje całe 2ms na tensorach. Ampere można liczyć jednocześnie RT+AI tylko różnice z tego wynikające będą niewielkie.

Różnicę na plus dla Ampere będą rosnąć wraz ze wzrostem ilości obliczeń w grach.

Jak będą chcieli to w nowych grach różnica wzrośnie i tyle, wystarczy popatrzeć jak rosła wydajność Turingów, premierowo 1080 Ti walczył jak równy z 2080, teraz już nawet 2070 czasami spuszcza mu manto w nowych tytułach, a przecież wydajność kart się nie zmieniła.  :E

3840x2160ultra.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wzrośnie na pewno. Ampere może w tym samym czasie obliczać śledzenie promieni i dodatkowo wykonywać inne obliczenia w Async Compute. Np. w Control podobną ilość czasu zajmuje samo śledzenie promieni co późniejsze obliczenia i odszumianie. Małe zmiany w grze i mogłoby to działać tak, że np. podczas obliczania miejsc przecięć promieni z geometrią dla odbić byłoby już równocześnie wykonywane odszumianie oświetlenia rozproszonego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Mar_S napisał:

Jak będą chcieli to w nowych grach różnica wzrośnie i tyle, wystarczy popatrzeć jak rosła wydajność Turingów, premierowo 1080 Ti walczył jak równy z 2080, teraz już nawet 2070 czasami spuszcza mu manto w nowych tytułach, a przecież wydajność kart się nie zmieniła.  :E

To teraz sprawdź jaką wydajność ma 2070 w obliczeniach na tle 1080ti to zobaczysz skąd wzięła się wydajność.

 

1 godzinę temu, SebastianFM napisał:

Wzrośnie na pewno. Ampere może w tym samym czasie obliczać śledzenie promieni i dodatkowo wykonywać inne obliczenia w Async Compute. Np. w Control podobną ilość czasu zajmuje samo śledzenie promieni co późniejsze obliczenia i odszumianie. Małe zmiany w grze i mogłoby to działać tak, że np. podczas obliczania miejsc przecięć promieni z geometrią dla odbić byłoby już równocześnie wykonywane odszumianie oświetlenia rozproszonego.

W najlepszym bądź razie 10% do przodu tylko tensory też wykorzystują zasoby to nawet 10% może nie być.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, sideband napisał:

W najlepszym bądź razie 10% do przodu tylko tensory też wykorzystują zasoby to nawet 10% może nie być.

Przecież do tej pory Tensor'y w grach są wykorzystywane tylko do DLSS.

Ja napisałem o obliczeniach wykonywanych równolegle ze śledzeniem promieni. Sprawdzałem na mojej karcie i podczas samej pracy rdzeni RT można wykonywać bardzo dużo obliczeń i operacji na pamięci. W przykładowym programie osiągającym 4.32 GRays/s udało mi się uzyskać wykonując operacje pomiędzy puszczaniem promieni wydajność w obliczeniach 6.37 TFLOPS bez spadku wydajności samego śledzenia. Przewaga Ampere nad Turing polega na tym, że podczas śledzenia promieni można uruchomić osobny shader w Async Compute.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
6 godzin temu, Khold napisał:

Idąc takim tokiem rozumowania Twój 2080 też jest warty 1000 zł bo to prawie to samo co 2070s :E

Mój  idzie do kompa kolegi za 1200zł - po znajomości. Mnie nie zależy aby wycisnąć za niego jak najwięcej, po prostu chcę zrobić miejsce dla  3080 ;)

Edytowane przez blubaju
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
1 godzinę temu, SebastianFM napisał:

Przecież do tej pory Tensor'y w grach są wykorzystywane tylko do DLSS.

Ja napisałem o obliczeniach wykonywanych równolegle ze śledzeniem promieni. Sprawdzałem na mojej karcie i podczas samej pracy rdzeni RT można wykonywać bardzo dużo obliczeń i operacji na pamięci. W przykładowym programie osiągającym 4.32 GRays/s udało mi się uzyskać wykonując operacje pomiędzy puszczaniem promieni wydajność w obliczeniach 6.37 TFLOPS bez spadku wydajności samego śledzenia. Przewaga Ampere nad Turing polega na tym, że podczas śledzenia promieni można uruchomić osobny shader w Async Compute.

A mnie chodziło o potencjalny kop z równoczesnego liczenia RT+AI, który nie będzie duży. Turing może równocześnie wykonywać obliczenia + DLSS na tensorach. Brak równoczesnego liczenia RT+AI/DLSS. 

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, novi napisał:

Moze ktos z podkręconym 10700k i jakims rtx2070+ wrzuciłby wynik benchmarku w sotrze? Nie wiem czy cos mi w systemie broi, czy po prostu tak ma być z tym renderem cpu .

A 10700 i rtx2080 Cię interesuje? ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moze również byc :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pytanie, reklamował ktoś kartę w EVGA po tych zmianach jakie wprowadzili gdzie zaczęli wymagać dowodu zakupu itd? Bo zagraniczne fora to jedno, ale wiadomo że gości z USA będą jednak traktować inaczej niż nas, obywateli trzeciego świata.  ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Patrzajta i uczta się jak się robi customowe chłodzenie GPU:

kEjcPjL.jpg

XD Robota z nudów, ale ~5 stopni mniej na grafie.

A tak bardziej poważnie, to planuje ściągnąć palitowe wentyle i założyć dwa x 120mm, tylko nie wiem jakie, doradźcie coś.

Chcę zrobić coś jak na tym filmiku:

 

Edytowane przez lukibossss

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 23.09.2020 o 12:18, Hero586 napisał:

Jak dla mnie coś za pięknie wygląda wydajność 3060 :szczerbaty: . Strzelam, że będzie vram ucięty bo w takim wypadku za bardzo zlibżone były by te karty w porównaiu do 3070 w szczególności jak wyjdą wersje TI/Super to 3070 nie będzie miał w ogóle racji bytu.

A czy jak wyszły wersje "Super" Turingów, to zwykłe 2060/2070/2080 były dalej w produkcji czy zostały wycofane? Jak ta druga opcja to problem  ze zwykłą 3070  będzie automatycznie rozwiązany.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 23.09.2020 o 13:20, caleb59 napisał:

Nareszcie się zemszczę za ten zmarnowany czas na poszukiwania bezcelowe!

 

Ja wytrzymałem bez karty w oczekiwaniu na złote runo (3080) 2 tygodnie. Jakoś przeturlam się na tym 2080 ti asusa do czasu dostępności 3080. Cyberpunk lizany przez szybę za bardzo by mnie bolał :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, blubaju napisał:

A czy jak wyszły wersje "Super" Turingów, to zwykłe 2060/2070/2080 były dalej w produkcji czy zostały wycofane? Jak ta druga opcja to problem  ze zwykłą 3070  będzie automatycznie rozwiązany.

2070 i 2080 zniknął, 2060 był dalej w produkcji, gdyż okupował inną półkę cenową w porównaniu do 2060 Super. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 23.09.2020 o 12:18, Hero586 napisał:

Jak dla mnie coś za pięknie wygląda wydajność 3060 :szczerbaty: . Strzelam, że będzie vram ucięty bo w takim wypadku za bardzo zlibżone były by te karty w porównaiu do 3070

Sprawdź różnice 2060-2070, bardzo małe i 2070 stała się od razu nieopłacalna, tu pewnie będzie podobnie czyli tak jak na tym obrazku

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na bank 3060 nie będzie szybsza niż 2070 Super/2080,  dzięki temu zostanie miejsce na 3060 Ti albo Super.
Nawiasem mówiąc są pierwsze przecieki cenowe 3070 i jak do przewidzenia było u nas MSRP zmieniono na euro, o ile oczywiście to prawda.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
5 minut temu, Mar_S napisał:

Na bank 3060 nie będzie szybsza niż 2070 Super/2080,

To jaka będzie? Szybsza od 2060 Super i tyle? To byłaby porażka, między 2070S a 2080 to bardzo dobra opcja chociaż szybsza od nich to faktycznie nie

Edytowane przez Wu70

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

1 minutę temu, Wu70 napisał:

To jaka będzie? Szybsza od 2060 Super i tyle? To byłaby porażka, między 2070S a 2080 to bardzo dobra opcja

 

a 3090 jaka miala byc, 8k gpu :D

jeszcze sie nie nauczyles brac duza poprawke na bullshity nvidii?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

No 2070S jest jednak sporo powyżej 2060S, a ja właśnie o niej pisałem, w dodatku trzeba pamiętać że te porównanie wydajności nigdy nie jest równe bo mamy z reguły rozstrzał rzędu kilku-kilkunastu procent w zależności od tytułu.

@up mogą sobie pisać o 8K bo takiego panelu w zasadzie nikt nie ma, a jak ma to niedrogim dodatkiem do niego będzie 3090 w SLI, oczywiście pomijam jakieś pierdy typu 32" i 8K bo to chyba w zestawie z mikroskopem  ;)

Edytowane przez Mar_S

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...