Skocz do zawartości

Rekomendowane odpowiedzi

1 minutę temu, Kynareth napisał:

Miałem na myśli DLSS 3.0. A narzędzia dla moderów fajne ale karty jeszcze są za słabe (i za drogie) do ray-tracingu. No ale w zmodowanego Morrowinda z ray-tracingiem był pograł...

DLSS 3.0 będzie pewnie we wszystkich przyszłych grach, do których miałoby w ogóle trafić DLSS. Nie ma tego jak porówywać do PhysX na GPU, bo wiadome jest, że to będą pchać gdzie się da. To w końcu nie "zabiera" wydajności jak PhysX, tylko ją "dodaje".

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Mi ten DLSS 3.0 to przypomina jak kiedys był przeplot obrazu, raczej taka ostatecznosc niz przyjemnosc. Lepiej jakby poprostu gry mialy porzadna optymalizacje zamiast takie tanie sztuczki robic.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, ŁowcaPisowców napisał:

Lepiej jakby poprostu gry mialy porzadna optymalizacje zamiast takie tanie sztuczki robic.

Też bym tego chciał. Tak samo, jak wagonu złota. Obie rzeczy są mniej więcej tak samo realne i prawdopodobne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, BlindObserver napisał:

DLSS 3.0 będzie pewnie we wszystkich przyszłych grach, do których miałoby w ogóle trafić DLSS. Nie ma tego jak porówywać do PhysX na GPU, bo wiadome jest, że to będą pchać gdzie się da. To w końcu nie "zabiera" wydajności jak PhysX, tylko ją "dodaje".

O właśnie. Są zapowiedziane jakieś killery graficzne?
Bo na razie to pokazali to dlss 3 w 2 letnim cyberpunku, 8 letnim portalu i remasterze spidermana.
Dla mnie to dlss 3 wyglądało źle ale może dopracują do premiery.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 minut temu, sideband napisał:

Nie wypowiadaj się na tematy o których nie masz zielonego pojęcia.

Pan co zjadł wszystkie rozumy?

Jakiś forumowy dyktatorek ?

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 godzin temu, Minciu napisał:

do 12go to te ceny zostaną tylko wspomnieniem. Lepiej sprzedaj kogoś z rodziny całego na części.

Jest taka mozliwosc, choc mam dziwne przeczucie, ze popyt przez cene moze byc dosc niski :) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe informacje nt. rdzeni AD103 i AD104.
AD103 ma mieć powierzchnię ~378/379 mm^2 przy 45,9 mld tranzystorów,a AD104 ma mieć powierzchnię ~294 mm^2 przy 35,8 mld tranzystorów. Jak na takie fakty,to AD104 będzie miała więcej tranzystorów od GA102,ale to nie jest w sumie takie dziwne,skoro zagęszczenie tranzystorów w procesie TSMC 4 nm wzrosło blisko trzykrotnie od tego co było w 8 nm Samsunga.
Coś strzelam,że AD106 może mieć powierzchnię coś w okolicach 200 mm^2 bądź trochę więcej,a tranzystorów liczbowo może mieć więcej od GA104 :E

https://videocardz.com/newz/nvidia-confirms-ada-102-103-104-gpu-specs-ad104-has-more-transistors-than-ga102

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zastanówcie się co to znaczy 600W na GPU i poziom wyrzucanego ciepła z kompa. To jakby siedzieć przy koparce 5x3060ti.
600W z gpu plus 150-200W z pozostałych elementów w pokoju 15m2 podnosi temperaturę o nawet 5st, a może i więcej już po 1-2 godzinach. W zimie podczas grania mozna mieć uchylone okno i zakręcone kaloryfery, a w lecie zamiast 25-26st nagle jest ponad 30st :) To jest jakaś paranoja. 

  • Haha 1
  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

AD104-400 jest trochę jak GA102-350 z 12 GB VRAM. W praktyce, 4080 12GB może być wolniejsze od 3090 Ti (szczególnie gdy gra wymaga powyżej 12 GB RAM). Ogólnie to 4080 12GB jest niczym ciekawym. Gdyby to chociaż było jakoś energooszczędne ale też nie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, xtn napisał:

Zastanówcie się co to znaczy 600W na GPU i poziom wyrzucanego ciepła z kompa. To jakby siedzieć przy koparce 5x3060ti.
600W z gpu plus 150-200W z pozostałych elementów w pokoju 15m2 podnosi temperaturę o nawet 5st, a może i więcej już po 1-2 godzinach. W zimie podczas grania mozna mieć uchylone okno i zakręcone kaloryfery, a w lecie zamiast 25-26st nagle jest ponad 30st :) To jest jakaś paranoja. 

Jest plus, zimą oszczędności na węglu, a latem....no cóż, lepiej nad jeziorkiem posiedzieć ;) Chyba że klima, to inna bajka :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RDNA 3 będzie opłacalniejsze i tańsze, bo użyje MCM.

Gdyby to w miarę normalnie szło, to mielibyśmy w tym roku 4060 12GB i 4060 16GB o podobnych specyfikacjach jak te 4080 i w normalnych cenach, tak by gaming industry mogło się faktycznie rozwijać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawi mnie jak ta interpolacja oparta o wektory ruchu dodająca pośrednie klatki na podstawie klatki poprzedzającej i następującej poradzi sobie w grach w momentach gdy jedna scena przechodzi w drugą (np. otwieramy okno ekwipunku). W odróżnieniu od sytuacji gdy mamy dwie klatki z tej samej sceny i algorytm powinien dosyć łatwo wygenerować klatkę pośrednią, tutaj algorytm będzie musiał wygenerować pośrednią klatkę bazując na dwóch zupełnie różnych scenach i czuję że może się mocno pogubić. Jakoś średnio widzę tą technologię gdy przy każdym otwieraniu ekwipunku postaci czy innej zmianie sceny będziemy doświadczać artefaktów. Jak podobne algorytmy generujące klatki pośrednie w TV radzą sobie z przejściami scen w filmach których przecież jest zdecydowanie więcej niż w przypadku gier? Potrafią odczytać, że mamy do czynienia z dwoma różnymi scenami i zamiast klatki pośredniej dodają skopiowaną klatkę poprzedzającą lub następującą? Wiem, że wyraziłem moje wątpliwości słowami laika, ale chyba we w miarę zrozumiały sposób.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, marcin_21 napisał:

kuwa, 3 dekada 21 wieku, zamiast miniaturyzacji i energooszczędności mamy cegłówki 600W :D

A do tego ludzie płacą za to gruby hajs i się jeszcze z tego cieszą ?‍♂️

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież możecie sobie ustawić 200 czy 300W ale dopiero limit od nvidii by was uradował? :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, grzegorz1981 napisał:

A do tego ludzie płacą za to gruby hajs i się jeszcze z tego cieszą ?‍♂️

Ale wymagania też wzrosły, kiedys siedziałeś przy telewizorze 21 cali, jak gra odpaliła na kompie to już się cieszyles, a jak trzymała 30 klatek to był luksus, a far cry miał realistyczną grafikę. No i grało się w 1024x768.

Gdyby pozostać przy tych wymaganiach to faktycznie komp 100W by ogarnął sprawe. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
40 minut temu, xtn napisał:

Zastanówcie się co to znaczy 600W na GPU i poziom wyrzucanego ciepła z kompa. To jakby siedzieć przy koparce 5x3060ti.
600W z gpu plus 150-200W z pozostałych elementów w pokoju 15m2 podnosi temperaturę o nawet 5st, a może i więcej już po 1-2 godzinach. W zimie podczas grania mozna mieć uchylone okno i zakręcone kaloryfery, a w lecie zamiast 25-26st nagle jest ponad 30st :) To jest jakaś paranoja. 

To znaczy zabawa w kręcenie wyników w benchmarkach. Przecież nikt normalny na codzień do grania nie będzie odkręcał limitów na 600W dla kilu % czy nawet ~10% wydajności tylko będzie siedział na optymalnych nastawach po UV. 

Edytowane przez lukadd
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, maras2574 napisał:

Czuję długą kolejkę do @zawisztheblack ;)

Właśnie ogarniam wykonywanie nowych wiązek w oplotach bez widocznego termokurczu. Dobra informacja jest taka, że będzie się dało to zrobić i będzie to dobrze wyglądać. Zła jest taka, że będzie drogo, ale może przez to kolejka będzie krótsza :E:P

  • Like 2
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, T0TEK napisał:

Ale wymagania też wzrosły, kiedys siedziałeś przy telewizorze 21 cali, jak gra odpaliła na kompie to już się cieszyles, a jak trzymała 30 klatek to był luksus, a far cry miał realistyczną grafikę. No i grało się w 1024x768.

Gdyby pozostać przy tych wymaganiach to faktycznie komp 100W by ogarnął sprawe. 

Nie widzę problemu, żeby za kilka lat osiągnięto wydajność serii 40x0, mieszcząc się w 100W, co wydaje się być głównie kwestią procesu technologicznego. Problem w tym że producenci zawsze będą dochodzić do granicy akceptowalności poboru mocy przez użytkowników, by pokazać jak największą możliwą wydajność. Seria 40x0 podnosi po raz kolejny tę poprzeczkę i przy okazji będzie testem ile rynek jest w stanie zaakceptować. Wg mnie ta granica została już przekroczona i karty z poborem 450W+ nie mają przyszłości.

27 minut temu, AUTO6 napisał:

Ciekawi mnie jak ta interpolacja oparta o wektory ruchu dodająca pośrednie klatki na podstawie klatki poprzedzającej i następującej poradzi sobie w grach w momentach gdy jedna scena przechodzi w drugą (np. otwieramy okno ekwipunku). W odróżnieniu od sytuacji gdy mamy dwie klatki z tej samej sceny i algorytm powinien dosyć łatwo wygenerować klatkę pośrednią, tutaj algorytm będzie musiał wygenerować pośrednią klatkę bazując na dwóch zupełnie różnych scenach i czuję że może się mocno pogubić. Jakoś średnio widzę tą technologię gdy przy każdym otwieraniu ekwipunku postaci czy innej zmianie sceny będziemy doświadczać artefaktów. Jak podobne algorytmy generujące klatki pośrednie w TV radzą sobie z przejściami scen w filmach których przecież jest zdecydowanie więcej niż w przypadku gier? Potrafią odczytać, że mamy do czynienia z dwoma różnymi scenami i zamiast klatki pośredniej dodają skopiowaną klatkę poprzedzającą lub następującą? Wiem, że wyraziłem moje wątpliwości słowami laika, ale chyba we w miarę zrozumiały sposób.

Oczywiście, że rozpozna zmianę sceny, to nie jest żadna filozofia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
25 minut temu, Wu70 napisał:

Przecież możecie sobie ustawić 200 czy 300W ale dopiero limit od nvidii by was uradował? :D

yep twekwer biosu od nvidii poproszę.

PL ,napiecia ,mhz na P0 i VRAM.

Mhz na uncore mogą schować

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
27 minut temu, T0TEK napisał:

Ale wymagania też wzrosły, kiedys siedziałeś przy telewizorze 21 cali, jak gra odpaliła na kompie to już się cieszyles, a jak trzymała 30 klatek to był luksus, a far cry miał realistyczną grafikę. No i grało się w 1024x768.

Ale to było ponad 20 lat temu...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 minut temu, zawisztheblack napisał:

 Zła jest taka, że będzie drogo, ale może przez to kolejka będzie krótsza :E:P

No ale jak to przecież kable to kable.. czemu bedzie drożej :rotfl: :E wg większości pclabowej powinno być taniej!! 

 

  • Haha 1
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, maras2574 napisał:

Nic z tych rzeczy, nie tym razem. Obraziłem się na Jensena :rozga::E

A tak serio, póki co nie brakuje mi wydajności ;)

Ja podobnie! Ale prawda jest taka, że to ma być moja radocha, mnie ma być fajnie, itd. więc... się błota nie wypieram.
Teraz - owszem - jestem obrażony z rękoma w krzyż na piersi (!), ale... czekam na testy, zerkam na ceny 4090, zerkam na CENY 3080 (!), zerkam na ruchy i relacje 30xx vs 40xx, po prostu paCZEm se...

Bez napiny. Jak się zrobi fajniej, kto wie? 
Teraz nie oddam 3080 TUFa za 3000 pln, żeby dołożyć jeszcze 7000 pln (!) - a i to może nie wystarczyć (!) - aby dostać hipotetyczne 100% (płacąc 300%).
A jak jeszcze testy wyjdą brutalniejsze i nie będzie nawet 100%, to chyba zupełnie wyjdę z wątku. ;)

 

 

Edytowane przez *** ChOpLaCz ***
  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na filmie Digital Foundry jest 5 sekundowe porównanie RTX 3090 Ti i RTX 4090 w Cyberpunk 2077 w 4K bez użycia DLSS na maksymalnych ustawieniach z Psycho RT.
Policzyłem ilość klatek animacji. RTX 4090 osiąga 38 FPS a RTX 3090 Ti 21,5 FPS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

9728/16384 * 38 = 22.5 FPS =~ 3090 Ti. Czyli zgadza się, 4080 16 GB to stara xx70. Bo do tej pory nowa xx70 = stara x80 Ti / xx90 Ti

Edytowane przez cichy45

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, maras2574 napisał:

Mówisz że będzie jak z Alder Lake ? :) Nie nie, ja tylko się przyglądam :E

Ja też to pamiętam :E

Prawda jest taka,że próg bólu dla większości  to cena jest hamulcem  jeśli takie 4080 16GB kosztowałoby te 4500~~ to nie byłoby  tematu tylko każdy by skakał z radości :Dnawet z wysokim poborem prądu bo  90% tu by zrobiło i tak UV 

  • Like 1
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...