Skocz do zawartości
azgan

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Checkerboard Rendering oraz inne

Rekomendowane odpowiedzi

Po prostu jestem wdzięczny, że ktoś coś robi w tym kierunku - wiadomo, że to nie będzie "jakość" DLSS ale zawsze to jakiś krok naprzód.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, caleb59 napisał:

AMD nie potrzebuje Tensorów do działania FSR

Przecież FSR jest gorsze, więc to co za argument XDDD 

 

1 minutę temu, caleb59 napisał:

wiadomo, że to nie będzie "jakość" DLSS ale zawsze to jakiś krok naprzód.

Czyli robimy kupsko i chwalimy, bo za darmo. Ehhhh. 

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, caleb59 napisał:

AMD nie potrzebuje Tensorów do działania FSR. Ogólnie wiem, że to inaczej realizowana technologia ale chociaż dla wszystkich, a nie tylko dla wybranych. Nvidia śmierdzi mi tak samo jak w przypadku historii z Resize BAR, gdzie powinny obsługiwać to właściwie wszystkie karty ale oczywiście "zróbmy z tego exclusive dla RTX".

To też nie na rękę partnerom Nv. Poza tym Nv historycznie już blokuje funkcjonalności na starszych generacji pomimo, że działałyby bez problemu. Taki to interes z ich pkt to widzenia ma to sens, odpowiadałbyś za sprzedaż w Nv robiłbyś to samo :szczerbaty:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Daj im czas by mogli to dopracować, może jeszcze coś z tego będzie w przyszłości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Phoenixsuple napisał:

No i dlatego wlasnie, ze nie potrzebuje jest poki co zwyklym bublem, ktorego nawet nie mam zamiaru wlaczac. Co mi po takiej technice kiedy wyglada ona w "miare" ok w 4k tylko a przy nizszych rozdzialkach w tym takiej jakiej obecnie uzytkuje czyli 1080p to totalne dno. Nawet DLSS 2.0 w 1080p wypada srednio. To jak psu rzucic ochlapy do zarcia i cieszyc sie ze cos jest do jedzenia ;)  Jak widac lubisz zadowalac sie tymi ochlapami marnej jakosci.

Tak to już jest jak się nie rozumie jak co działa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ja np. paradoksalnie dobrze wspominam AMD FidelityFX CAS w cyberpunku bo dzięki temu przy lekkim mydle miałem kilkanaście fps więcej i mogłem to zaakceptować, gdzie gdyby AMD nie opracowało w ogóle tej technologii miałbym gówno i męczył ogóra z tym szmelcem, a nie grą nie wyciągając nawet 60fps na średnich detalach, a tfu!

Edytowane przez caleb59

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niektórym nie wytłumaczysz ze ktoś woli poświecić jakość obrazu na koszt większej wydajności. Oni są po prostu zbyt ograniczeni żeby to zrozumieć ;) 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
58 minut temu, tomcug napisał:

Ciekawe, jak mają wprowadzić DLSS na kartach bez Tensorów :boink:

Normalnie dałoby się przystosować Pascal liczy 4x szybciej w INT8, a DLSS wykorzystuje obliczenia w INT8.

W przypadku AMD to już grubsza sprawa ze względu na brak CUDA.

Ps.

First 2.0 version, also referenced as version 1.9, using an approximated AI of the in-progress version 2.0 running on the CUDA shader cores and specifically adapted for Control.

Edytowane przez sideband
  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DLSS 1.9 to był wciąż balas przy DLSS 2.0, ale już pomijając ten szczegół pomimo, że DLSS 2.0 jest liczony przez Tensory (czyli 4x szybciej niż na shaderach), to w takim Controlu spadek FPS względem rzeczywistej rozdzielczości renderingu w wyniku "rekonstrukcji" obrazu jest bardzo podobny do DLSS 1.9. Szczerze wątpię, żeby przy profilu jakość miało to jakikolwiek sens z punktu widzenia wydajności, a do tego na pewno ekspresowo pojawiłyby się teorie myślicieli, że NV starsze generacje przy DLSS ubija :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1080ti w INT8 ma 40TF:szczerbaty: Także spokojnie Pascal poradziłby sobie z DLSS bez większego wpływu na końcową wydajność.

  • Thanks 1
  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli jak mówiłem - chytra Nvidia łapie na wędkę reklamując to jako exclusive. :E 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, kadajo napisał:

Może ten nowy preset DLSS będzie poprawiał natywna rozdzielczość, tylko tego tak naprawdę brakuje w DLSS, nie poprawi to co prawda wydajności ale może nareszcie jakość obrazu i w efekcie faktycznie DLSS będzie lepszy od natywnej. Jak jeszcze dodatkowo nie będzie spadku wydajności to będzie AOK.

Diss quality daje lepsza jakość niż natywna rozdziałka. Diss zwykły to już inna bajka

  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 minut temu, sideband napisał:

1080ti w INT8 ma 40TF:szczerbaty: Także spokojnie Pascal poradziłby sobie z DLSS bez większego wpływu na końcową wydajność.

A najsłabszy RTX nie ma przypadkiem ponad 2x tyle? :E Także ja tam nie jestem przekonany, że nie miałoby to istotnego wpływu na końcową wydajność.

10 minut temu, HDR'o napisał:

Diss quality daje lepsza jakość niż natywna rozdziałka.

Nie daje lepszej.

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
30 minut temu, caleb59 napisał:

Czyli jak mówiłem - chytra Nvidia łapie na wędkę reklamując to jako exclusive. :E 

RT tez mozna liczyc na Pascalu, jak dziala kazdy dobrze wie ;)

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 minuty temu, HDR'o napisał:

Diss quality daje lepsza jakość niż natywna rozdziałka. Diss zwykły to już inna bajka

Nie zaczynaj nawet 😂

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dobra, dobra - nie bądź taki do przodu bo Ci tyłu zabraknie. :E Po pierwsze gadamy o DLSS a nie RT, po drugie @sideband napisał jak to wygląda w przypadku DLSS i co najważniejsze byłoby możliwe na Pascalach.

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, caleb59 napisał:

napisał jak to wygląda w przypadku DLSS i co najważniejsze byłoby możliwe na Pascalach.

Jesli nie widzisz analogi na przykladzie RT na Pascalach to sciagnij klapki z oczu w koncu ;)

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po pierwsze to skąd informacja, że DLSS 2.x używa na Tensor'ach  obliczeń INT8 a nie FP16?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje mi się ze jest niemożliwe, w przeciwieństwie do RT uruchomienie DLSS na Pascalach.
Bo po pierwsze w jakim celu Nv odblokowała możliwość uruchomienia RT na Pascalach skoro są one w tym zbyt wolne  ?
Myślę ze po prostu to zrobiła bo było to możliwe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Phoenixsuple napisał:

Jesli nie widzisz analogi na przykladzie RT na Pascalach to sciagnij klapki z oczu w koncu ;)

Ja mogę coś powiedzieć na temat RT na Pascalach bo przed sprzedaniem GTX1080Ti sprawdzałem jak wygląda i działa np. w Control. Mówiąc krótko był pokaz slajdów i pod tym względem na konsolach z odpowiednikiem RX6700XT jest wyraźna poprawa. 

1 minutę temu, kadajo napisał:

Wydaje mi się ze jest niemożliwe, w przeciwieństwie do RT uruchomienie DLSS na Pascalach.
Bo po pierwsze w jakim celu Nv odblokowała możliwość uruchomienia RT na Pascalach skoro są one w tym zbyt wolne  ?
Myślę ze po prostu to zrobiła bo było to możliwe.

Do robienia ładnych screenów 😉

1 godzinę temu, sideband napisał:

Normalnie dałoby się przystosować Pascal liczy 4x szybciej w INT8, a DLSS wykorzystuje obliczenia w INT8.

W przypadku AMD to już grubsza sprawa ze względu na brak CUDA.

Ps.

First 2.0 version, also referenced as version 1.9, using an approximated AI of the in-progress version 2.0 running on the CUDA shader cores and specifically adapted for Control.

 

Godzinę temu, sideband napisał:

1080ti w INT8 ma 40TF:szczerbaty: Także spokojnie Pascal poradziłby sobie z DLSS bez większego wpływu na końcową wydajność.

Szkoda że nie dodali wsparcia bo chętnie bym przetestował na GTX1080Ti 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To go będę włączał jak w MFS będą SS robił, ale najpierw musze poczekać na update 🤣

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
2 godziny temu, tomcug napisał:

A najsłabszy RTX nie ma przypadkiem ponad 2x tyle? :E Także ja tam nie jestem przekonany, że nie miałoby to istotnego wpływu na końcową wydajność.

 

Ale DLSS jest lekkie to tylko 2ms na Turingu i pomimo, że Ampere ma szybsze tensory i może liczyć równocześnie DLSS to nie widzisz większej przewagi Ampere po włączeniu DLSS. Dlatego nawet jak by urwało kilka procent wydajności z DLSS na Pascalu to i tak warto.

1 godzinę temu, SebastianFM napisał:

Po pierwsze to skąd informacja, że DLSS 2.x używa na Tensor'ach  obliczeń INT8 a nie FP16?

https://www.eurogamer.net/articles/digitalfoundry-2020-image-reconstruction-death-stranding-face-off

 Microsoft has confirmed support for accelerated INT4/INT8 processing for Xbox Series X (for the record, DLSS uses INT8) but Sony has not confirmed ML support for PlayStation 5 nor a clutch of other RDNA 2 features that are present for the next generation Xbox and in PC via DirectX 12 Ultimate support on upcoming AMD products.

Edytowane przez sideband
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

No dobra, napisał tak i co z tego? Równie dobrze mógł sobie napisać, że używa INT4.

Sorki, że psuję wam zabawę z wymyślaniem teorii.

W prezentacji NVIDIA o architekturze Turing jest pokazane na diagramie, że DLSS 1.0 używa FP16.
L2WCqrl.png

Natomiast na stronie NVIDIA opisującej DLSS 2.0 jest podana wykorzystywana wydajność rdzeni Tensor w architekturze Turing.
"With Turing’s Tensor Cores delivering up to 110 teraflops of dedicated AI horsepower, the DLSS network can be run in real-time simultaneously with an intensive 3D game. This simply wasn’t possible before Turing and Tensor Cores."
https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
RTX 2080 Ti ma taką wydajność rdzeni Tensor w FP16 a nie w INT8.

Można się rozejść. 😁

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, SebastianFM napisał:

No dobra, napisał tak i co z tego? Równie dobrze mógł sobie napisać, że używa INT4.

Sorki, że psuję wam zabawę z wymyślaniem teorii.

W prezentacji NVIDIA o architekturze Turing jest pokazane na diagramie, że DLSS 1.0 używa FP16.

RTX 2080 Ti ma taką wydajność rdzeni Tensor w FP16 a nie w INT8.

Można się rozejść. 😁

Czyli jakby to sie mialo do liczenia na Pascalu??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie tak jak to opisuje NVIDIA, niemożliwe przed Turing'iem z rdzeniami Tensor. 😁

Na RTX 2070 wydajność obliczeń FP16 na rdzeniach Tensor wynosi 60 TFLOPS. Pascal nie obsługuje obliczeń o FP16 a dla porównania GTX 1070 w obliczeniach FP32 ma wydajność 6,5 TFLOPS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   1 użytkownik

×
×
  • Dodaj nową pozycję...