Skocz do zawartości
azgan

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Checkerboard Rendering oraz inne

Rekomendowane odpowiedzi

Napisano (edytowane)

Może ten nowy preset DLSS będzie poprawiał natywna rozdzielczość, tylko tego tak naprawdę brakuje w DLSS, nie poprawi to co prawda wydajności ale może nareszcie jakość obrazu i w efekcie faktycznie DLSS będzie lepszy od natywnej. Jak jeszcze dodatkowo nie będzie spadku wydajności to będzie AOK.

Edytowane przez kadajo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, tomcug napisał:

Ciekawe, jak mają wprowadzić DLSS na kartach bez Tensorów :boink:

AMD nie potrzebuje Tensorów do działania FSR. Ogólnie wiem, że to inaczej realizowana technologia ale chociaż dla wszystkich, a nie tylko dla wybranych. Nvidia śmierdzi mi tak samo jak w przypadku historii z Resize BAR, gdzie powinny obsługiwać to właściwie wszystkie karty ale oczywiście "zróbmy z tego exclusive dla RTX".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakoś nie jestem przekonany, że prędko zobaczymy grę zarówno z DLSS, jak i FSR. AMD raczej nie zależy na bezpośrednim porównaniu tych technik :E

Teraz, caleb59 napisał:

AMD nie potrzebuje Tensorów do działania FSR.

Bo to najzwyklejsze skalowanie obrazu i wyostrzanie, które wcześniej miałeś pod nazwą CAS, a teraz dodali do tego wybór rozdzielczości renderowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, caleb59 napisał:

AMD nie potrzebuje Tensorów do działania FSR. Ogólnie wiem, że to inaczej realizowana technologia ale chociaż dla wszystkich, a nie tylko dla wybranych. Nvidia śmierdzi mi tak samo jak w przypadku historii z Resize BAR, gdzie powinny obsługiwać to właściwie wszystkie karty ale oczywiście "zróbmy z tego exclusive dla RTX".

Nv i AMD to korporacje. Nv prowadzi wiec robi co im się podoba. AMD nie wiec musi grać pod publikę, zapewniam ze gdyby się zamienili miejscami AMD robiło by tak samo a to Nv by kombinowała ;)

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, caleb59 napisał:

AMD nie potrzebuje Tensorów do działania FSR.

No i dlatego wlasnie, ze nie potrzebuje jest poki co zwyklym bublem, ktorego nawet nie mam zamiaru wlaczac. Co mi po takiej technice kiedy wyglada ona w "miare" ok w 4k tylko a przy nizszych rozdzialkach w tym takiej jakiej obecnie uzytkuje czyli 1080p to totalne dno. Nawet DLSS 2.0 w 1080p wypada srednio. To jak psu rzucic ochlapy do zarcia i cieszyc sie ze cos jest do jedzenia ;)  Jak widac lubisz zadowalac sie tymi ochlapami marnej jakosci.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po prostu jestem wdzięczny, że ktoś coś robi w tym kierunku - wiadomo, że to nie będzie "jakość" DLSS ale zawsze to jakiś krok naprzód.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, caleb59 napisał:

AMD nie potrzebuje Tensorów do działania FSR

Przecież FSR jest gorsze, więc to co za argument XDDD 

 

1 minutę temu, caleb59 napisał:

wiadomo, że to nie będzie "jakość" DLSS ale zawsze to jakiś krok naprzód.

Czyli robimy kupsko i chwalimy, bo za darmo. Ehhhh. 

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, caleb59 napisał:

AMD nie potrzebuje Tensorów do działania FSR. Ogólnie wiem, że to inaczej realizowana technologia ale chociaż dla wszystkich, a nie tylko dla wybranych. Nvidia śmierdzi mi tak samo jak w przypadku historii z Resize BAR, gdzie powinny obsługiwać to właściwie wszystkie karty ale oczywiście "zróbmy z tego exclusive dla RTX".

To też nie na rękę partnerom Nv. Poza tym Nv historycznie już blokuje funkcjonalności na starszych generacji pomimo, że działałyby bez problemu. Taki to interes z ich pkt to widzenia ma to sens, odpowiadałbyś za sprzedaż w Nv robiłbyś to samo :szczerbaty:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Daj im czas by mogli to dopracować, może jeszcze coś z tego będzie w przyszłości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Phoenixsuple napisał:

No i dlatego wlasnie, ze nie potrzebuje jest poki co zwyklym bublem, ktorego nawet nie mam zamiaru wlaczac. Co mi po takiej technice kiedy wyglada ona w "miare" ok w 4k tylko a przy nizszych rozdzialkach w tym takiej jakiej obecnie uzytkuje czyli 1080p to totalne dno. Nawet DLSS 2.0 w 1080p wypada srednio. To jak psu rzucic ochlapy do zarcia i cieszyc sie ze cos jest do jedzenia ;)  Jak widac lubisz zadowalac sie tymi ochlapami marnej jakosci.

Tak to już jest jak się nie rozumie jak co działa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ja np. paradoksalnie dobrze wspominam AMD FidelityFX CAS w cyberpunku bo dzięki temu przy lekkim mydle miałem kilkanaście fps więcej i mogłem to zaakceptować, gdzie gdyby AMD nie opracowało w ogóle tej technologii miałbym gówno i męczył ogóra z tym szmelcem, a nie grą nie wyciągając nawet 60fps na średnich detalach, a tfu!

Edytowane przez caleb59

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niektórym nie wytłumaczysz ze ktoś woli poświecić jakość obrazu na koszt większej wydajności. Oni są po prostu zbyt ograniczeni żeby to zrozumieć ;) 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
58 minut temu, tomcug napisał:

Ciekawe, jak mają wprowadzić DLSS na kartach bez Tensorów :boink:

Normalnie dałoby się przystosować Pascal liczy 4x szybciej w INT8, a DLSS wykorzystuje obliczenia w INT8.

W przypadku AMD to już grubsza sprawa ze względu na brak CUDA.

Ps.

First 2.0 version, also referenced as version 1.9, using an approximated AI of the in-progress version 2.0 running on the CUDA shader cores and specifically adapted for Control.

Edytowane przez sideband
  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DLSS 1.9 to był wciąż balas przy DLSS 2.0, ale już pomijając ten szczegół pomimo, że DLSS 2.0 jest liczony przez Tensory (czyli 4x szybciej niż na shaderach), to w takim Controlu spadek FPS względem rzeczywistej rozdzielczości renderingu w wyniku "rekonstrukcji" obrazu jest bardzo podobny do DLSS 1.9. Szczerze wątpię, żeby przy profilu jakość miało to jakikolwiek sens z punktu widzenia wydajności, a do tego na pewno ekspresowo pojawiłyby się teorie myślicieli, że NV starsze generacje przy DLSS ubija :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1080ti w INT8 ma 40TF:szczerbaty: Także spokojnie Pascal poradziłby sobie z DLSS bez większego wpływu na końcową wydajność.

  • Thanks 1
  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli jak mówiłem - chytra Nvidia łapie na wędkę reklamując to jako exclusive. :E 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, kadajo napisał:

Może ten nowy preset DLSS będzie poprawiał natywna rozdzielczość, tylko tego tak naprawdę brakuje w DLSS, nie poprawi to co prawda wydajności ale może nareszcie jakość obrazu i w efekcie faktycznie DLSS będzie lepszy od natywnej. Jak jeszcze dodatkowo nie będzie spadku wydajności to będzie AOK.

Diss quality daje lepsza jakość niż natywna rozdziałka. Diss zwykły to już inna bajka

  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 minut temu, sideband napisał:

1080ti w INT8 ma 40TF:szczerbaty: Także spokojnie Pascal poradziłby sobie z DLSS bez większego wpływu na końcową wydajność.

A najsłabszy RTX nie ma przypadkiem ponad 2x tyle? :E Także ja tam nie jestem przekonany, że nie miałoby to istotnego wpływu na końcową wydajność.

10 minut temu, HDR'o napisał:

Diss quality daje lepsza jakość niż natywna rozdziałka.

Nie daje lepszej.

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
30 minut temu, caleb59 napisał:

Czyli jak mówiłem - chytra Nvidia łapie na wędkę reklamując to jako exclusive. :E 

RT tez mozna liczyc na Pascalu, jak dziala kazdy dobrze wie ;)

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 minuty temu, HDR'o napisał:

Diss quality daje lepsza jakość niż natywna rozdziałka. Diss zwykły to już inna bajka

Nie zaczynaj nawet 😂

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dobra, dobra - nie bądź taki do przodu bo Ci tyłu zabraknie. :E Po pierwsze gadamy o DLSS a nie RT, po drugie @sideband napisał jak to wygląda w przypadku DLSS i co najważniejsze byłoby możliwe na Pascalach.

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, caleb59 napisał:

napisał jak to wygląda w przypadku DLSS i co najważniejsze byłoby możliwe na Pascalach.

Jesli nie widzisz analogi na przykladzie RT na Pascalach to sciagnij klapki z oczu w koncu ;)

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po pierwsze to skąd informacja, że DLSS 2.x używa na Tensor'ach  obliczeń INT8 a nie FP16?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje mi się ze jest niemożliwe, w przeciwieństwie do RT uruchomienie DLSS na Pascalach.
Bo po pierwsze w jakim celu Nv odblokowała możliwość uruchomienia RT na Pascalach skoro są one w tym zbyt wolne  ?
Myślę ze po prostu to zrobiła bo było to możliwe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Phoenixsuple napisał:

Jesli nie widzisz analogi na przykladzie RT na Pascalach to sciagnij klapki z oczu w koncu ;)

Ja mogę coś powiedzieć na temat RT na Pascalach bo przed sprzedaniem GTX1080Ti sprawdzałem jak wygląda i działa np. w Control. Mówiąc krótko był pokaz slajdów i pod tym względem na konsolach z odpowiednikiem RX6700XT jest wyraźna poprawa. 

1 minutę temu, kadajo napisał:

Wydaje mi się ze jest niemożliwe, w przeciwieństwie do RT uruchomienie DLSS na Pascalach.
Bo po pierwsze w jakim celu Nv odblokowała możliwość uruchomienia RT na Pascalach skoro są one w tym zbyt wolne  ?
Myślę ze po prostu to zrobiła bo było to możliwe.

Do robienia ładnych screenów 😉

1 godzinę temu, sideband napisał:

Normalnie dałoby się przystosować Pascal liczy 4x szybciej w INT8, a DLSS wykorzystuje obliczenia w INT8.

W przypadku AMD to już grubsza sprawa ze względu na brak CUDA.

Ps.

First 2.0 version, also referenced as version 1.9, using an approximated AI of the in-progress version 2.0 running on the CUDA shader cores and specifically adapted for Control.

 

Godzinę temu, sideband napisał:

1080ti w INT8 ma 40TF:szczerbaty: Także spokojnie Pascal poradziłby sobie z DLSS bez większego wpływu na końcową wydajność.

Szkoda że nie dodali wsparcia bo chętnie bym przetestował na GTX1080Ti 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Ja mam chopina i 3400G, ktory grzeje sie mocniej od 4650G.
    • Gdy na zimę się zostawi komputer stacjonarny w cienkim garażu to w komputerze na wiosnę bateria na płycie głównej jest wyładowana i trzeba ją wymienić na nową żeby za każdym włączaniem komputera do gniazdka nie trzeba wyło ustawiać daty i godziny i innych ustawień BIOSu ale czy gdyby w garażu zostawić na zimę stare telefony komórkowe i tablety to czy baterie w nich by traciły pojemność i czy by je trzeba było go godzine ładować czy mróz je jedynie rozładowuje? Znalazłem na śmietniku wyrzucony telefon komórkowy i miał tak bardzo spuchniętą baterię że tylnia klapa mogła się złamać i po ładowaniu do 100% procent to telefon wytrzymał w staniu czuwania maksymalnie kilkanaście minut i trzeba było od nowa ładować i przy gadaniu to niewiele ponad minute to trzeba było taki telefon trzymać cały czas przy ładowarce to od czego tak się psują baterie od mrozu czy od starości czy od wilgoci czy od przegrzania że ktoś na kilka godzin zostawił telefon na upale czy od czego? Myślałem o kupnie roweru elektrycznego ale najwięcej kosztuje bateria i jakby się tak stało z baterią to taki rower by działał jak zwykły rower i by były duże straty.
    • Gdy zmieni się za kilka lat domyślny format YouTuba z H264 na H265 to czy są jakieś programy które by ten format ściągały jednak do formatu H264 żeby można je było obejrzeć na starszych urządzeniach żeby od razu był format H264 zamiast potem je przerzucać i konwerterować żeby już były automatycznie skonwerterowane po ściągnięciu.
    • Od średniej to każda zmiana odbiega Jeżeli chodzi o ekstrema to na ziemi bywało i dużo zimniej i cieplej raczej też, ale... Tu bardziej chodzi o tempo zmian. Podczas ostatniego zlodowacenia zasięg lodowców narastał przez 45 tysięcy lat, potem przez ok 55 tysięcy utrzymywał się na mniej więcej stałym poziomie, by wreszcie cofnąć się w ciągu 4-5 tysięcy lat. To były zmiany, których ludzie nawet nie zauważali za swojego zycia, dopiero dzięki badaniom geologicznym można odtworzyć zasięg i przebieg czasowy tych wydarzeń. Tlenki azotu pochłaniają promieniowanie cieplne w dużo mniejszym stopniu. znalazłem obrazek z wikipedii z porównaniem: Tak na prawdę liczą się 3 gazy: para wodna, dwutlenek węgla i metan. Na wodę nie mamy zbytniego wpływu - ona szybko paruje i może szybko się wytrącić, wszystko zależy pośrednio od temperatury. Tzn jak inne gazy podgrzeją Ziemię to z względu na zwiększone parowanie woda dołoży swoje i vice versa. Co innego CO2 - jego jest trudno wyłapać. Tzn na szybko spore ilości mogą pochłonąć rośliny zielone, glony i inne ogranizmy fotosytezujące. Ale to efekt tymczasowy. Gdy martwa materia organiczna ulega gniciu, butwieniu czy innemu rozkładowi przez mikroorganizmy dwutlenek węgla uwalnia się jako część tego procesu. Żeby wyłapać go z obiegu na stałe martwe szczątki organiczne muszą zostać uwięzione w osadach, zwykle na dnie zbiorników wodnych, tak jak powstały współczesne paliwa kopalne. Ale to trwa bardzo powoli. Co do historii dwutlenku węgla to dane do mniej więcej 800 tysięcy lat wstecz można uzyskać badając mikro-pęcherzyki powietrza uwięzione w lodzie antarktycznym z odwiertów. Starsze wartości szacuje sie używając metod pośrednich. Zawsze miała. Tylko jak pisałem naturalne cykle były dość wolne, klimat zmieniał się przez tysiące lat. Gwałtowne zmiany powodowały wybuchy wylksnów i uderzenia ateroid i xawsxe wiązały się z wielkim wymieraniem. To, że nie interesowałeś się tematem nie oznacza, że dziura nie zniknęła. Cały czas istnieje choć się powoli zmniejsza. http://www.theozonehole.org/ozoneholehistory.htm Ze względu na prądy w stratosferze dziura skupia się w okolicach biegunów i jest największym problemem dla mieszkańców Australii i Oceanii, W tamtych krajach on-stop nadają ostrzeżenia przed promieniowaniem UV
    • Próbowałem ustawić statyczne IP, wyłączyłem DHCP i spiąłem z routerem LAN-LAN. W tym przypadku również jest problem. Jak wpisuje ping to niby wszystko git, ale co kilka linijek pojawia się opóźnienie rzędu 1000ms.  Próbowałem podpiąć się kablem pod router główny i problemu nie ma. Niestety jak podepnę się przez wifi do routera głównego to znów się pojawia, ale rzadziej. Wygląda na to, że winowajcą jest router główny, ale tylko przy połączeniu bezprzewodowym.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...