Skocz do zawartości

Rekomendowane odpowiedzi

12 minut temu, BlindObserver napisał:

Przecież DLSS i FRS zresztą też, po to właśnie powstało, żeby takie karty jak RTX 3060 i słabsze, które w niektórych grach już nie domagają, oferowały odpowiedni poziom wydajności. Dziwisz się prostym rzeczom, tak jakbyś pierwszy raz o GPU słyszał :E 

Hmmmm... I dlatego RTX 4080/4090 które są jednymi z najwydajniejszych kart wdrażają generator klatek? :E Idąc tym tokiem rozumowania to powinni reklamować to na 4060. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, SylwesterI. napisał:

Jak to przecież  rtx 4090 był reklamowany z dlss wyraźnie,  to słabsza karta czy po prostu niedomaga ? :E

Tak samo jak Radeony 7000 były reklamowane wydajnością w RT z FSR. To słabsza karta, czy po prostu nie domaga? 

Nie jest tajemnicą dla osoby, która posiada choć trochę umiejętności używania mózgu (mniemam, że możesz tego nie wiedzieć), że największe zalety stosowania takich technik dotyczą tańszych kart. Wszędzie wyżej, jak granie w 8K na GeForce'ach i Radeonach to pierdololo.

1 minutę temu, galakty napisał:

Hmmmm... I dlatego RTX 4080/4090 które są jednymi z najwydajniejszych kart wdrażają generator klatek? :E Idąc tym tokiem rozumowania to powinni reklamować to na 4060. 

Wdrażają, bo tylko takie karty są. Widziałeś jakieś inne GPU z serii RTX 40?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, BlindObserver napisał:

Wdrażają, bo tylko takie karty są. Widziałeś jakieś inne GPU z serii RTX 40?

Mnie i tak to bawi, że reklamują to na najmocniejszych kartach, a do tego artefakty świecą po oczach ;) 

Skoro 4090 potrzebuje FG do ogarniania MFS (przy zwalonych totalnie ekranach w kokpicie) to o czym my gadamy... NA 3060 to nie będzie działać nie? To tyle masz z "wprowadzają żeby słabe karty dawał radę". Bzdura. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 minuty temu, BlindObserver napisał:

Przecież DLSS i FRS zresztą też, po to właśnie powstało, żeby takie karty jak RTX 3060 i słabsze, które w niektórych grach już nie domagają, oferowały odpowiedni poziom wydajności. Dziwisz się prostym rzeczom, tak jakbyś pierwszy raz o GPU słyszał :E 

No ale 3060 to karta do 1080p a dlss zostało stworzone ponoć do wyzszych rozdzielczości. I tak jak pisałem wcześniej czego nie zrozumiałeś, nie kupuje się 2K czy 4k by oglądać rozmydlony obraz. A dając w grze suwaki w lewo też zyskam fps...:E

Jednak marketing nv działa....:boink:

Edytowane przez B@nita

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, BlindObserver napisał:

Tak samo jak Radeony 7000 były reklamowane wydajnością w RT z FSR. To słabsza karta, czy po prostu nie domaga? 

Nie jest tajemnicą dla osoby, która posiada choć trochę umiejętności używania mózgu (mniemam, że możesz tego nie wiedzieć), że największe zalety stosowania takich technik dotyczą tańszych kart. Wszędzie wyżej, jak granie w 8K na GeForce'ach i Radeonach to pierdololo.

Wdrażają, bo tylko takie karty są. Widziałeś jakieś inne GPU z serii RTX 40?

Ani przy serii 2080 , ani przy 3080 nie korzystałem z dlss , na radeonach z fsr , w moim sigu masz jeden z powodów  , jak moja karta nie wyrabia w grze to nie będę  się oszukiwał  jakimś rozmydlaczem , a ponieważ  właśnie potrafię  używać mózgu  , przeglądać  testy i wyciągać wnioski samodzielnie , to mi nv nie wmówi że 4070 to 4080 , ale innym jak widać potrafi to wmówić :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, galakty napisał:

Mnie i tak to bawi, że reklamują to na najmocniejszych kartach, a do tego artefakty świecą po oczach ;) 

Skoro 4090 potrzebuje FG do ogarniania MFS (przy zwalonych totalnie ekranach w kokpicie) to o czym my gadamy... NA 3060 to nie będzie działać nie? To tyle masz z "wprowadzają żeby słabe karty dawał radę". Bzdura. 

Przecież odpowiednik od AMD będziesz miał reklamowany również na najwydajniejszych GPU. To właśnie tam masz najdłuższe słupki, wszystko wygląda najlepiej pod względem marketingowym. Nic to nie zmienia w retoryce, że to właśnie ludzie z najmniej wydajnymi kartami na tym zyskują najbardziej, bo przedłużają potencjalnie życie swojego sprzętu. 

Nie wiem, o czym my gadamy. Postawiłeś chochoła w postaci MFS, która to gra praktycznie nikogo nie interesuje, i na jego podstawie próbujesz odnieść się do ogółu gier. Sprawdź może, jakie tytuły są najpopularniejsze. 

1 minutę temu, B@nita napisał:

No jak lubisz pogorszona,rozmydloną  jakość obrazu....jak suwaki dam w lewo też przybędzie fps...:E Jak mi nie starcza fps to kupuje lepsze gpu.

Jeśli nadal masz monitor wymieniony w sygnaturce, to o jakiej Ty mówisz jakości obrazu? :E 

No i fajnie, że Ty kupujesz. Ale nie wszyscy kupują. Jak widać po rankingu na Steamie, ludzie siedzą raczej na dość przeciętnych kartach i co więcej — siedzą na nich długo. Są gry, gdzie zmiana suwaków dużo nie daje - np. ostatni Plague, gdzie bez DLSS gra działa jak gówno, a z nim jest bardzo grywalna na RTX 3070. A nie będę na monitorze 1440p odpalał gry w niższej rozdzielczości, bo dopiero wtedy jest mydło.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, BlindObserver napisał:

Przecież odpowiednik od AMD będziesz miał reklamowany również na najwydajniejszych GPU. To właśnie tam masz najdłuższe słupki, wszystko wygląda najlepiej pod względem marketingowym. Nic to nie zmienia w retoryce, że to właśnie ludzie z najmniej wydajnymi kartami na tym zyskują najbardziej, bo przedłużają potencjalnie życie swojego sprzętu. 

Nie wiem, o czym my gadamy. Postawiłeś chochoła w postaci MFS, która to gra praktycznie nikogo nie interesuje, i na jego podstawie próbujesz odnieść się do ogółu gier. Sprawdź może, jakie tytuły są najpopularniejsze.

Ależ ja AMD nie bronię, obdywie techniki uważam za zło, bo wychodzą nowe mocniejsze karty i już na starcie trzeba używać FSR bo nie dają rady.

Przecież sama NV użyła tej gry w zapowiedzi... 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, SylwesterI. napisał:

Ani przy serii 2080 , ani przy 3080 nie korzystałem z dlss , na radeonach z fsr , w moim sigu masz jeden z powodów  , jak moja karta nie wyrabia w grze to nie będę  się oszukiwał  jakimś rozmydlaczem , a ponieważ  właśnie potrafię  używać mózgu  , przeglądać  testy i wyciągać wnioski samodzielnie , to mi nv nie wmówi że 4070 to 4080 , ale innym jak widać potrafi to wmówić :E

Autentycznie cieszę się Twoim szczęściem i tym, jakim jesteś freethinkerem. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
57 minut temu, SylwesterI. napisał:

proponuję  naukę  języków obcych przed ich użyciem ?

 

Panie muszę zgłosić Cię do Mensy taki genialny żółw nie może zmarnować potencjału :szczerbaty:

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, galakty napisał:

Ależ ja AMD nie bronię, obdywie techniki uważam za zło, bo wychodzą nowe mocniejsze karty i już na starcie trzeba używać FSR bo nie dają rady.

Przecież sama NV użyła tej gry w zapowiedzi... 

No i jakbyś tych technik nie miał, to by wychodziły mocniejsze karty, czy o co chodzi? 

Masz wybór, korzystasz, albo nie. Wiele osób, posiadających słabsze karty i lapki z tego skorzysta. Boli Cię z tego powodu coś? 

NV reklamuje też Portala RTX, a wcześniej Minecrafta RTX, a AMD przez lata reklamowało Ashes of the Singularity - ma to jakieś znaczenie? To są gry, które dla rynku masowego nie mają ŻADNEGO znaczenia, reklamówki. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, BlindObserver napisał:

Jeśli nadal masz monitor wymieniony w sygnaturce, to o jakiej Ty mówisz jakości obrazu? :E

A co ty masz do mojego monitora?Do 1080p w zupełności wystarczy.  I co to ma do tematu? Szukasz juz na siłę durnych argumentów???  Daruj już sobie te brednie.

3 minuty temu, BlindObserver napisał:

Masz wybór, korzystasz, albo nie. Wiele osób, posiadających słabsze karty i lapki z tego skorzysta.

 

Lapki ? Chyba klapki..na oczach...:rotfl:

Edytowane przez B@nita
  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, BlindObserver napisał:

Autentycznie cieszę się Twoim szczęściem i tym, jakim jesteś freethinkerem. 

A dziękuję dziękuję,  jeszcze rokujesz nadzieje

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, SylwesterI. napisał:

 jeszcze rokujesz nadzieje

Mało realne...choć jak to mówią, nadzieja umiera ostatnia.:E

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po prostu chciałem być miły :E

7 minut temu, B@nita napisał:

A co ty masz do mojego monitora?Do 1080p w zupełności wystarczy.  I co to ma do tematu? Szukasz juz na siłę durnych argumentów???  Daruj już sobie te brednie.

Lapki ? Chyba klapki..na oczach...:rotfl:

Raczej komplement tobie sprawił  , widocznie wzrok masz dobry , bo on ma taki super hiper screen i nie widzi różnicy :E

Edytowane przez SylwesterI.
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, BlindObserver napisał:

NV reklamuje też Portala RTX, a wcześniej Minecrafta RTX, a AMD przez lata reklamowało Ashes of the Singularity - ma to jakieś znaczenie? To są gry, które dla rynku masowego nie mają ŻADNEGO znaczenia, reklamówki. 

MFS przy użyciu DLSS traci mocno na jakości, a do tego stutter i dropy dalej występują. Ot taka różnica, ale już wysiadam z tej dyskusji. 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pytanie do znawców.

Ile obecnie gwarancji na karty graficzne dają takie firmy jak:

  • Sapphire
  • Power Color
  • XFX
  • Asrock

?

Kiedyś te trzy pierwsze dawały dwa lata, a teraz patrząc po stronach to istna loteria. Jedni podają dwa, inni podają trzy latam. Niestety sami producenci też mocno nie ułatwiają życia trzymając te informacje gdzieś głęboko zakopane.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, BlindObserver napisał:

Pewnie dlatego Nvidia odczarowała marketing AMD związany z FreeSync, przejmując rynek z G-Sync Compatible. "Odczarować" się da wszystko, jeśli ma odpowiednią wiedzę, umiejętności i środki. A nie jest tajemnicą, że markieting AMD to dno i wodorosty, chociaż i tak od czasów chłopców z bębenkami i poorvolta im się poprawiło. 

Strasznie mi trudno się do tego odnieść, bo to się kupy nie trzyma.
Freesync był DLA KART AMD odpowiedzią na G-Sync. Nikt tu nic nie przejmował, technologia była zawężona do własnych kart. I to technologia po stronie GPU, bo po stronie monitorów to bazowało na AdaptiveSync, które bodajże było opcją w standardzie VESA.
To, co sobie producent monitora naklei na monitor, pozostaje w gestii tego producenta.

Szum się zrobił, bo posiadacze "zielonych kart" też chcieli monitory w cenie takiej jak płacili posiadacze kart "czerwonych", jakoś pieniądz był istotniejszy wtedy, niż czary mary nV ?
W efekcie nV wprowadziła do sterowników to samo, co wcześniej AMD, dodając do tego własną certyfikację i odpowiednie oznaczenie w nagrodę.
Takie są fakty.

Teraz wnioski:
Ani AMD ani nV nie ma wpływu na to, co sobie producent monitora na nim przyklei. Przykleja to, co mu wyjdzie z jego rachunku biznesowego.
AMD chodziło o sprzedaż swoich kart, dla których monitory kosztowały początkowo taniej.
Posiadacze kart zielonych zyskali dzięki konkurencji tańsze monitory.
 

20 minut temu, BlindObserver napisał:

AMD idzie w RT, bo chce, to jest kolejny selling point dla wszystkich. Obsługa RT była wymagana przez producentów konsol, a oni Nvidii jako przeciwnika nie widza. 

A to prawda. Tylko jest różnica między samym nośnym hasłem, a implementacją. Między realnym liczeniem RT dla każdego punktu a różnymi półśrodkami. Z tego co kojarzę, to w tym roku Sony coś zaczęło robić w kwestii własnej implementacji (jakieś patenty chyba rejestrowali na uproszczony RT). UE5 też ma swoją wersję tego liczenia (pojedyncze punkty i efekt stosowany dla sąsiednich).
 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, B@nita napisał:

A co ty masz do mojego monitora?Do 1080p w zupełności wystarczy.  I co to ma do tematu? Szukasz juz na siłę durnych argumentów???  Daruj już sobie te brednie.

Lapki ? Chyba klapki..na oczach...:rotfl:

Co Ty nie powiesz, wystarczy Ci. Niesamowite. Ale masz równocześnie problem, że innym wystarczy włączyć DLSS, a nie wymieniać karty na nowszą. Jak może taka wzmianka o monitorze triggerować? :D 

Przynajmniej jedna osoba w tej konwersacji szuka jakichkolwiek argumentów i nie ma syndromu oblężonej twierdzy. Miło, że zauważasz :D 

@galaktyJak zwykle na temat, bez związku z wypowiedzią, na którą odpowiadasz. :E  No to MFS ma straty jakości i działa jak gówno. I co to zmienia? Masz dziesiątki innych gier, w których z DLSS/FSR gra się dobrze. To jest tylko opcja, włączasz albo nie. Zdecydowana większość rynku włączy, zamiast wydawać kolejne siano na coraz droższe karty. I tyle.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Markiz88 napisał:

Pytanie do znawców.

Ile obecnie gwarancji na karty graficzne dają takie firmy jak:

  • Sapphire
  • Power Color
  • XFX
  • Asrock

?

Kiedyś te trzy pierwsze dawały dwa lata, a teraz patrząc po stronach to istna loteria. Jedni podają dwa, inni podają trzy latam. Niestety sami producenci też mocno nie ułatwiają życia trzymając te informacje gdzieś głęboko zakopane.

 

3 lata. Chyba że przemyt xd

Dlss3 to ja chętnie łykne w minipc. Z 2.5 metra strat tyle co nic

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@GregM00Przecież pisałeś o kwestii marketingowej, a nie implementacji. NV swoimi działaniami związanymi z G-Sync Compatible zepchnęło AMD i jego FreeSync w miejsce, w którym ta druga technika nikogo nie obchodzi i nie jest rozpoznawalna. Typowy użytkownik nie zna różnic między konkretnymi wersjami, a tym bardziej wymagań. Nvidia "odczarowała" zaletę FreeSync i m.in. swoim programem certyfikacji sprawiła, że to jej produkty są preferowane. Zresztą tekst "AMD ani nV nie ma wpływu na to, co sobie producent monitora na nim przyklei." jest w tym kontekście bez sensu, bo co prawda, początkowo AMD miało zupełnie w dupie, na czym ten ich znaczek się pojawi, przez co pojawiał się na każdym gównie, ale bez certyfikacji teraz to sobie niczego nie nakleisz. Więc producenci GPU mają wpływ na to, co sobie przyklei, a że przyklejają Nvidię, to już wynika z samej popularności ich kart i większej siły marki. 

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, Markiz88 napisał:

Pytanie do znawców.

Ile obecnie gwarancji na karty graficzne dają takie firmy jak:

  • Sapphire
  • Power Color
  • XFX
  • Asrock

?

Sklepy na kartach produktu podają długość gwarancji. A jak sprawdzisz w jakimś sklepie należącym do dystrybutora elektroniki (np. Sferis) to już będzie pewna informacja. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, BlindObserver napisał:

@GregM00Przecież pisałeś o kwestii marketingowej, a nie implementacji. NV swoimi działaniami związanymi z G-Sync Compatible zepchnęło AMD i jego FreeSync w miejsce, w którym ta druga technika nikogo nie obchodzi i nie jest rozpoznawalna. Typowy użytkownik nie zna różnic między konkretnymi wersjami, a tym bardziej wymagań. Nvidia "odczarowała" zaletę FreeSync i m.in. swoim programem certyfikacji sprawiła, że to jej produkty są preferowane. Zresztą tekst "AMD ani nV nie ma wpływu na to, co sobie producent monitora na nim przyklei." jest w tym kontekście bez sensu, bo co prawda, początkowo AMD miało zupełnie w dupie, na czym ten ich znaczek się pojawi, przez co pojawiał się na każdym gównie, ale bez certyfikacji teraz to sobie niczego nie nakleisz. Więc producenci GPU mają wpływ na to, co sobie przyklei, a że przyklejają Nvidię, to już wynika z samej popularności ich kart i większej siły marki. 

Miedzy Cert Free a G-sync jest OLBRZYMIA różnica jakościowa.

Cert Free nigdy nie sprawdzał pod względem jakości obrazu monitorów. Monitory te miały olbrzymi problem z migotaniem obrazu po włączeniu synchro.
Cert G-sync monitor dostaje jak przejdzie testy jakościowe. W pierwszy miesiącu na 500 przetestowanych modeli z Free, cert G-sync dostało kilka sztuk. Reszta odpadła.   

Po tym dopiero producenci wzięli się za poprawienie obrazu i można spokojnie powiedzieć że dzięki podejściu NV jest olbrzymia poprawa jakości obrazu.  Szukając jakiegoś monitora od razu szukałbym czy ma cert G-sync bo mam pewność że jakościowo będzie OK. Tej gwarancji nie ma w przypadku Free od AMD. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@RTX4090Wiem, jaka była różnica i jakie były/są wymagania. Obecnie się trochę poprawiło u AMD, więc trudniej kupić takiego wybitnego kasztana. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, BlindObserver napisał:

@RTX4090Wiem, jaka była różnica i jakie były/są wymagania. Obecnie się trochę poprawiło u AMD, więc trudniej kupić takiego wybitnego kasztana. 

Żeby nie działania NV to zapewne tak by nie było. Jednak NV dobrze przemyślała sprawę.  I to mi się właśnie podoba, że dbają też o jakość. 

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   1 użytkownik

×
×
  • Dodaj nową pozycję...