Skocz do zawartości
Pepe123456

Karta graficzna do grania w 1440p

Rekomendowane odpowiedzi

Jeśli cytujesz tylko jakiś fragment większej wypowiedzi to możesz, a nawet powinieneś. Unikaj cytowania długich postów, żeby tylko odpowiadać krótko na nie.
Możesz też cytować post bezpośrednio pod odpowiedza jeśli cytujesz więcej niż jeden post.

Przypominam ze cytowanie w wersji mobilnej działa słabo wiec radze go nie używać na smartfonach i tabletach.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

@tomek1717 Bo chciałem się tylko do tego odnieść

Edytowane przez Killer85

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, kadajo napisał:

@skunRace popełniłeś klasyczny błąd porwania DLSS, jakości tej techniki, a raczej jej ułomności nie da się pokazać na SS, bo ujawnia się ona dopiero w ruchu.
Chyba że zrobisz SS dokładnie w tej setnej sekundzie, w której się zatrzymasz... potem zrób SS jak już się nie ruszasz przez chwile i wtedy porównaj. Zobaczysz jak DLSS masakruje obraz.

Pisałem o tym kilka postów wyżej, podczas normalnej gry (jazda na koniu, jazda samochodem) 90% graczy tego nie zobaczy. Zobaczyć to można na porównaniach z Youtuba i stop klatce z zoomem. Screeny są tylko po to, żeby pokazać jakie pierdoły niektórzy piszą o rozmazanych teksturach.

10 minut temu, tomek1717 napisał:

@skunRace Nie uczepiłem się AMD bo rozwijana przez nich technika jest ogólnodostępna, nie ograniczają swojej techniki do najnowszej gen kart, ba nawet stare karty nV  na które nV powiedziała że nie da się by te stare karty obsługiwały dlss to przez FSR mogą to robić xD Dodatkowo to nV przeskoczyła z nazewnictwem swoich kart. 4060 to powinien być 4050, lub 4060 ti to powinno być 4050 nawet :) A co do formata cóż miałem system ponad 3 lata bez formata i wszystko było dobrze, niestety DDU nie przyniosło skutku i zrobiłem formata i działa jak trzeba. Skoro już piszesz bez żadnego pojęcia na temat burdelu w moim systemie itp, to niezły burdel nV zrobiła w Twoim mózgu i łykasz wszystko co pokażą jak pelikan, takich klientów właśnie potrzebują :). Graj sobie na swoim 4070Ti z dlss szczególnie w przesuwającym się obrazie w ruchu, jak lubisz oglądać mydło i artefakty to nie mój problem. W natywnym obrazie w każdej grze jest super i nie ma żadnych problemów a dlss 3.5 musisz mieć zaktualizowane w każdej grze która wykorzystuje tą technikę ręcznie bo inaczej samo się nie zaktualizuje np w rdr2 tak jest :). Co do awatara, nie interesuje mnie taki kontent zupełnie ale możesz się produkować ile chcesz na temat tej gry śmiało :)

Równie dobrze mogę napisać, że AMD zrobiła burdel z Twoim mózgiem, bo brzmisz jak jakiś fanboy, który jedynie co potrafi napisać, to w dupie mam porównania. Z tym, że AMD zawsze udostępnia wszystko za darmo i nie ogranicza tego do najnowszych kart to się zgodzę. Szkoda tylko, że zawsze ze wszystkim jest w tyle, DLSS/FSR/FG/Gsync/FreeSync. Ja nie ma problemu z tym żeby kupić w danym momencie kartę, czy procesor, który na daną chwilę mi bardziej odpowiada. Chciałem przejść kilka tytułów z RT, kupiłem daną kartę, gdyby nie to kupiłbym 7900XT. Ty jak widać z góry już masz wszystko założone i piszesz, że łykam wszystko jak pelikan. Od lat miałem karty i procesory z jednej i drugiej strony, więc te pierdoły, że nvidia takich klientów potrzebuje, bo nie masz nic innego do powiedzenia, możesz sobie schować. Pamiętam jak wszyscy pisali, że z FG nie da się grać, takie artefakty, dziwne, że zawsze te wszystkie pierdoły piszą właściciele Radeonów :E Z Awatarem nie ma się co produkować, mnie też nie interesują takie gry, gorzej jak taka praktyka zacznie pojawiać się coraz częściej w grach, bo aż dziw bierze, że gra robiona we współpracy z AMD nie pozwala na wyłączenie w menu gry RT i później mamy to co mamy. Jeśli chodzi o pisanie o burdelu beż żadnego pojęcia to tylko fakty stwierdziłem, że albo to, albo jesteś wyjątkiem. Ludzie na forum w tym ja, nie robiłem formata od 2019 roku, a była tutaj nie jedna karta i dwa procesory i wszystko śmiga jak należy od lat, ale Ty oczywiście współczujesz ludziom, którzy się przenoszą z nvidi na AMD :boink:

 

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale to czy ktoś to zobaczy, nie jest w tej chwili istotne. :)

DLSS wpływa negatywnie na jakość obrazu, a już na pewno nie jest lepszy od natywnej.

I w sumie nie ma w tym nic dziwnego dlatego ze to technika, która ma poprawić wydajność KOSZTEM JAKOŚCI OBRAZU, a nie poprawić jakość obrazu ;)

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale ja nie twierdzę, że jest lepszy ;) Zaczęło się że napisałem, że w niektórych grach wolę użyć DLSSQ, choćby jako opcję wygładzania (W3/Cyberpunk) gdzie straty są dla mnie marginalne w porównaniu do tego ile zyskuję i mogę grać nawet w 2160p z RT. Na przykład  w Wiedźminie 3 moim zdaniem opcja DLSSQ daje lepszy efekt niż natywna rozdzielczość z wygładzaniem ;)

Patrząc na to ile się zmieniło od czasów DLSS 2.0 vs DLSS 3.5 nie zdziwię, że przy takim DLSS 4/5/6 będzie to nie do odróżnienia. 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to teraz ja dopiero napisze ciekawostkę.

Dla mnie Wiedźmin 3 z DLSSQ wygląda lepiej :E
Wiedźmin 3 ma bardzo detaliczną grafikę, dla mnie wręcz aż za bardzo wiec naturalnie szukałem sposobu na zmiękczenie tej grafiki, wcześniej TAAU, ale jak zawitał DLSS nie dość, że dał jeszcze lepszy rezultat to podniósł wydajność co w połączeniu z RT się przydało.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie, dlatego fajnie, że jest i kto chce niech z tego korzysta. W sumie podobny efekt powinien być w RDR2, ale nie testowałem, choć mam w planach kiedyś 3 przejście gry :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, skunRace napisał:

Pisałem o tym kilka postów wyżej, podczas normalnej gry (jazda na koniu, jazda samochodem) 90% graczy tego nie zobaczy. Zobaczyć to można na porównaniach z Youtuba i stop klatce z zoomem. Screeny są tylko po to, żeby pokazać jakie pierdoły niektórzy piszą o rozmazanych teksturach.

Nie widzę tej różnicy w zasadzie w ogóle tzn. gdy jest bezpośrednie porównanie obok to tak, ale restart po restarcie nie widzę w ogóle. Warto za parę więcej klatek włączyć i robię to w każdej grze korzystającej z tej techniki. Gorzej z frame generation - tutaj już zauważam konkretne artefakty psujące wczucie się w rozgrywkę. No ale to też lepiej działa w niektórych tytułach a w niektórych gorzej (np forza motorsport).

Naprawdę przeceniacie to co widzi laik a prawda jest taka że większość interesuje rozdzielczość i klatki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Tyle gdybania w temacie fanatyków najwyższych ustawień, a wszyscy zapomnieli, że są jeszcze inne ustawienia niż ultra, których przeważnie nie ma w testach. 🤣
Autorowi tematu pewnie chodziło o lepszą jakość niż na PS5, a nie najwyższą możliwą. 1440p z DLSSQ, będzie pewnie i tak lepsze niż 1080p.
Gdyby RTX4060ti / 3060ti miały 12GB to wybór byłby prosty. PS5 ma dosłownie rx6700 (bez xt, ale z 16GB vram).
Można rozważyć rtx3060ti, który da lepsze rezultaty niż PS5 oraz z RT radzi sobie znośnie, a w najnowszych kapiszonach typu Harry Potter będzie musiał nieco zmniejszyć tekstury przez 8GB Vram. Następny sensowny kandydat to dopiero rtx4070 z 12GB.
Używany 3060ti potrafi kosztować w okolicach 1000 zł. Jeśli preferuje 30FPS w jak najlepszej jakości to wtedy nawet ryzen 2600 wystarczy, choć nawet ryzen 3600 pomógłby. 

Edytowane przez musichunter1x

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, musichunter1x napisał:

Używane 3060ti potrafi kosztować w okolicach 1000 zł.

bo przez nagonkę na ilość ramu na karcie, doszło do paranoi że używka 3060 12GB kosztuje tyle co 3060ti  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
6 minut temu, mimuszek napisał:

bo przez nagonkę na ilość ramu na karcie, doszło do paranoi że używka 3060 12GB kosztuje tyle co 3060ti  

Niestety, a dobrze to wiem.... Polowałem na rtx3060 12GB, ponieważ chcę trochę podłubać przy AI w stable diffusion, a w końcu naszła mnie refleksja, że na co mi to.... Naprawienie lustrzanki bardziej mnie uszczęśliwi, bo przynajmniej ruszę się z krzesła :E 

Edytowane przez musichunter1x

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@musichunter1x jak to tak konsole do PC porównywać? przecież PC z taką konf jak PS5 nie będzie miało takiej jakości.. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

@tomek1717, czyli ty też wierzysz w tą magiczną optymalizację? 🙂 Polecam ci, obejrzyj sobie filmy z kanału DigitalFoundry z porównaniem działania danej gry na konsoli i na PC o zbliżonej wydajności i na takich samych ustawieniach i rozdzielczości jak na konsoli.

Edytowane przez SebastianFM
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, d@sh napisał:

Obecnie najlepszym wyborem z używanych kart w cenie do około 1200-1300 zł z 8gb vram jest rtx 2080 super badz zwyjly za maks 950zl,rtx 3070 za nas 1200zl a z 8gb+ to rtx 2080ti Kosior za maks 1300zl.

Nikt się nie pakuje w trupy z 2018 roku bez gwarancji, tym bardziej po falach krypto.
Obudź się chłopie, minęło już 6 lat.
Zejście poniżej serii RTX 3xxx i RX 6xxx jest bez sensu, chyba, że ktoś ma okazje za 500-600zł, ale i te karty gryzie ząb czasu.
Inna sprawa, to po wyjściu RTX 5xxx i RX 8xxx kupujący RTX 3xxx i RX 6xxx znowu będą 2 generacje w plecy.
W przedziale cenowym 800-2000zł najlepiej wypadają radeony. Taki RX 7700XT za 2k to już fajny wybór.

  • Like 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

@d@sh Bądź d@shem, wciskaj na siłę każdemu 6 letnie RTX 2080ti bez gwarancji, bo go posiadasz, wklej 2 nic nie znaczące screeny z gry sponsorowanej przez zielonych z zastosowaniem ficzerów zielonych aby "udowodnić" jak 6 letnia karta jest rzekomo lepsza od 7900xtx w rasteryzacji (sic!).

                Jednocześnie bądź antyfanem RTX 4060 i 4060ti które z owym RTX 2080ti równają się/wyprzedzają wydajnościowo. Nazwij RX 7700XT czyli kartę wydajniejszą od RTX 4060ti produktem "demo", który najlepiej sprzedać, żeby kupić RTX 4070 lub RTX 2080ti.


Może szanowny moderator zainterweniuje bo szkodliwość postów osobnika powyżej pojawia się nie pierwszy raz, a tym razem rozbiła granice absurdu. 😎

Edytowane przez kadajo
Nie cytujemy postów bezpośrednio odpowiadając na nie nizej.
  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@d@sh Twoje uwielbienie do 2080 TI kogoś mi przypomina - niestety musimy się pożegnać ;)  ...

@Lameismyname Szanowny moderator zareagował - gdzie owacja?  Wracam do swojej krypty ;) ...

  • Like 1
  • Thanks 3
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
13 godzin temu, Lameismyname napisał:

Inna sprawa, to po wyjściu RTX 5xxx i RX 8xxx kupujący RTX 3xxx i RX 6xxx znowu będą 2 generacje w plecy.

Realnie nic to nie znaczy. Ja jestem zdziwiony, że seria Ampere na rynku wtórnym jest tak mało ceniona, szybko spadła z piedestału. Oczywiście, głównie jest to wina 8 GB, ale jednocześnie na 4060 8 GB przestało być problemem, i tak go wszyscy polecają :E

Nawet bym pomyślał że to tylko w pclolowym k...kwidołku, ale nie - już we wrześniu moja 3060ti wisiała, a 3080 też kupiłem za dobry hajs, dopiero wersje 12 GB / Ti były solidne kilkaset zł droższe. 

Edit a ja tam żałuję, że posty @d@sh też poleciały, mogły zostać na pamiątkę. 

Edytowane przez Pioy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Zhao Kolejny raz odpowiedni człowiek na odpowiednim miejscu. Dziękuję.

@Pioy Nie mam na myśli czystej wydajności GPU tylko podejście devów jak z czasem zaczynają lać na starsze serie... Jakiś czas temu miałem RX 5700XT który był wydajnościowo zbliżony z RX 6600XT. Niestety potem zaczął się rozjeżdżać i czasem dostawać od RX 6600, a czar prysł jak musiałem zjechać w CP2077PL z 1440p High FSR Q na 1440p Medium FSR Q, bo w wymagających miejscach dropiło już do 45 klatek. Z czasem RX 6xxx i RTX 3xxx podzielą ten los. Chociaż nie powiem, sam myślałem o RTX 3070/3080 ale kolejny raz wygrał święty spokój i nowa 3 letnia gwarancja.

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko że pomiędzy RDNA1 i RDNA2 jest duża różnica w archi. Pomiędzy Amperem i Adą nie za bardzo. To tak JAK GCN się trzymał kupę lat, bo po prostu AMD dalej miało tylko kolejne wcielenia tej archi w postaci Polarisa, Vegi itd - wtedy nawet jakiś hd7000 miał nadal adekwatna wydajność. Wszystkie serie rtx mają tensory, rdzenie AI. Ja obstawiam że będą trzymać względne poziomy wydajności, do momentu aż umrą po prostu bez brute force (I VRAM :E). Zresztą RDNA2 też nie przewiduję szybkiej śmierci, nie licząc rtx i innych ficzerów. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Pioy Pożyjemy zobaczymy, ja zawsze wolę założyć ten gorszy scenariusz. Paradoksalnie nowsze serie warto brać chociażby ze względu na to, że dłużej sensowną wartość zachowują.
              Niestety, hardware do PC to topienie kasy bo naprawdę drogi przedmiot za lata może stać się blisko bezwartościowy, co jest chyba najgorsze w tym wszystkim.
              Strasznie mi się podoba jak to zobrazowali w pewnej komedii :)

 

  • Haha 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 12.02.2024 o 17:35, SebastianFM napisał:

@tomek1717, czyli ty też wierzysz w tą magiczną optymalizację? 🙂 Polecam ci, obejrzyj sobie filmy z kanału DigitalFoundry z porównaniem działania danej gry na konsoli i na PC o zbliżonej wydajności i na takich samych ustawieniach i rozdzielczości jak na konsoli.

Mało istotne jest co tam plecą na DF ;) Jest cały materiał developera od Last of US ile wyciągnęli dodatkowej mocy z optymalizacji niskopoziomowej konkretnego sprzętu i jest to tyle co nic ;) Ale w przypadku AMD istotna jest optymalne wykorzystanie async. Poza tym w przypadku konsol devsi zawsze walczą z ograniczeniami także próbuje się kombinacjami alpejskimi uzyskać podobny efekt tylko to nie ma nic  wspólnego z wykorzystywaniem ukrytej mocy konsol, która nie istnieje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
27 minut temu, Lameismyname napisał:

Paradoksalnie nowsze serie warto brać chociażby ze względu na to, że dłużej sensowną wartość zachowują.

No, ja już kupiłem 3080 po zjeździe wartości :D

Spoko, najlepiej to niech każdy kupuje co mu leży i jak mu się podoba. Niektórzy mają tu sygnaturki które wg mnie są kompletnie z czapki, ale jak są zadowoleni nie mój problem. Jedynie mam polew jeśli chodzą od wątku do wątku i narzekają :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Pioy Tak, niech każdy kupuje co mu leży. Różnimy się pięknie.
              Niektóre sygnaturki są z czapki ale weź poprawkę, że część ludzi nie ma kasy i rzeźbi, stąd wychodzą pokraczne stwory składane po okazjach :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, Lameismyname napisał:

              Niektóre sygnaturki są z czapki ale weź poprawkę, że część ludzi nie ma kasy i rzeźbi, stąd wychodzą pokraczne stwory składane po okazjach :)

Raczej miałem na myśli 4060Ti 16 GB kupioną za 3k, albo HEDT z 64 GB RAM do grania ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@sideband, czy ty dobrze odczytałeś moją odpowiedź? Ja wcale nie uważam, że na PS5 jest lepsza optymalizacja, po prostu są tak dobrane ustawienia i rozdzielczość do wydajności konsoli, żeby gra trzymała określony FPS. Właśnie te filmy DF to potwierdzają. Oni sprawdzili wiele gier (np. AC: Valhalla, Days Gone) najpierw analizując jakie są ustawienia grafiki na konsoli a następnie porównując FPS na PC z procesorem i kartą graficzną o zbliżonej wydajności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...