Skocz do zawartości

Rekomendowane odpowiedzi

20-144? To chyba tylko w jakichś high endach za miliardy, nigdy nie widziałem monitora z tak niską tolerancją. Fajnie to wygląda i daje szersze pole manewru na ewentualne dropy fps w postaci słabszej karty czy optymalizacyjnego burdelu w danej grze.

Edytowane przez caleb59

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, ŁowcaPisowców napisał:

Gsync compatible to jest 20-144hz (chyba ze monitor nie obsluguje). Modul fizyczny gsync daje inne korzysci. 

Gsync compatible nigdy nie startuje od 20, to jest w zdecydowanej większości start od 48, czyli bardzo wysoko. Kilka od 40 a czasami nawet od 50 i 60 (!), czasami można lekko to obniżyć przez CRU.

https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

No co to jest ten Low Framerate Compensation? 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, Karister napisał:

To jest zupełnie inny temat. GPU oczywiście najlepiej jest kupić jak najlepszą, bo często pół roku po premierze pojawia się nowa gra z wyśrubowanymi wymaganiami. Ja się odniosłem do kwestii odczuwalności FPS. 60 i 48FPS to jest olbrzymia różnica w, jak sam piszesz, kluczowym zakresie. Stwierdzenie, że nie ma to znaczenia, kłóci się z tym.

Mi w sumie chodziło o to ze jak RTX 3070 będzie już niedomagał to RTX 3080 nie będzie daleko przed nim dlatego nie widzę sensu wymiany.

  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
27 minut temu, peejay71 napisał:

Lubię czytać ten wątek. 2 lata temu też lubiłem czytać podobny wątek przy okazji premiery Ampere. Jest hype, ekscytacja nową technologią, oczekiwanie na nową generację kart, która może zapewnić niezły skok wydajności, wspomagana dodatkowo nowymi, ciekawymi rozwiązaniami. Całość nieco psuje mi ta fala marudzenia i jęczenia skoncentrowana na „absurdalnych” cenach, „złej” nVidii i całej reszcie.

Nie za bardzo rozumiem czemu to ma służyć – no chyba, że to jakaś forma zbiorowej terapii i upewniania siebie nawzajem, że to właśnie ta zła nVidia, słaba złotówka, zmowa na rynku producentów wafli krzemowych, niskie płace, itd., gdzie na końcu mamy obraz „biednego Polaka”, którego przez wszystkich innych na nic nie stać i który cierpi niesprawiedliwość spowodowaną przez „innych”.

Nie wiem zatem, co takie jęczenie daje (niektórzy posuwają się do złorzeczenia i życzenia nVidii upadku czy innej katastrofy)) – no ale jak komuś pomaga – to niech sobie marudzi dalej :)

Ja spokojnie się przygotowywałem do premiery nowej generacji. Było mnóstwo czasu, by odkładając 200-300 zł miesięcznie mieć spokojną sytuację, by skupić się na szczegółach (przecież nie znamy jeszcze wyników szczegółowych testów!) i planować zakup (lub nie), na podstawie własnych możliwości, nie obarczając winą innych, w tym producenta chipów, jakby to był nasz najlepszy ziomek, który wywinął nam podły numer.

Co wybieram?

Jeśli 4090 będzie min 40-50% szybszy od 3090 bez stosowania supersamplingu – to z pewnością złożę zamówienie na tę kartę 12 października. Odłożone ponad 7k zł plus sprzedaż 3080 i być może jeszcze parę zł powinno wystarczyć, bym miał doskonałą kartę na kolejne 2-3 lata.

Drogo? Jasne, że tak. Niemniej nie winię za to nikogo – podejmuję świadomą decyzję, na którą przygotowywałem się przez ostatnie 2 lata.

Liczę na to, że poczytam tutaj więcej o pasji do technologii, a spory będą okazją do tego, żeby podyskutować o wydajności i nowych rozwiązaniach, a nie o oceanie frustracji zranionych i pokrzywdzonych przez złe korporacje i makroekonomię.

Tego sobie i wszystkim Wam życzę :)

 

Cupace20220926114238290.png

  • Haha 9
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, ŁowcaPisowców napisał:

No co to jest ten Low Framerate Compensation? 

Ale nie mieszajmy, to jest dodatkowy bajer i nie każdy monitor to obsługuje, musi być Freesync Premium w pierwszej kolejności by LFC działało.

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
1 minutę temu, Cliff B. napisał:

 

Cupace20220926114238290.png

nawet podobny Ci wyszedł ;-)

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
2 minuty temu, caleb59 napisał:

Ale nie mieszajmy, to jest dodatkowy bajer i nie każdy monitor to obsługuje, musi być Freesync Premium w pierwszej kolejności by LFC działało.

No wlasnie mi sie wydawalo ze teraz to norma jest, w kazdym badz razie moj Lenovo kupiony za 1200zl 2 lata temu ma. Ale to juz mega offtop jest.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, kadajo napisał:

Mi w sumie chodziło o to ze jak RTX 3070 będzie już niedomagał to RTX 3080 nie będzie daleko przed nim dlatego nie widzę sensu wymiany.

Ale w innym temacie napisałeś jakoby 1070 był jednak znacząco wydajniejszy od 1060.

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Bliss napisał:

Wystarczy,  że przestaną ja odpowiednio wspierać. W 4080 wydajność może się poprawiać a w starszej serii już niekoniecznie.  Wcale tak być nie musi,  ale mogą próbować podkreślić różnice między stara generacja a nowa... 

Uwielbiam te mity wiesz czemu Turing nagle nie przestaje działać słabiej względem Ampere? Architekturowo tam nie ma żadnej przewagi nie licząc RT.

Teraz nowa generacja ma nowe bajery SER i inne nowe funkcjonalności, którę dadzą przewagę po czasie. Ewentualnie są jeszcze inne zmiany, którymi NV się nie chwali. Także jak NV wymęczy stery i devsi zaimplementują nowe funkcjonalności to zacznie się odjazd od Ampere. Ale "specjaliści" będą to mylić z ubijaniem wydajności poprzedniej generacji ?

  • Confused 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, kadajo napisał:

Co zrobić, jak żyć. Już nawet kredytu dać nie chca :E

RTX4090 taki Asusowy za 12k pln w ratach na 2 lata to już kosmos lekki w spłącie zaczyna się robić. 

17k pln do spłaty :) https://www.pkobp.pl/ Na koniec kredytu akurat przyjdzie nowa premiera next gen. Na więcej rat nie da się rozbić bo zakleszczać będziesz spłaty kilku kart.

image.thumb.png.80f1a061b038fa21fa5c6bd8a588a9a8.png

Edytowane przez Minciu
  • Haha 4
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale co ty nam tu podsyłasz za padlinę RRSO 43% jak na allegro weźmiesz raty 0% gdybyś bardzo chciał na raty :lol2:

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Minciu napisał:

RTX4090 taki Asusowy za 12k pln w ratach na 2 lata to już kosmos lekki w spłącie zaczyna się robić. 

17k pln do spłaty :) https://www.pkobp.pl/ Na koniec kredytu akurat przyjdzie nowa premiera next gen. Na więcej rat nie da się rozbić bo zakleszczać będziesz spłaty kilku kart.

 

prawie jak u Bociana xD... Raty 0% istnieja, nikt chyba nie beirze na karte u prowajdentow xD

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, kadajo napisał:

Chyba desperacja. Jak zacznie brakować mocy RTX 3080 to RTX 3070 będzie tylko 30 % wolniejszy. Policz ile to jest klatek miedzy 60 a "nie 60". ;)
Poza tym nawet jak ktos kupil RTX 3070 w msrp, powiedzmy za 2500zl to musiałby na głowę upasc aby teraz kupić RTX 3080 za 3000-3500zl dla 30% wydajności.

I to jest lustrzana sytuacja dla posiadaczy 3080. Dopłata (przesiadka) do 3090/3090ti jest również za droga vs przyrost otrzymanej mocy.
Jakiś debilizm.

ALE NAS KURTECZKA ZASZACHOWAŁ!
A żeby mu się baba z autokarem arabów puściła!
TFU! ;)

 

Edytowane przez *** ChOpLaCz ***
  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Minciu napisał:

RTX4090 taki Asusowy za 12k pln w ratach na 2 lata to już kosmos lekki w spłącie zaczyna się robić. 

17k pln do spłaty :) https://www.pkobp.pl/ Na koniec kredytu akurat przyjdzie nowa premiera next gen. Na więcej rat nie da się rozbić bo zakleszczać będziesz spłaty kilku kart.

image.thumb.png.80f1a061b038fa21fa5c6bd8a588a9a8.png

Przecież nawet na karcie kredytowej wyjdzie taniej :E A jak dadzą ci kredyt, to kartę kredytową też.

  • Haha 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, BlindObserver napisał:

Przecież nawet na karcie kredytowej wyjdzie taniej :E A jak dadzą ci kredyt, to kartę kredytową też.

Na kredytowej tez już oprocentowanie masz około 20tki. I ciągle rośnie. W kredycie przynajmniej na stałe odsetki pójdziesz. A jak kartę zadłużysz, to ubezpieczenie też się odpali ;) Więc te około 20% to i tak mocno optymistyczne.

Edytowane przez Minciu
  • Haha 1
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, sideband napisał:

Uwielbiam te mity wiesz czemu Turing nagle nie przestaje działać słabiej względem Ampere? Architekturowo tam nie ma żadnej przewagi nie licząc RT.

Teraz nowa generacja ma nowe bajery SER i inne nowe funkcjonalności, którę dadzą przewagę po czasie. Ewentualnie są jeszcze inne zmiany, którymi NV się nie chwali. Także jak NV wymęczy stery i devsi zaimplementują nowe funkcjonalności to zacznie się odjazd od Ampere. Ale "specjaliści" będą to mylić z ubijaniem wydajności poprzedniej generacji ?

A inni specjaliści będą pisać, że są ewentualnie inne zmiany, którymi Nvidia się nie chwali.:lol2:

No i fajny zabieg socjotechniczny. To trochę jakby powiedzieć, że jedna opcja polityczna ma całkowitą rację (weź sobie prawaków lub lewaków, do wyboru) bo druga (i tu wstaw jakiś debilizm od kogoś z przeciwnej strony)
Po pierwsze to nie widać poza Vulkanem, który może nie być wcale przykładem manipulowania, żeby ostatnio NV to robiła, więc osoby, które wyśmiewasz nie krzyczą o  tym, jakoby to było pewne, że NV ubiła 20xx po premierze 30xx a Ty już wiesz, wróżbito, co będą myśleć i mówić w przyszłości. Byle pasowało do narracji "ja=mądry, oni=głupi".
Trochę jakby babcia co ogląda tylko TVP mówiła, że wiadomo który Jarosław jest super i nie kradnie, a tylko idioci robią spiskowe teorie o tym, że kradne - bo przecież ona wie, że tak nie jest.

Patrz. Zaskoczę cię. Ten SER może faktycznie wpływać na wydajność. Ale z drugiej strony to mamy spore opóźnienie faktycznej premiery. Dev nie będzie chciał, aby jego gra chodziła wolniej na kartach posiadanych przez 99,99% graczy. Minie z 5 dodatkowych miesięcy zanim ta seria zacznie trafiać do graczy w jakichś normalnych ilościach. To 5 miesięcy więcej na dopracowanie. I z tego co rozumiem, choć tu mogę się mylić, bo przyznam się, że nie czytałem o tym SER praktycznie nic,  to jest to niezależne od gry, więc NV będzie tym sterować ogólnie. Nie trzeba pod każdą nową grę cudować. 
Zobaczymy. Może lejąc na rasteryzację nawet nie będą czuli potrzeby manipulować i nic się nie wydarzy. 
Co nie znaczy, że w latach 2004-2017 NV tego nie robiła. I nie znaczy, że ludzie, którzy to obserwowali to "specjaliści" których należy wyśmiewać. 
Po raz kolejny prezentujesz bufoniarskie podejście "eksperta" który z pogardą się odnosi do innych, bo mają inne zdanie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, aureumchaos napisał:

prawie jak u Bociana xD... Raty 0% istnieja, nikt chyba nie beirze na karte u prowajdentow xD

Już praktycznie nie istnieją :P Coś chyba przespałeś? :P

 

23 minuty temu, Wu70 napisał:

Ale co ty nam tu podsyłasz za padlinę RRSO 43% jak na allegro weźmiesz raty 0% gdybyś bardzo chciał na raty :lol2:

na 3 raty ? I kwota na pół karty? Tfu na 1/3 karty bo przecież za 9K to se rtxa w snach będzie można kupić tylko :D

Edytowane przez Minciu
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
28 minut temu, sideband napisał:

Uwielbiam te mity wiesz czemu Turing nagle nie przestaje działać słabiej względem Ampere? Architekturowo tam nie ma żadnej przewagi nie licząc RT.

Teraz nowa generacja ma nowe bajery SER i inne nowe funkcjonalności, którę dadzą przewagę po czasie. Ewentualnie są jeszcze inne zmiany, którymi NV się nie chwali. Także jak NV wymęczy stery i devsi zaimplementują nowe funkcjonalności to zacznie się odjazd od Ampere. Ale "specjaliści" będą to mylić z ubijaniem wydajności poprzedniej generacji ?

O ubijaniu wydajności nic nie  mówię,  są testy które jasno pokazują,  że wydajność kart nie maleje. A to czy będą równie dobrze je wspierać jak nowa generację to już ciężko powiedzieć. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Minciu napisał:

Już praktycznie nie istnieją :P Coś chyba przespałeś? :P

 

Mają się dobrze. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
57 minut temu, Karister napisał:

(...)  Ów 60Hz to jest takie minimum godności,

? ubawiło mnie do łez!

 

58 minut temu, Karister napisał:

Jak ktoś siedzi na 144Hz, to pewnie dla niego takie 60Hz tragedią, więc wszystko to jest właśnie kwestia przyzwyczajenia. 

Dokładnie tak jest.
Klasyka dla sapaczy "a po co mi więcej FPS / Hz"?

Sprawdź, pograj i stwierdź "jednak nie potrzebuję".
9 na 10 jednak stwierdza, że to zajefajne, ale najpierw trzeba mieć, później chwilę się pobawić, a później dopiero świadomie zrezygnować (poczuć jak boli).
 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
39 minut temu, Kynareth napisał:

Ale w innym temacie napisałeś jakoby 1070 był jednak znacząco wydajniejszy od 1060.

Edit

Czytać ze zrozumieniem nagle nie umiem.
:) GTX 1060 odstaje od 1070 znacznie więcej niż 30% z tego co pamiętam. Nie pomyliłeś z 1660 ?

25 minut temu, aureumchaos napisał:

prawie jak u Bociana xD... Raty 0% istnieja, nikt chyba nie beirze na karte u prowajdentow xD

Nie chciałbym być ciągle nosicielem złych wiesci ale raty 0% juz niedługo przestana istnieć.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, Ronson napisał:

A inni specjaliści będą pisać, że są ewentualnie inne zmiany, którymi Nvidia się nie chwali.:lol2:

Z tobą już nie dyskutuje lecisz do ignorowanych. Tumanku polecam zapoznać się co piszą devsi jakie funkcjonalności dochodzą w architekturach(tak te o których się nie piszę), które można wykorzystać po czasie także u AMD.

  • Haha 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...