Szanowny Użytkowniku,
Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.
Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.
Administrator Serwisu Forum PC LAB informuje, że:
- Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
- Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
- Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
- Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
- Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności
Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.
Romulus84
-
Liczba zawartości
200 -
Rejestracja
-
Ostatnia wizyta
Odpowiedzi dodane przez Romulus84
-
-
@Kyle_PL polej się chłopie zimną wodą bo ty jesteś nieprzytomny. Chłopie zacznij myśleć i czytać ze zrozumieniem albo nie pisz nic, ja mam RTX 2060 i podstawkę am4 i mi nic R5 5600 X więcej nie da niż R5 3600 rozumiesz? Weź i się polej wodą mówię ci. W tym benchmarku jest RTX 3090 nieprzytomny człowieku a ja mam RTX 2060 i mi by żaden z tych procesorów nie dał nic więcej niż R5 3600 bo u mnie wąskim gardem by była wtedy karta graficzna. Obudź się i naucz czytać ze zrozumieniem, ja wiem ze pisze dużo bez akapitów ale czytam co pisze i pisze z sensem a Ty nie umiesz czytać ze zrozumieniem, pomijając fakt że ty się po prostu najzwyczajniej w świecie nie znasz i jesteś laikiem kompletnym z tego co cię czytam. @Harddrinkingman następny, nie znasz się też, spójrz na wyniki wydajności, mi do mojego RTX 2060 nie jest potrzebny R 5 5600 X bo da mi 3 FPS więcej a jest drogi. Do RTX 2060 nic lepszy procesor ci nie da niż R5 3600 nic, nie znasz się. Chłopie nie ucz Ty tatę dzieci robić, ja mam wszystko dokładnie policzone. Jasne R5 5600X by był dobrym wyborem jak bym miał choć RTX 3070 Ti to wtedy oczywiście, z moim RTX 2060 komponowanie tak mocnego procesora nie ma żadnego sensu nie da nic. Tu masz przewin sobie na dół i zobacz ile klatek jest różnicy między r5 2600 / r5 3600 / r5 5600x z RTX 2060. Sens ma zmiana R5 2600 na r5 3600 ale żadnego na r5 5600x, nie przy tej karcie. https://www.gpucheck.com/pl-pln/gpu/nvidia-geforce-rtx-2060/amd-ryzen-5-2600/, https://www.gpucheck.com/pl-pln/gpu/nvidia-geforce-rtx-2060/amd-ryzen-5-3600/, https://www.gpucheck.com/gpu/nvidia-geforce-rtx-2060/amd-ryzen-5-5600x/.
PS @Kyle_PL W Valoranta akurat nie gram gram głównie w Battlefield'a ale ci powiem, wszystko z RTX 2060, z resztą w poście wyżej masz, R5 2600 ULTRA 1080p 172 klatki, R5 3600 206 klatek R5 5600X 212 klatek. Co jest najbardziej opłacalne według ciebie. Ale ja nie będę czekał, 750 zł to niemało, jasne że chętnie bym tez dał 500 zł ale jak widzę że ja się mam szarpać i czekać czy ceny spadną i kiedy a może wzrosną jeszcze tego nikt nie wie... a pomyślę sobie że ludzie za karty przepłacają o 2, 3 czy 4 tysiące to mam wywalone na te 200 zł, rozumiesz lata mi to koło... Ja potrzebuje ten procesor na już, a każdy inny, wyższy model mi nic nie da... da ale niewiele, i się to nie kalkuluje. Tak, jak by R5 5600x stał po 700 zł używany a R5 3600 po 400-500 zł to szło by się zastanowić ale bardziej jako procek na przyszłość pod rozbudowę, do lepszej karty, a nie na już. Przy obecnych cenach tak jak sam mówisz nie opłaca mi się iść w nic powyżej R5 3600 do mojej karty i to jest proste. Myślisz że o tym nie myślałem?
-
@Kyle_PL Ja ciebie traktuję jako komika trochę, tak Intel ma wyższą wydajność na rdzeniu i każdy to wie i co z tego? Ty nie znasz podstaw logiki chyba, Ty w jednym poście piszesz że 20% wzrost wydajności za 700 zł to mało choć to bardzo dużo, szczególnie dla kogoś kto gra kompetytywnie, a w drugim zdaniu pokazujesz porównanie procesorów których różnica to parę klatek przy 160 FPS średnio i tez różnicy w cenie parę stówek. Wszystko zależy od okresu w jakim składasz komputer a tego się nie wybiera, bo potrzebujesz komputer to go składasz. Oczywiście że jak bym dzisiaj składał PC to Ja jak i każdy normalny i średnio rozgarnięty człowiek by wziął i5 12400 zamiast R5 5600X bo nie dość że tańszy to wydajniejszy ale tak jest teraz za 4 miesiące może być na odwrót a za kolejne 12 jeszcze na odwrót. Nie rozumiesz tego? Poza tym nie chciał bym teraz składać kompa przy cenach kart dwa razy wyższych od sugerowanych cen producentów (MSRP). Jak ja kupowałem komputer w marcu 2019 to za R5 2600 dałem 700 zł, wtedy Intel i5 8400 jego najbliższy konkurent, lepszy dosłownie minimalnie, kosztował 850 zł, oczywiście bardzo ważne jest jaką się ma kartę ja mam RTX 2060. W tamtym okresie prawie 3 lata temu R5 2600 był w każdym polecanym zestawie, w każdym i zresztą całkiem zasłużenie, oczywiście w średnim segmencie, więc wziąłem R5 2600 i dobrze zrobiłem. Nie każdy płaci ile uważa bo ja od miesiąca śledzę OLX i allegro i widzę ceny. Jak się pojawi sztuka za 700 zł na OLX, co się dzieje ale nie jest reguła to znika do godziny a większość jest wystawiana w kwotach 800 zł i więcej na allegro jest jeszcze gorzej, jeszcze mniejszy wybór i jeszcze drożej. Tak ze 750 zł na ten moment to jest cena nawet za używany całkiem ok. Wejdź i sobie zobacz to się dowiesz. Owszem mogę nie kupować nikt mnie nie zmusza, ale jak chcę mieć wyraźmy przyrost klatek, a chcę, to jest to dla mnie jedyne wyjście. Wolę dać 750 zł niż chyba 1050 zł za najtańszy nowy na morele i to jest proste. Zobaczymy czy będziesz taki cwany jak będziesz komputer zmieniał a ceny kart nie spadną. Choć tego sobie nie życzmy. 750 zł to nie 7000 zł za samą kartę a komputer jeszcze mi pociągnie minimum 2 lata po takiej wymianie i starczy do przyzwoitego grania i to jest bardzo opłacalne, każdy kto uważa inaczej po prostu się nie zna. Zresztą jak już pisałem mi by z moim RTX 2060 R5 5600X nie dał nic. To że Intele kosztują teraz tyle to znaczy tylko tyle że teraz tyle kosztują, zobaczymy co będzie za parę miesięcy a po drugie ja za moją kartę dąłem 1400 zł a teraz kosztują 3200 zł i co cwaniaku i co co jest opłacalne? Dać 750 zł za 20% FPS czy kupować RTX 2060 za 3200 zł co ludzie i tak robią. A po trzecie R5 5600X czy ten Intel i5 12400 to nie procesory do RTX 2060 bo ta karta by była wąskim gardłem. Tak kup sobie teraz kartę za 7 000, bo taką byś musiał mieć żeby nie było bottenecku z takimi i5 124000 czy R5 5600X a potem możemy się zastanawiać czy różnica parę stówek to dużo czy mało.
-
@Kyle_PL Serio rozśmieszyłeś mnie do rozpuku. To chyba Ty pisałeś te brednie że 1080p w 24 calach to pikseloza, hahaha. Wiesz co to zależy dla kogo, dla mnie wzrost o 20% za 750 zł jest warty swojej ceny. Człowieku co ty tam możesz wiedzieć, ludzie którzy grają kompetytywnie walczą o każdy FPS czy to kręcąc RAM, kartę czy procesor a ty mi mówisz że 20% za 750 zł to jest nieopłacalny upgrade. Ja osobiście czytając Ciebie i takie wypowiedzi o tej pikselozie i że 20% więcej klatek za 750 zł to mało i jest nieopłacalne, przysięgam, mówię Ci serio, pękam ze śmiechu. Jacy ludzie są jednak różni, masakra to jest. Nie, 20% za 750 zł to dużo ale 10x tyle czyl 7000 zł za kartę to mało. Ludzie wy mieliście matematykę w szkołach, to jest straszne, po prostu wasze liczenie jest po prostu przerażające. Oszem jak ktoś nie gra kompetytywnie, Ja akurat gra. Bo gram wyłącznie w BF,, CoD'q, APEX czy R6, to jeszcze mogę zrozumieć i jak ktoś ma monitor 60 Hz ale jak ktoś gra i ma monitor 165Hz to możecie wierzyć lub nie, mam to gdzieś, ale czy ja mam średnio 80 FPS czy średnio 100 robi kolosalną różnicę, ale co wy tam o tym możecie wiedzieć. Do tego frametime 1% czy 0,1% jest dużo lepszy i taki R5 3600 pozwala płynniej grać. @Sidr Tu masz rację, powinien kosztować 500-600 zł tak samo jak karty powinny kosztować 2 razy mniej niż kosztują ale tak nie jest. Rynek jest jaki jest a z tego co widzę i tak myślę i to napiszę to taki bogaty @Kyle_PL i jemu podobni napędzają ten chory rynek i zaraz Ci napisze że takie ceny kart mają być. Przez takich "Kyle'ch" te karty w tych 2 razy wyższych cenach się cały czas sprzedają bo on ci powie że dla niego to jest tanio, wychuchanego jedynaka co się pewnie nigdy ciężką pracą nie skalał, on tam ma pojęcie o życiu. Po drugie jak byś zmienił na INTELA, nie wiesz co mówisz, jak masz socket AM4 załóżmy i miałeś procesor AMD tak jak Ja to żeby wsadzić INTELA musiałbyś zmienić płytę główną. W ogóle na tym forum jest sporo ludzi co się na niczym nie zna a się wypowiada. Jeszcze zdanie o używanym procesorze. Ludzie sprzedają kupują i handlują używane wszystko, od kart graficznych po auta... wszystko a akurat procesor to jedna z bezpieczniejszych używanych rzeczy bo w nim nie ma części mechanicznych i zasadniczo ma dwa stany działa albo nie. @Kyle_PL proszę cię oszczędź sobie te durne puste gadki ze na pewno podkręcał go do 5 Ghz z napięciami 1,55 V bo uprzedzam że znowu pęknę ze śmiechu. Po pierwsze każdy normlany człowiek a przynajmniej 95% ludzi szanuje swój sprzęt i wie co robi... zna się po prostu i wie jak podkręcić bezpiecznie procesor i takiemu procesorowi nie ma prawa się nic złego stać. @Kyle_PL Ty się nie znasz na niczym na niczym, właśnie że R5 3600 się opłaca a R5 5600 X się nie opłaca, bo wzrost FPS z RTX 2060 względem R5 3600 to jest jakiś 1%. Tak to RTX 2080 Ti czy Do powiedzmy RTX 3070 Ti by się opłacało ale z ta kartą ten procesor nie da mi nic. Ty nie masz zielonego pojęcia o czym mówisz, zielonego. Edytuję 10 raz bo co cię czytam to mi się bardziej chce śmiać, odniesieniem do niego sa najnowsze INTELE, Ty jesteś śmieszny. Rynek jest jaki jest też uważam ze te Ryzen'y stoją parę stówek za wysoko, te z średniego segmentu, ale co zrobić, taki mamy rynek, a 200 zł to majątek nie jest jak ktoś chce sobie zwiększyć wydajność i płynność ale już 3000zł - 4000zł różnicy w przypadku kart to majątek jest.
-
Przy GTX 1060 nie warto ale do RTX 2060 już tak. W dobie chorych cen kart taki upgrade to najlepsza i najtańsza droga do wyraźnego podniesienia sobie wydajności i to całkiem wyraźnie. Ja właśnie, po prawie 3 latach, wymieniłem R5 2600 na R5 3600 i za 700 zł (kupiłem używkę, a jak kupowałem to ceny nowych zaczynały się od 1050 zł) wzrost klatek jest całkiem duży. Dla mnie, gracza tytułów kompetytywnych był to strzał w dziesiątkę. Podam przykłady wzrostu FPS na kilku grach. Najczęściej gram w Battlefielda V i tak, grafika LOW 1080p, wzrost z średnio 120 do prawie 150, w Battlefield 2042 grafika LOW wzrost z 60 do 80, w trybie PORTAL średnio z 80 wzrost do 100... to wszystko za 700 zł i moim zdaniem się to opłaca ale jak mówię ja mam monitor 165 Hz i gram dużo gram kompetytywnie. Teraz kilka przykładów innych gier na ULTRA która mam na komputerze i które sprawdziłem i tak zacznę od BFV ULTRA z 95 do 113, CoD Modern Warfare wzrost z 104 do 125, Wiedźmin 3 wzrost z 80 do 95, OVERWATCH wzrost z 143 do 172, GTA V wzrost z 88 do 106, CyberPunk wzrost z 39 do 47, Shadow of The Tomb Raider wzrost z 71 do 85, FORTNITE z 92 do 110, CS:GO wzrost z 306 do 366. Sami widzicie i możecie ocenić czy się opłaca, moim zdaniem wzrost jest duży i taki zabieg jest bardzo opłacalny.
-
Odkopię temat bo ja też w BFV mam zużycie procesora 70-80% a karty 65-75%. Mam RTX 2060 i R52600. Też akurat w tej grze nie mam najwyższego obciążenia karty co w żadnym wypadku nie przekłada się na ilość FPS. Mam tyle FPS ile ma być a kartą nie jest w pełni obciążona i wszystko jest jak ma być. Myślicie że będę na siłę starał się obciążać kartę żeby mi pokazywało 99% zużycia, tylko dla samych liczb? Hahaha nigdy w życiu, klatki się zgadzają, na YT oglądałem dziesiątki filmików z takim samym setupem i wszystko się zgadza więc po prostu tak u mnie jest w tej grze i tyle. W innych grach karta jest obciążana normalnie, powyżej 90% a często i 98% w takim Wiedźminie 3 tylko w BF V przeważnie nie przekracza nawet 70% oraz 66 stopni i nic kompletnie z tego złego nie wynika.
-
Przeczytałem ten wątek i znowu Kely z tym swoim gruzem i liśćmi w BF że niuc nie widać. Czysta bzdura, na 1080p widać wszystko w 24 calach czy grasz snajperem czy kimkolwiek innym. Ja 2 lata ostatnie gralem na 21,5 calowej TN'ce od LG w 60Hz i możecie wierzyć lubi nie, jak mi tu ktoś napisze że nie wierzy to mu screeny wkleję, ale w BFV byłem często pierwszy na 64 graczy z K/D 60/20. LG 21,5 cala TN'ka 60 Hz. I na takim monitorze byłem zawsze w ścisłej czołówce a często najlepszy. A pewnie grałem przeciwko graczom i na QHD 27 cali 144hz i FullHD 144Hz 24 cale... dwa miesiące mam taki monitor Monitor iiyama G-Master GB2470HSU-B1 23,8 cala FullHD 165 Hz i o ile płynność jest super to tak jak kolega tam jedne swojego samsunga na matrycy TN porównywał do tego Monitor AOC 24G2U i stwierdził że szału nie ma i cukierkowe kolory. Tak ja mam identyczne wrażenia, mój akutrat IPS to FAST IPS zero smużenia, IPS Glow minimalny, niezauważalny, blacklight bleeding też minimalny, pomijalny, to kolory takie same jak na mom starym z 2013 roku LG na matrycy TN. Ludzie mają chore wyobrażenie i źle mówią o TN a mają one takie same kolory ci IPS, identyczne. Tam kolega pisał ze ten Monitor AOC 24G2U ma cukierkowe kolory i to prawda musi być bo tez się spotkałem z takimi opiniami to na morel 330 sztuk się sprzedało w ciągu ostanich 3 mięsiecy tego modelu i ma 500 opinii i prawie wszystkie 5 gwiazdek. Ludzie to jednak są mało wymagający. Ten mój monitor ma fajne kolory, ale tak samo fajne miała TN'ka 8 lat stara, a to niby ten tak chwalony IPS że takie kolory. W kolorach różnicy dla mnie nie ma żadnej, tram 6 bit + 2 tu też, tak szczerze to na IIyama ma takie zimniejsze kolory, zimniejsza barwę ta TNa stara moja ukochana była cieplejsze ale co było lepsze to nie wiem. Takie same kolory TN ka z 2013 roku od LG iiyama z 2021 roku. To co najbardziej zauważyłem i mnie boli ze wszędzie czytam te forum na pc.lab to tam miałem PPI 102 a tu mam 92 i spadła mi ostrość obrazu, ale przeżyję. Ale mam wzrok idealny i mnie trochę boli ze po 8 ltach kupiłem monitor i mam większą plamkę bo 0,275 i mniejsze PPI ni na starym monitorze. Ja bym chciał 165 Hz 24 cale i 1440p i skalowąc BFV do 1080p. Ja mam problem bo jestem zapalonym graczem BFV multi i mi zależy na płynność ja czuję czy mam 140 klatek czy 90, ja to czuję a mam RTX 2060 i z tego tylko powodu mam FullHD 165 Hz bo wolę wyższą płynność. Tak szczerze to ja bym chciał ten monitor co mam w 22 clach i miec PPI 102 niż 92 ale przeżyję to bo głownie gramw BFV i rywalizuję i jestem w tym dobry. Mi się wydaje ze 27 cali to jest za duży monitor i nawet jak mam 70 cm głębokie biurko to ni było by to wygodne do ogarniania ekranu z tych 55 cm. To jest masakra skomplikowany temat. Ten monitor Monitor iiyama G-Master GB2470HSU-B1 jest kozak pod kazdym względme tylko mógł mieć 22 cale i PPI 101 i to by było dla mnie idealne. Monitor jest po to m,onitorem ż esię blisko niego siedzi a jak się blisko siedzi to nie tzrtenba mieć 1000 cali, 22 cale aż przez głowę, jak jesteś słby to ci nie pomoze 27 cali i WQHD a tak serio to jets to za duży monitor i się źle ogarnia wzrokiem ekran z 60 cm i taka jest prawda.
-
@Kyle_PLTy dalej swoje. Tak każdy wie że wyższa rozdzielczość jest lepsza, ale z tego co mówisz to powinienem kupić monitor 24 cale w WQHD i wiesz co ci powiem, ja bym taki kupił tylko nie ma takich monitorów, promil, na setki monitorów może 102 takie będą, 24 cale 1440p i 144Hz. Moim zdaniem normalni ludzi w sensie nie jacyś bogacze, jeszcze przy dzisiejszych cenach kart, moją w zasadzie tylko wybór między 24 cale w 1080p a 27 cali w 1440p i ja bym bez wahania wybrał opcję drugą gdyby nie jedna sprawa a mianowicie spadek klatek w grach o praktycznie 30%. Druga rzecz, mnie najbardziej 1080p na 24 calach razi w filmach i zdjęciach, to prawda ostrość mega ważna jest nikt nie lubi pikselozy, ale ludzie też dużo na komputerach grają i akurat mi właśnie w grach, a gra to jest animacja, nie przeszkadza zbytnio 1080p. W grach 1080 do 24 cali ujdzie, ze zdjęciami i filmami jest nieco gorzej. To jest prawda, jak ktoś nie jest ślepy to dopóki tego nie będzie widział na takim monitorze to tego nie zrozumie. Ja znowu to piszę, do niedawna miałem, w sumie mam, ale nie korzystam, monitor 21,5 cala na 1080p a teraz mam 1080p na 23,8 calach i ja widzę pogorszenie ostrości obrazu, wielkość plamki jest inna, teraz mam większą i widzę spadek ostrości o 10% i też mnie to boli. Tylko kurde musze to jakoś znieść bo wyjdzie BF VI a ja dalej będę miał RTX 2060, i jeszcze te ceny chore karta graficznych teraz, i ja muszę mieć 1080p bo ja kocham takie gry a muszę mieć jakąś wydajność. Ty nie masz tego dylematu bo albo masz dużo kasy i sprzęt z highendu albo nie grasz w takie gry co wymagają szybkiego odświeżania i to jest proste. Nikt ci nie powie o zdrowych zmysłach że obiektywnie 1440p nie jest lepsze od 1080p bo jest, ale ogólnie i względnie to już nie zawsze jest takie proste i oczywiste co dla nas będzie lepsze bo PC to nie tylko filmy i zdjęcia. Mnie też to cały czas gnębi, bo akurat kupiłem sobie monitor 23,8 cala w 1080p ma szybką matryce IPS FAST, zero smużenia, zero ghostingu, IPS glow mój model ma żaden, to samo z backlight bleeding'iem akurat mi się trafił minimalny a do tego minimum 50-70% czasu gram w gry zależy od okresów, czasem jest to nawet 80% czasu przesz 2 miesiąca a czasem znowu przez jakiś czas nie gram wcale ale ogólnie te 50-70% czasu na pewno gram i to w BF multi gdzie mi zależy na wysokim odświeżaniu. Dla mnie jest tylko jedne argument za 1080p ale za to koronny, cholerne wymagania gier i potrzeba jak największej ilości klatek na sekundę w grach multi. Jak by to było tak ze w 1080p bym miła 200 klatek a w 1440p 150 to nie ma o czym gadać, ale to jest tak że ludzie mają w większości przeciętne karty graficzne, a ja na RTX w BFV mam w 1080p na ULTRA 95 a w 1440p już 72 a to jest gra z 2018 roku, w CoDMW w 1080 ULTRA 105 klatek w 1440p już tylko 75 klatek a czas leci ceny kart graficznych są z kosmosu, nikt nie wie kiedy to piekło i czy w ogóle się skończy... i to takie są dylematu ludzi a nie takie ze każdy wie ze 1440p daje obiektywnie ostrzejszy obraz. A teraz czas BF VI wyjdzie znowu wymagania sprzętowe w górę i tak cały czas... Jeśli grasz w e-sportowe gry jak BF COD APEX PUBG itp itd i jesteś przeciętnie zarabiającym gościem a grasz w te gry naprawdę dużo to musisz ciągle siedzieć na 1080p bo wtedy tylko możesz mieć jako taką liczbę klatek i taka jest brutalna prawda.
Wy piszecie a się nie rozumiecie, 1080p na 24 calach wygląda jak wygląda, a 1080p na natywnym 1440p na 24 calach pewnie wygląda podobnie. Chodzi o to że wy musicie brać pod uwagę cale, przekątną monitora bo to jest najważniejsze w tym momencie. Jak masz monitor 1440p to raczej na 99% nie na 24 calach tylko na 27 calach a na 27 calach 1080p zawsze będzie wyglądało źle. Nie ważne że masz monitorze 1440p 27 cali jak bo przeskalujesz do 1080p to będzie to wyglądało źle, za duża przekątna dla tak niskiej rozdzielczości i sprawa skalowania jest zamknięta, tak samo jak źle wygląda natywne 1080p na 27 calach i to jest proste.
-
1
-
-
@Doamdor To jest nieprawda co piszesz, wszystko zależy od odległości z jakiej patrzysz na wyświetlacz i wielkości tego wyświetlacza. Na telefony się patrzy z bliska i mają małą przekątną, i przez to muszą mieć wysokie PPI żeby obraz był ostry. Z monitorami i TV sprawa wygląda inaczej.
-
Akurat te zdjęcia Mincia to potwierdzają raczej moją tezę i Valeri. Owszem różnica jest ale niewielka, stosunkowo nieduża, choć wiem że to wszystko to są bardzo subiektywne często odczucia.
-
@Minciu Ty to potrzebujesz 32 cale w 8k, może to by cię w końcu zadowoliło.?? @Kyle_PL W tym symulatorze TIRa wygląda to naprawdę źle, ale to też jest taki skrajny przykład, bo w innych grach takiej pikselozy nie widać.
@MinciuWidać, pewnie że widać ale bez przesady, bez przesady, zresztą mówię w zdjęciach to widać najbardziej w grach aż tak nie bo gry to jest animacja, a realne zdjęcia to realne zdjęcia. W jakiej rozdzielczości są tez zdjęcia?
-
1
-
-
Piszecie bzdury i nieprawdę, głusi jesteście i zamknięci na fakty obiektywne. 1080 to dobra rozdzielczość, co w zachwycaniu się grafiką zmienia fakt ze masz ostrość lepszą o te 10-20% bo wyższa rozdzielczość nie daje nic poza nią, nic, kompletnie nić więcej. Właśnie sobie włączyłem teraz Wiedźmina 3 na natywnym FullHD w 1280 x 720 i wygląda tak samo pięknie i ładnie jak w 1080p tylko mnie ostrzej i to tyle. To samo jest u was więc nie wychwalajcie tak tych wyższych rozdzielczości bo poprawiają one tylko ostrość i to o te kilkanaście procent. Zachowajcie zdrowe proporcje i rozsądek mocium panowie.?
-
1
-
-
Nie ma szans, jak ktoś jest zapalonym graczem gier kompetytywnych jak ja pokroju BFV, CoD'a, CS:GO, APEX etc etc i jest zwykłym Polakiem który zarabia jak zarabia to dużo lepiej jest mieć monitor 1080p 24 cale i mieć 120 klatek i wyższe odświeżanie niż 1440p i 27 cali. Na 1080p wszystko dobrze widać i taka jest prawda. Ja mam RTX 2060 i już dawno bym siedział na 1440p w 27 calach ale przez moje gry i wydajność nie siedzę i nie żałuję. No wy gry wychodzą cały czas, mało kogo stać na topowe karty, bo każdy jak kupi komputer to go ma te 4 lata a i tak mało kto kupuje topowe karty składając kompa bo go nie stać po prostu. Więc póki nie będzie tak że średnia karta będzie w w e-sportowych grach na 1440p dawała te 120 klatek choć, to nikt rozsądny, grający w takie gry, nie będzie się męczył ze spadkami klatek tylko po to żeby mieć trochę ostrzejszy obraz, bo podkreślę, na 1080p do 24 cali obraz jest wystarczająco ostry i każdy kto mówi inaczej, po prostu mówi nieprawdę. Na 1080p do 24 cali obraz jest na tyle dobry i ostry że można podziwiać wręcz szatę graficzną w jakichś nowych tytułach AAA. Dla gracza to skórka nie warta wyprawki.
-
1
-
1
-
-
Nie nie ja odpalam zawsze w oknie. Na moim starym 21,5 calowym jak i na tym 24 zawsze w oknie, do tego opera ma taką funkcję, odtwarzaj w trybie obrazu w obrazie. Mi chodzi o coś innego, Na moim starym 21,5 calowym po prostu te filmy odtwarzane w oknie wyglądały ostrzej niż na tym obecnym 23,8 calowym. Pewnie przez PPI które teraz mam niższe. Mi chodzi o to czy na 27 calowym WQHD filmiki odtwarzane w oknie wyglądałyby lepiej niż na moim starym, 21,5 calowym LG? Bo na tym co mam teraz wyglądają gorzej niż na starym LG, w sensie ostrości. Czyli zakładam że w oknie na 27 calach w WQHD by wyglądały ostrzej niż na LG że o tym 23,8 calowcu nie wspomnę? Dobrze rozumiem? W zasadzie to ja się z tobą zgadzam że lepszy by był 27 calowy w WQHD, tylko jedna rzeczą się usprawiedliwiam, mianowicie tym że gram tylko w zasadzie w strzelanki i spadły by mi o 30% klatki. Gdyby nie to i tylko w zasadzie to, nie miałbym żadnych dylematów.
-
@Minciu Ja też dobijam powoli do czterdziestki. No nie mam między nami sporu, ja to wszystko rozumiem, no gnębi mnie trochę to tylko FullHD ale mam dużo klatek a 165Hz swoje robi. Panie ja w ogóle nie włączałem antyaliasingu na tych 21,5 calach a na tych 23,8 choć minimalne ząbki widzę, też nie będę włączał, mi to tam nie przeszkadza. Zresztą i tak już jest po ptokach bo miesiąc już mam ten monitor i nic z nim nie zrobię. Zobaczę, może sobie dokupię drugi monitor z jakiegoś outletu w WQHD jak się trafi stricte pod tę moją bogatą kolekcję pornoli w 250-360p bo tam mnie to najbardziej boli.? A powiedz mi, bo nie mogę się doczekać od ciebie odpowiedzi. Na WQHD te filmiki w 250-360p by wyglądały lepiej niż na tym moim starym LG z PPI 102 czy nie? No ta tym obecnym z PPI 92 wyglądają gorzej, więc tak na logikę myślę że tak no ale nie wiem tego na pewno, może gdzieś jest ta granica że z 250p się więcej nie wyciągnie? Choć ja pamiętam że te filmiki na kineskopowym monitorze, z którego korzystałem do 2013 roku, wyglądały bardzo fajnie.
-
@Minciu Ale jaki ty masz mocny sprzęt teraz tak patrzę, jesteś kasiasty koleś i jesteś promilem. Dobrze w duchu wiesz że ja mam rację. Nikt nie kwestionuje tego że wyższa rozdzielczość jest lepsza tylko nie każdy może sobie na nią pozwolić i musi wybierać a do tego każdy gra w co innego i pod to oraz pod budżet buduje komputer i kupuje monitor. Nie wiem ile za tę kartę dałeś ale ona kosztuje 10 000 zł na ten moment tak popatrzyłem i mi nie powiesz że to jest normalne. Kto sobie może na taką kartę jak ty pozwolić? Według Steam'a 2% ludzi, z tego 1% ma jeszcze lepszą bo RTX 3090. Teraz już wiem o co ci chodzi z tą rozdzielczością, teraz cię już rozumiem. Jak bym miał taką kartę to na pewno bym nie siedział na 24" w FullHD.?
-
Załóż się że ci nie pomogą twoje 4k i nie zagrałbyś nic w BFV, rozdzielczość by ci nie pomogła. Tylko tak to działa że jak bym miał K/D takie https://zapodaj.net/28147c297db45.png.html a ty takie jak ten typek na ostatnim miejscu. I co? I po co mi te twoje 4k? ? PS I tak póki wszystko dobrze widzę w 1080p na 23,8 calach, a widzę, milion razy bardziej wolę wyższą płynność i odświeżanie.
-
Pokazujesz syntetyczny przykład z jednej gry, chyba siedzę przed 23,8 calowym monitorem w FullHD i jakoś takich pikseli nie widzę choć mam idealny wzrok. Ja to dobrze wszystko rozumiem tylko nie opowiadajcie że na do 24 cali FullHD to jest jakaś nie wiadomo jaka pikseloza bo tak po prostu nie jest.
-
@Kyle_PL Nieprawda, mniej pikseli na mniejszym ekranie może ci dać takie samo zagęszczenie pikseli jak więcej pikseli na większym ekranie, właśnie że tylko PPI się liczy i wielkość plamki. Wiadomo że na dużym telewizorze, nie wiem 60-80 calowym z 4k czy tam 8k z kilku metrów będziesz widział świetnie ale tak samo dobrze jak z bliższej odległości na 24-27 calach w 1080p czy 1440p. Teraz to tak uogólniam ale właśnie liczy się tylko PPI i wielkość plamki a nie ilość pikseli bo to wszystko zależy od przekątnej i zagęszczenia pikseli a nie ilości pikseli w sensie matematycznym. No to masz wypisz wymaluj właśnie mój przykład, przesiadłem się z 21,5 cala 1080p na 23,8 cala też 1080p i pikseli mam tyle samo a obraz mniej wyraźny bo piksele są fizycznie większe i mam większą plamkę przez to straciłem ostrość, i tym samym sposobem na 27 calach 1080p będzie już wyglądało fatalnie bo pikseli będzie tyle samo tylko będą one znacznie większe (wielkość plamki) i to jest problem.
-
Wy swoje a producencie swoje. Wczoraj sprawdzałem na morele, bez żadnych filtrów cenowych, tylko dałem monitory do 27 cali i 1440p i na 180 sztuk dosłownie tylko ~17 było w 24 calach. I akurat na morele żaden nie miał odświeżania wyższego niż 75 Hz, i nie był do gier ŻADEN. Wy wicie lepiej niż producencie i gracze ???, śmiech mnie bierze, Jesteś promilem ludzi, nic nie znaczącym marginesem, z tymi waszymi przekonaniami i taka prawda. Poniżej 10% było monitorów 1440p w 27 calach rozumiecie to i żadnego w 4k na 24 calach i to o czymś świadczy a nie wasze bezsensowne gadanie nie podparte faktami. Wy te monitory sobie sami robicie w piwnicach jak Gates? Bo takich monitorów największe firmy po prostu nie produkują. Jest trochę monitorów 27 cali 1440p ale to tez nie jest żaden szał w ostrości, ot normalny wyraźny obraz bo to jest PPI tyko 109 względem PPI 102 na 21,5 calach to chyba nie jest jakaś kosmiczna różnica co? Wy swoje a producenci i gracze swoje. I niech mi nikt nie wmawia dziecka w brzuch że PPI 109(27" QWHD) - 100(21,5'' FullHD) - 92(23,8'' FullHD) to jest jakaś przepaść w ostrości bo jest to 20%, tylko 20%.
-
Absolutnie się z tobą nie zgadzam, chyba masz kiepski wzrok, bo fakt że ja, mając idealny wzrok widzę różnicę w PPI między 101 a 92, między moim starym 21,5 calowym a obecnym 23,8 calowym ale 24 cale to jest ekran olbrzymi, wręcz gigantyczny, ja nie chcę większego ekranu, po prostu nie chciałbym większej przekątnej, dla mnie maks to 27 cali i ja to juz wiem. Ja ci mówię ja bym wolał 21,5 cala z odświeżaniem 165 Hz niż 23,8 cala z tym samym odświeżaniem, oczywiście mowa o FullHD. Ja mam wzrok ostry jak brzytwa i styka 21,5 cala po prostu... przed monitorem się siedzi blisko i mi to styka. No ale trudno pogodziłem się już z tymi 92 PPI. Więc widzisz to jest względne wszystko i zależy od osoby co dla kogo jest ważniejsze, dla ciebie 24 cale to karłowata przekątna i ok a dla mnie wręcz za duża. I poważnie, nie przesadzam, dla mnie te 24 cale to jest gigantyczny ekran, boże jakie to jest wielkie masakra... teraz to zmierzyłem i jak gram to oczy mam w odległości około 55 cm. Nie odpowiedziałeś mi na jedno pytanie, a to jest dla mnie ważne, ja nie chcę i raczej nie kupię w przyszłości monitora i większej przekątnej niż maks 27 cali, ale o wyższej rozdzielczości pewnie tak, i pytałem się ciebie jak by na 24 calowym monitorze w 1440p wyglądała gra odpalona na rozdzielczości 1080p bo tego nie wiem. Czy tak jak na tym moim FullHD natywnym czy trochę gorzej czy jak? Bo to że na 27 calowym ekranie w 1440p gra włączona w 1080p wyglądałaby źle to jest pewne, tak samo jak źle wygląda gra na FullHD w 27 calach. Ja mam monitor, ale nawet jakbym miał 10 000 zł na monitor to ja nie wiem co ja bym za monitor wybrał. @Minciu musze ci to przyznać najsensowniejszy monitor mi ty podrzuciłeś tego ACERa 27 cali, 1440p i 144Hz. I taki monitor by mi odpowiadał najbardziej i wziąłbym sobie taki ale nie wziąłem z jednego względu, w grudniu wyjdzie BF 6 i wymagania pójdą w górę i ile ja bam miał klatek w 1440p wtedy? Mało, na pewno za mało. Widzisz każdy jest inny, ja wiem że wyższa ostrość obiektywnie jest lepsza ale ogólnie dla mnie 1080p w grach takich w które ja gram daje dla mnie dobrą ostrość, wystarczającą w 100% a dużo bardziej wolę wyższą płynność. Jasne że wyższa płynność mi daje większą przewagę w grze niż wyższa ostrość a mniejsza płynność, dopóki wszystko widzę a pisze to setny raz, na 1080 i 24 calach ja widzę wszystko. Wiadomo że najlepsza by była wysoko płynność i ostrość ale to nie idzie w parze bo to trzeba mieć kartę topową, a jeszcze dzisiaj przy tych chorych cenach kart to jest dopiero nieporozumienie i kogo na taka kartę stać. A najgorsze co może być, jak już człowiek sie przyzwyczai do wyższej rozdzielczości, to granie w niższej rozdziałce niz natywna monitora. Ja to juz pisałem, ja wolałem grać w 17 klatkach w Wiedźmina 3 na FullHD niż w tych stałych 30 ale w 720p. I to by tak znowu było, zjazd z grafiką na LOW byle tylko zostać na natywnej 1440p bo tak by było i ja to wiem. Jasne można powiedzieć tak, i tak grasz w BFV na LOW w FullHD i tak samo bym grał na LOW w 1440p ale tu chodzi o grafikę, więcej widać, nie ma tej cukierkowej ślicznej dla oka grafice ale rozpraszającej. Widzisz ja mam w BFV na ULTRA średnio 95 klatek, a mam na ULTRA tylko tekstury i siatkę, a reszta wszystko na LOW mam średnio zamiast 90 to 120 klatek i co? Każdy robi to co lubi. Kolega o tym symulatorze TIRa, jasne że wierzę że w takie gry wyższa rozdziałka jest fajna, wszystko fajnie widać... ale to jest taki typ gry, ja gram w kompetytywne a tam się liczy klatki.
-
@Doamdor nie gadaj bzdur ja dokładnie wiem jak to wygląda i miałem okazję takie monitor oglądać więc mów za siebie, tu chodzi o to że wolę mieć taki obraz jaki mam w 140 klatkach niż w 100 i to jest proste. Do tego 1080p nie wygląda źle na 23,8 calach, i każdy wie że na 27 calach WQHD wygląda lepiej a na 24 calach jeszcze lepiej. Każdy to wie tylko tu chodzi o różne zastosowania, jak ja gram po 6-8 godzin dziennie w BFV to biore monitor w 1080 żeby mieć wysoką płynność a nie 1440p i tyle nie wiem czego tu nie rozumiesz.
-
@Kyle_PL Pisząc AAA nie pisałem o aliasingu tylko o wymagających grach o których mówi się gry AAA. AAA (Triple-A) – termin, którym w przemyśle gier komputerowych określa się gry o najwyższych budżetach przeznaczonych na produkcję i promocję, od których oczekuje się wysokiej jakości i dobrej sprzedaży[1][2][3][4]. Tytuły niesklasyfikowane jako AAA nazywane bywają przez niektórych przedstawicieli branży „grami klasy B”[5]. ; )
-
Każdy ma swoje racje, no i każdy ceni sobie wyżej co innego. Ja nie zaprzeczam że obiektywnie wyższa rozdzielczość daje ostrzejszy obraz ale całościowo na to patrząc to już to wszystko nie jest takie jednoznaczne. Ja jednak pozostanę na razie przy 1080p bo karty graficzne są drogie a gry coraz bardziej wymagające i dopóki ja wszystko co mam widzieć na polu walki widzę to wolę mieć więcej klatek i wyższą płynność. Dla mnie to jest proste, na ULTRA w BFV już teraz na moim sprzęcie bym leciał na 72 klatkach w 1440p, a zaznaczam że gram na LOW, co już teraz byłoby mało by spadki by było poniżej 60, a teraz nowy Battlefield pod koniec roku co wyjdzie na pewno będzie chodził w mniejszej liczbie klatek klatek niż V. Do tego ja prawdopodobnie przez najbliższe 2 lata 90% czasu będę grał właśnie w niego więc pod takie założenie sobie wziąłem monitor w 1080p. Wzrok mam idealny i na moje oko ostrość w 1080p jest jak najbardziej w grach ok jak się nie wychodzi powyżej 24 cali, przynajmniej w tych w które ja gram i tyle. Jak by 1440p nie wiązało sie z 30-40% spadkiem płynności gier to nie było by o czym dyskutować, albo jakby gry chodziły w 200 klatkach a w 1080p w 300, ale tak nie jest. Już teraz niektóre tytuły AAA w 1080p nie chodziły by mi w 60 klatkach a co dopiero mówić o wyższej rozdzielczości. Coś za coś, na ten moment ja wybieram FullHD stricte pod moje ulubione gry. @Minciu masz dużo racji ale przyznaj że Full HD na tych 23,8 calach z tych 60-70 cm jest całkiem dobre w grach a nawet w życiu, no przecież wiesz dobrze że mam rację? ; )
-
Ty się sam niszczysz, dla mnie jesteś śmieszny, ty nie masz zielonego pojęcia o czym mówisz więc zachowujesz się jak typowy Polak, nie znam się to się wypowiem.

Zmiana ryzen 5 2600 na ryzen 5 3600
w Procesory
Napisano · Edytowane przez Romulus84
Kyrie eleison @Kyle_PL zgadzam się z Tobą w 100%, każdy robi jak uważa, dla mnie 20% za 700 zł to mega mega mega dobry interes. Jasne, lepszy interes to 20% za 500 zł ale te procki teraz tak stoją a Ja nie zamierzam czekać aż ewentualnie spadną żeby zaoszczędzić te 200 zł które sobie wkalkulowałem już w stratę. Rozważałem zakup R5 5600X tylko tak jak mówię musiałbym dać za używany 1200-1300 zł a to jest 500 zł więcej niż za ten który kupuję a nie poprawi mi to wydajności praktycznie nic, no nie, poprawi mi o 3% między R5 3600, a wyżej wymieniony między R5 2600 poprawi mi aż o 20%. Nauczcie się liczyć. Wy w ogóle nie patrzycie na te linki co tam dodałem. Dla procesora R5 5600X wąskim gardłem jest RTX 2060 i to dużym a dla R5 3600 RTX 2060 jeszcze wąskim gardłem nie jest. Z testów jasno wynika że RTX 2060 + R5 3600 jest o 20% wydajniejsza na ULTRA w 1080p od pary RTX 2060 + R5 2600, na LOW te różnice jeszcze pewnie wzrosną i to też są twarde fakty. Jasne, mógłbym teraz kupić R5 5600X i za 2-3 lata zostawić ten procek a zmienić kartę ale za 2-3 lata wyjdę Ryzeny 4 generacji RTX 40XX... a wtedy to ja sobie zbuduje całkiem nowy komputer. Wydam na niego z 10 000 zł, może 8 000, a może i do tego czasu te chore ceny kart wrócą do normy i będzie to całkiem nowy i całkiem wydajny komputer proste. Ja to znam i za 3 lata będzie mi woniał znowu lepszy procesor i nowszy i ten R5 5600X będzie mi się już też wydawał stary i będzie mnie kusiła 4 generacja, a może R5 5800X będzie szło kupić w fajnej cenie, a może używany... Mi na ten moment w zupełności wystarczy moc R5 3600 do tego RTX i nie będę dopłacał kolejnych 500 zł do wzrostu o 3% FPSów.
@Harddrinkingman Nie jesteś na moim miejscu i dalej nie rozumiesz co ja piszę. R5 3600 za 700 zł da mi 20% wzrost wydajności w ULTRA w każdej jednej grze, zakładam że w LOW, a ja gram kompetytywnie, wzrost może być jeszcze większy. No to jest ciekawe że nagle wzrost wydajności o 20% za 700 zł to jest dla was mało. W takim razie kupcie sobie kartę za 7000 zł i procesor za 2 000 to jest bardziej opłacalne, i na pewno da wam więcej niż 20%.
@Send1N No tak, między r5 2600 a 3600 jest spora różnica nawet mając gtx 1060 6gb i jeszcze sporo większa mając RTX 2060 OC. Sam sobie odpowiedziałeś, wzrost wydajności gtx 1060 z R5 3600 względem gtx 1060 z R5 2600 świadczy o wąskim gardle jakim jest R5 2600 nawet dla leciwego i średnio wydajnego gtx 1060 czyż nie tak? To nie RTX 2060 jest wąskim gardłem tylko R5 2600. Ale już znowu jak byś miał parę załóżmy RTX 2060 + R5 5600X to wąskim gardłem byłaby karta. Zobacz benchmarki, jaka jest różnica a jest ogromna, w ilości FPS między parą R5 5600X + RTX 2060 a, dajmy na to, R5 5600X + RTX 3080. Ty też nie do końca rozumiesz to co czytasz.
@galakty No dla Kyrie eleison @Kyle_PL 20% wzrost wydajności za 700 zł to mało, dla kogoś kto jeszcze jak Ja gra na LOW i kompetytywnie to bardzo dużo. Dla niego 1080p to pikseloza a według Steam'a 67% ciągle gra w 1080p. Ja wiem, to się bierze głownie z absurdalnie wysokich cen kart i niewielkiego wzrostu ostrości 1080p względem 1440p ale mimo wszystko o czymś to mówi.
@Phoenixsuple Dokładnie jest przepaść, ale poprawię cię, nie tylko w grach procesorowych bo w każdej grze, w każdej jednej. Znowu to powtórzę, do RTX 2060 jak najbardziej opłaca się wsadzić R5 3600 i podnieść sobie wydajność o 20% względem R5 2600 ale już zupełnie nie opłaca się wsadzać do tego RTX'a R5 5600X i dopłacać kolejne 500 zł żeby zyskać tylko 3% wzrostu wydajności względem R5 3600. W parze RTX 2060 + R5 5600X maga wielki bottleneck robi ten RTX, mega.
@Kyle_PL Kolejny post twój czytam i ci to kolejny raz powtórzę. 20% na ULTRA w 1080p, na LOW może być będzie jeszcze większa różnica ale nieważne, za 700 zł dla kogoś kto gra w Battlefield'a V i 2042 to jest maga mega mega mega duży wzrost wydajności. Jasne że wolałbym dac 500 zł a nie 700 zł ale takie teraz są ceny i nic z tym nie zrobię. Dla mnie to się opłaca dla Ciebie, nie wiedząc czemu, nie i pozostaniemy przy swoich zdaniach.
@MrKetiw No dokładnie, R5 3600 kupię za 700 zł, R5 2600 sprzedam za 400-500 zł, bo tak chodzą, i za 200-300 zł zyskam 20% wzrost wydajności. No @Kyle_PL to jest naprawdę mega zły dil, mega zły. Inna rzecz że OC Ryzen'ów daje minimalnie praktycznie w grach dosłownie nic. Daje kilka, dosłownie kilka klatek i sam nie wiem czy podkręcę to swoją sztukę, a ponoć się kręci do 4,5 Ghz. Bo te nowsze batch'e kręcą się dużo lepiej niż te pierwsze. https://www.benchmark.pl/testy_i_recenzje/nowszy-lepszy-sprawdzamy-czy-nowe-procesory-ryzen-3000-sa-lepsze.html
PS ale ta złota łopata to mi się należy jak psu buda, już któryś temat odkopałem po latach i go mocno ożywiłem, tak jak ten.