Skocz do zawartości

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

TorgarN

Upgrade do 1080gtx

Rekomendowane odpowiedzi

Moje zdanie:

1. podkręć procka (sądzę że 4.4-4.5 pójdzie i zapewne nie na stocku. napięcie do 1.4 i temperatury max 80 w obciążeniu, w stabilne 4.6-4.9 na każdym procku bym nie liczył a nawet w to nie wierzył). procek ma często granicę niezależnie od mobo (o ile to Z170 z LLC i normalną sekcją), testowane parę procków na płytach za 500-600 zł i takich ok 1k w większości przypadków dawały te same wyniki.

2. podkręć grafę. gtx 970 powienien iśc rdzeniem od 1470-1550. najsłabsza jaką widziałem szła na 1440 a najmocniejsza na 1600 (stabilnie).

3. zamiast v-sync użyj fast sync (o ile używasz V)

 

zrób testy, jak dalej komp nie spełnia Twoich wymagań to na dziś:

1. wymiana 6600K an 6700k/7700K

2. wymiana 970 na gtx 1070

 

Taka wymiana będzie lepsza niż władowanie do setu 1080.

 

Ogólnie grafę kupuj kiedy chcesz (aktualnie jest zostac 2x wiatrak z 5 letnią GW za 1750zł).

Z prockiem wstrzymałbym się do premiery RYZenów :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1440p to crap

 

Bo dalej musisz się kisić na 1080p, nie wiem skąd nagle przyzwolenie na rejestracje dzieci na tym forum, wcześniej to leciały permy z zaskoczenia :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo dalej musisz się kisić na 1080p, nie wiem skąd nagle przyzwolenie na rejestracje dzieci na tym forum, wcześniej to leciały permy z zaskoczenia :lol2:

 

Wymiękasz, że już gadasz o permach? Zrozum fakt, nie ma dużej różnicy między 1080p, a 1440p. Monitory podobne cenowo, no poza oczywiście tymi idiotycznymi gamingowymi które kosztują czasem 3K, a poza 144hz nie oferują nic ciekawego. No ale za to GTX 1080 wymięknie już przy 1440p jak włączy się wszystkie bajery, bo za mocny do 1080p, ale na styk do 1440p które nie oferuje nic ciekawego. Testowałem, sprawdzałem, oba monitory 27" - 1080p faktycznie wyglądał już nieco lipnie, 1440p powiedzmy przyzwoicie na 27", ale czy porwał? Nie. A tracić wydajność kosztem takiej małej zmiany? Bezsens. 4K na 27" to juz zupełnie inny temat, to jest żyletka, ale co mi po jednym GTX 1080 który w większości gier utrzymuje 40-50~ fps na średnio-wysokich. Przyjdą kolejne gry to spaaadnie głęboko.

 

Znowu Titan X to niewarta skóra wyprawki. Drogi, ale czy faktycznie wart swojej ceny? Nie za bardzo.

 

Czekam na przełom w gamingu 4K@60fps. Niby możliwe już dziś, ale dużym nakładem finansowym. Poczekam jeszcze rok i wtedy wymienię od razu monitor i kartę graficzną. 1180 powinien już całkowicie dać sobie radę z 4K@60fps przy wysokich ustawieniach. Mam kilka swoich ulubionych tytułów, niektóre z nich mają już grubo ponad 3-4 lata, ale wciąż niesamowicie cieszą. Przykładem może nie starej gry, ale już 4 letniej jest GTA V - a z modami pokroju Redux + rozdzielczość 4K wygląda przezajebiście :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wymiękasz, że już gadasz o permach? Zrozum fakt, nie ma dużej różnicy między 1080p, a 1440p. Monitory podobne cenowo, no poza oczywiście tymi idiotycznymi gamingowymi które kosztują czasem 3K, a poza 144hz nie oferują nic ciekawego. No ale za to GTX 1080 wymięknie już przy 1440p jak włączy się wszystkie bajery, bo za mocny do 1080p, ale na styk do 1440p które nie oferuje nic ciekawego. Testowałem, sprawdzałem, oba monitory 27" - 1080p faktycznie wyglądał już nieco lipnie, 1440p powiedzmy przyzwoicie na 27", ale czy porwał? Nie. A tracić wydajność kosztem takiej małej zmiany? Bezsens. 4K na 27" to juz zupełnie inny temat, to jest żyletka, ale co mi po jednym GTX 1080 który w większości gier utrzymuje 40-50~ fps na średnio-wysokich. Przyjdą kolejne gry to spaaadnie głęboko.

 

Znowu Titan X to niewarta skóra wyprawki. Drogi, ale czy faktycznie wart swojej ceny? Nie za bardzo.

 

Czekam na przełom w gamingu 4K@60fps. Niby możliwe już dziś, ale dużym nakładem finansowym. Poczekam jeszcze rok i wtedy wymienię od razu monitor i kartę graficzną. 1180 powinien już całkowicie dać sobie radę z 4K@60fps przy wysokich ustawieniach. Mam kilka swoich ulubionych tytułów, niektóre z nich mają już grubo ponad 3-4 lata, ale wciąż niesamowicie cieszą. Przykładem może nie starej gry, ale już 4 letniej jest GTA V - a z modami pokroju Redux + rozdzielczość 4K wygląda przezajebiście :E

 

Ja wymiękam, chłopie wystarczy poczytać Twoje posty, typu 1080 lepsza 3x od 970, aby wiedzieć że Twoje argumenty można rozjechać plastikowym modelem roweru typu składak, perm to tylko więcej spokojnych chwil dla ludzi który nie przepadają za słuchaniem bełkotu :E

 

Różnica między 1080p a 1440p jest taka jak powinna być, no chyba że próbowałeś oszukać matematykę i nie wyszło stąd taka nienawiść do wyżej wymienionej rozdzielczości. A powiesz mi po co włączać wszystkie bajery, które w większości na ostatnich strapach nie dają żadnych widocznych efektów a wcinają tonę mocy sprzętu, no chyba że musi być "Óltra bo jak nie będzie Óltra to szpan na dzielni zniknie :lol2:". Grunt to siedzieć na 1080p i wypowiadać się jak 1440p nie daje nic ciekawego, daje tyle ile wynosi większe zagęszczenie pixeli, ale nie każdy musi o tym wiedzieć, już nawet nie będę wspominać jaka jest przepaść między 1080p a 1440p w powierzchni roboczej na pulpicie., ale grunt to płakać i głupoty produkować :E

 

Prawdziwy przełom to będzie 4K@60Hz na 27 calowym wyświetlaczu na którym większość efektów utonie pod ogromną gęstością pixeli, wtedy zacznie się mówienie jaka to jakość której nikt nie zobaczy :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie sposób się z carny14 nie zgodzić.

 

Mając monitor 1080p i kupując gtx 1080 starczy na długie lata lecz nie będzie wykorzystywana jak powinna( przez jakiś czas ). Ona jest na tyle mocna ze nadaje się w miare dobrze do monitorów 2k ale... na dziś. No chyba że ma fajny monitor 120/144hz .

 

Tu jest parę filmików: https://forums.geforce.com/default/topic/938757/geforce-1000-series/gtx-1080-benchmark-videos-1080p-2k-4k-/

 

 

Wszyscy ludzie, którzy piszą, że 1080 nie będzie wykorzystywana w 1080p propagują niedomówienia, bo bardziej można ją w grach zamęczyć niż znudzić. Chyba że gra się tylko w jakieś platformówki, lub ogólnie mało wymagające gry od karty grafiki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie sposób się z carny14 nie zgodzić.

 

Mając monitor 1080p i kupując gtx 1080 starczy na długie lata lecz nie będzie wykorzystywana jak powinna( przez jakiś czas ).

 

GTX 980 właśnie siedzi i śmieje się z tego co napisałeś :E

 

To jest właśnie sadzenie bzdur, aktualnie 1070/980Ti wystarczą do 1440p jeszcze długo tylko trzeba umieć wyłączyć nic nie dające zamulacze, a nie być niewolnikiem Ultra ;)

 

A nowa Era 4K uber gejming to będzie dopiero jak deweloperzy pozwolą, inaczej co wprowadzenie nowego sprzętu, wyjdzie taki Watch Dogs który zajeździ każde GPU w 1080p i żegnaj uber gejmingu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie wiem, co trzeba mieć w głowie, żeby kupować kartę za 3 tysie i kisić ją w 1080p :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GTX 980 właśnie siedzi i śmieje się z tego co napisałeś :E

 

 

no i ile masz fpsów na tych wysokich (2k) i jaka gra/-y ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie wiem, co trzeba mieć w głowie, żeby kupować kartę za 3 tysie i kisić ją w 1080p :E

Bo szpan na dzielni jest, można też odpalić tonę zamulających śmieci, a potem nazywać wyższe rozdzielczości crapem :E

 

 

no i ile masz fpsów na tych wysokich (2k) i jaka gra/-y ?

 

Po pierwsze to ja mam 980Ti po OC w którym zrównuje się z kręconą 1070, i ja nie mam problemu z utrzymaniem 60 klatek 1440p, bo umiem wyłączyć zamulacze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo szpan na dzielni jest, można też odpalić tonę zamulających śmieci, a potem nazywać wyższe rozdzielczości crapem :E

 

 

 

 

Po pierwsze to ja mam 980Ti po OC w którym zrównuje się z kręconą 1070, i ja nie mam problemu z utrzymaniem 60 klatek 1440p, bo umiem wyłączyć zamulacze.

 

To już się wydało czemu pan rozłączony tak broni zapalczywie 1440p - zwyczajnie sam wtopił i broni za wszelką cenę. :lol2:

 

 

Aaa, czyli wyłączasz zamulacze, faktycznie, a nie wpadłeś na to, że wyłączając te górne opcje, które jednak po coś są tym samym zniżasz same ustawienia do średnich/wysokich? Bo ja jakoś testując GTX 970 w czasach świetności, mogłem się cieszyć w większości gier w pełnym ULTRA. Ty wyjeżdżasz, że do szpan na dzielni, nie wiem czym lubisz szpanować przed kolegami, ale jeśli kartą graficzną - nie zazdroszczę i współczuję.

 

Gaming jeszcze nie dorósł do wyższych rozdziałek. Tym bardziej, że większość gier to porty konsolowe, pisane do 1080p/30fps i potem cudem dopiero na mocnych kartach wygląda to dobrze na PCetach.

 

Wyzywasz od trolli, kandydatów do perma, a sam kim jesteś? Gościem który z uporem maniaka broni swojej konstrukcji. Pooglądaj testy, nawet 2x1080 nie jest w stanie zapewnić mega płynnej rozgrywki w 4K@60fps. A rzucanie się na 1440p moim zdaniem nie jest warte wyprawki, nawet na 24", 27" czy 32" - po prostu ta rozdziałka nie jest na tyle rewolucyjna względem 1080p, że urywa dupę. 4K jest już znacznie wyższą rozdzielczością i typowemu wujkowi na imieninach bardziej się spodoba, aniżeli 1440p które jest nijakie. 1440p + 144hz + GSync = czemu nie, ale tylko do CS:GO, LOL i innych śmieciówek, bo w porządnych grach przy obecnej technologii, wysokich ustawieniach nigdy nie uświadczycie tylu FPS'ów.

 

Tak, jestem obecnie na 1080p. Nie ze względów finansowych, bo obecnie mógłbym spokojnie grać w 4K na pojedynczym GTX 1080. Na 2xGTX 1080 zwyczajnie nie mam pieniędzy, ale nie o to tu chodzi. Po co kupować coś w rodzaju hybrydy, projektu który się rozwija jeśli powiedzmy przeczekam 2 lata, raczej maksymalnie i kupię świetny produkt, zakładam GTX 1280/1280Ti który nie dość, że gierki które uwielbiam i mam ogromny sentyment, czyt. Wiedźmin 3, GTA V, ARMA 3 obsłuży bez problemu już w 4K@60FPS co najważniejsze na ULTRA, to jeszcze nowe gry w 4K będzie odpalał na wysokich ustawieniach.

 

A co mi teraz po bidnym 4K na pojedynczym GTX 1080? I opcje trzeba wyłączać i rzadko spotyka się stałe 60fps i za rok już nie da rady pojedyncza sztuka... Czasami cierpliwość jest kluczem. No ale według ciebie ja kisze się w 1080p a śmieje się z wyższej rozdzielczości. Absolutnie nie, widzę ogromny potencjał, samo to, że 1440p staje się popularniejsze, ale co robi? STAJE SIĘ. Nie jest standardem, to powolny proces. A pomyśleć, że to niewiele większa rozdzielczość od Full HD, tzw. QHD... A jakiego nakładu mocy i finansów potrzebuje, skoro "GTX 1080 jest idealny".

 

Analogicznie 4K w żadnym wypadku nie jest odpowiednią rozdzielczością dla GTX 1080, bo zwyczajnie moc jest za mała. GTX 1080 SLI nie dość, że drogie, to jeszcze nie zawsze działa tak jak trzeba, pamięć się nie sumuje więc zostaje 8GB, a co mi po tym? 4K będzie chlebem codziennym za 2-3 lata, lecz cały czas dla tych bogatszych graczy.

 

Ludzie nie lubią półśrodków. Jeśli coś jest ostre jak żyletka, a coś lekko sflaczałe to każdy to zauważy. Nie bez powodu patrząc na monitor 1080p w sklepie, czy u siebie w domu nie odczuwam większej frajdy, podniecenia, od tak standardowa jakość, nic fantastycznego. Za to krótka chwila z 4K i już jest zupełnie inna jakość, szczegółowość, zagęszczenie, ostrość, jednym słowem miód na serce. A patrząc na 1080p i 1440p miałem problem, żeby jednoznacznie powiedzieć, że ten monitor po prawej rzeczywiście ma większą rozdzielczość, tylko ze względu na to, że 1440p to zbyt mało w stosunku do 1080p i tego się nie przeskoczy.

 

A sam nie wiem co mam sądzić o porównaniu dwóch kart:

 

GTX 1070 - karta bardzo dobra do 1080p, praktycznie wszystkie bajery nasze, ULTRA raczej też zagwarantowane, stałe 60fps bez problemu. W 1440p pojawiać się będą coraz większe problemy z mega wysokimi ustawieniami. Do 4K ta karta nie ma startu.

 

GTX 1080 - karta aż za dobra, OP do 1080p, bezsens, szkoda 3 tysięcy złotych. Do 1440p idealna, wszystkie bajery w górę, cieszymy się rozgrywką, ale czy jest sens inwestować w taką kartę dla średniej rozdziałki 1440p? Dla mnie do zastanowienia się, bo nie robi ona na mnie wrażenia. No i przychodzi elitarne 4K - o wysokich nie ma co gadać w topowych gierach, stałych 60fps też nie osiągniemy. Dopiero po zjechaniu do średnich ustawień możemy rozsądnie zastanawiać się nad stałymi 60fps, ale moje pytanie jest takie - po co wydawać horrendalne kwoty na takie zestawy, kupować kartę graficzną za 3000zł + jak i nie lepiej, bo bardziej wypasione opcje od czołowych producentów to już kwoty na granicy 3500zł, jeśli potem podłączam monitor i muszę co chwile kombinować, zniżać opcje, tutaj obniżyć, tutaj podwyższyć i nie mieć tak spokoju jakbym chciał..

 

Dlatego też czekam, bo obecnie jesteśmy na etapie generacji 1080p gdzie w żadnej grze nam już karty nie zakwiczą, ale niestety jest zbyt wcześnie, żeby mówić o komfortowym graniu w 4K, bo tutaj każda karta kwiczy i piszczy. Do zastanowienia się. Jak najbardziej czekałbym z drogim upgradem. Poza tym, czy są na chwile obecną jakieś świetne, wymagające tytuły, przysłowiowe świeżynki które potrzebują takiej mocy, może inaczej - które tak fantastycznie wyglądają? Bo kupiłem Watch Dogs 2, jestem totalnym laikiem, mimo, że cięło jak cholera, włączyłem ULTRA na 1080p, scena statyczna, tylko obserwowałem, w wielu lokacjach, nie przeżyłem jakiegoś ogromnego orgazmu, a gra świeża, żeby wydawać kupę kasy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
patrząc na 1080p i 1440p miałem problem, żeby jednoznacznie powiedzieć, że ten monitor po prawej rzeczywiście ma większą rozdzielczość

a ile cali miał ten monitor?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Procka kręć na 4.5 (napięcie 1.25-1.30V, wątpię, żebyś zszedł niżej i też wątpię, żebyś potrzebował więcej). Karta powinna dać radę utrzymać stabilne 1400-1450 (max 1500) MHz na rdzeniu i nie licz na więcej, sprawdzaj kilka godzin w Wiedźminie 3, pamięć powinna pójść spokojnie +300, przy odrobinie szczęścia nawet +400 dasz radę. Nie wierz w stabilne 1500+ MHz na tej karcie, bo nawet jeśli komuś udało się tyle osiągnąć i przechodziły benchmarki, to Wiedźmin pewnie i tak by się wysypał. Ugrasz na tym max 10-15% wydajności. Jak masz kasę na 1080 to bierz, na pewno zauważysz znaczną różnicę, ale szczerze to poczekałbym już na coś nowszego, bo ta karta ma już prawie rok.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Nie wierz w stabilne 1500+ MHz na tej karcie, bo nawet jeśli komuś udało się tyle osiągnąć i przechodziły benchmarki, to Wiedźmin pewnie i tak by się wysypał.

to, że Tobie trafiła się słabsza sztuka nie oznacza, że wszystkie są takie... chyba, że problemem jest sam "overkloker"

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a ja mam 1080 i gram na 1080p i nie żałuję. W tym roku prawdopodobnie zmienię monitor albo na 4k albo na 1440p 144Hz i nie boję się że czegoś nie uciągnie. Zawsze można podnieść wydajność o te 15% przez OC i obniżyć jedną czy dwie opcje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To już się wydało czemu pan rozłączony tak broni zapalczywie 1440p - zwyczajnie sam wtopił i broni za wszelką cenę. :lol2:

 

Używam wyświetlaczy 1080p, 1440p, 2160p, wystarczy spojrzeć na sygnaturkę, w przeciwieństwie do Ciebie żadnej z tej rozdzielczości nie hejtuje, tak więc kolejny argument rozjechany za pomocą plastikowego widelca :lol2:

 

Aaa, czyli wyłączasz zamulacze, faktycznie, a nie wpadłeś na to, że wyłączając te górne opcje, które jednak po coś są tym samym zniżasz same ustawienia do średnich/wysokich? Bo ja jakoś testując GTX 970 w czasach świetności, mogłem się cieszyć w większości gier w pełnym ULTRA. Ty wyjeżdżasz, że do szpan na dzielni, nie wiem czym lubisz szpanować przed kolegami, ale jeśli kartą graficzną - nie zazdroszczę i współczuję.

 

No w końcu w jakiś sposób trzeba hejtować wyższe rozdzielczości, skoro się nie potrafi myśleć i wszystko wbija na Ultra mimo że gruba część opcji między Very High/High a Ultra nie daje żadnych widocznych efektów, jak na razie średnich nigdy nie musiałem używać.

 

ac4_1920.png

crysis3_1920_2.png

metro_1920.png

 

Biedne to maksymalne "Óltra" na GTX 970, brak magic 60 FPS, do tego wszystkiego to dużo starsze produkcje niż sama karta ;)

Kolejny argument zaliczył śmietol.

 

Gaming jeszcze nie dorósł do wyższych rozdziałek. Tym bardziej, że większość gier to porty konsolowe, pisane do 1080p/30fps i potem cudem dopiero na mocnych kartach wygląda to dobrze na PCetach.

 

Wymyśl jeszcze nowy farmazon w którym będziesz twierdzić że owy port konsolowy napisany domyślnie w 1080p30p nagle w 1440p60p powodować problemy bądź inne banialuki :rotfl:

 

Wyzywasz od trolli, kandydatów do perma, a sam kim jesteś? Gościem który z uporem maniaka broni swojej konstrukcji. Pooglądaj testy, nawet 2x1080 nie jest w stanie zapewnić mega płynnej rozgrywki w 4K@60fps. A rzucanie się na 1440p moim zdaniem nie jest warte wyprawki, nawet na 24", 27" czy 32" - po prostu ta rozdziałka nie jest na tyle rewolucyjna względem 1080p, że urywa dupę. 4K jest już znacznie wyższą rozdzielczością i typowemu wujkowi na imieninach bardziej się spodoba, aniżeli 1440p które jest nijakie. 1440p + 144hz + GSync = czemu nie, ale tylko do CS:GO, LOL i innych śmieciówek, bo w porządnych grach przy obecnej technologii, wysokich ustawieniach nigdy nie uświadczycie tylu FPS'ów.

 

Wręcz przeciwnie, bronię tego co słuszne i w przeciwieństwie do Ciebie nie chodzę i nie wyzywam czegoś od Crapów, ale to już można szybko zweryfikować Twoją wiedzę, ja na codzień korzystam z wielu rodzielczości, Ty tylko jedną adorujesz, coś więcej dodać?

Za dużo inwektyw, za mało argumentów i brak argumentów rzeczowych, to jednak coraz bardziej skłania mnie w stronę aby stwierdzić że jesteś trollem :thumbup:

 

A co mnie obchodzi ile kart potrzeba aby zapewnić 2160p60p skoro wyżej wyraźnie napisałem że do 4K daleka droga, ale widać umiesz czytać tylko to co chcesz a resztę pomijasz.

Oczywiście lepiej zapitolić 32 cale zaraz obok twarzy w 1080p i siedzieć i liczyć pixele, nic tylko poważnie współczuć.

Dziwne że jakoś pomijając te "śmieciówki" gram w co najmniej High - Very High/Ultra i nie mam problemu z utrzymaniem 60+ FPS a czasem nawet grubo ponad 60fps, widać projekcję marzeń ukrytych i wielkie zajaranie 1080p, mnie to nie rusza, od 2007 roku korzystam z 1080p więc dla mnie to już przeszłość.

Warto też dodać że G-Synca nie używa się do CS, Lolów itd. bo limituje FPS a co za tym idzie wprowadza duże opóźnienie, pewnie tego nie wiedziałeś.

 

Przypomnę tylko że 1080p jest jeszcze mniejszym skokiem od 900p niż 1440p względem 1080p także podszkol matematykę i zobacz jakie gówno zachwalasz :lol2:

 

Tak, jestem obecnie na 1080p. Nie ze względów finansowych, bo obecnie mógłbym spokojnie grać w 4K na pojedynczym GTX 1080. Na 2xGTX 1080 zwyczajnie nie mam pieniędzy, ale nie o to tu chodzi. Po co kupować coś w rodzaju hybrydy, projektu który się rozwija jeśli powiedzmy przeczekam 2 lata, raczej maksymalnie i kupię świetny produkt, zakładam GTX 1280/1280Ti który nie dość, że gierki które uwielbiam i mam ogromny sentyment, czyt. Wiedźmin 3, GTA V, ARMA 3 obsłuży bez problemu już w 4K@60FPS co najważniejsze na ULTRA, to jeszcze nowe gry w 4K będzie odpalał na wysokich ustawieniach.

I ciągłe płakanie o 4K, po co skoro już jednoznacznie ustalono że do tej rozdzielczości daleka droga.

Nie wiem skąd czerpiesz głupoty o tym jakoby 1440p miało być hybrydą, normalny następca 1080p, a to że rynek TV/RTV ominął tą rozdzielczość to było do przewidzenia, widać nie odróżniasz rozdzielczości PC/HDTV od rozdzielczości typowo pod PC, ale czego się spodziewać, po takiej dawce głupoty.

 

Ludzie nie lubią półśrodków. Jeśli coś jest ostre jak żyletka, a coś lekko sflaczałe to każdy to zauważy. Nie bez powodu patrząc na monitor 1080p w sklepie, czy u siebie w domu nie odczuwam większej frajdy, podniecenia, od tak standardowa jakość, nic fantastycznego. Za to krótka chwila z 4K i już jest zupełnie inna jakość, szczegółowość, zagęszczenie, ostrość, jednym słowem miód na serce. A patrząc na 1080p i 1440p miałem problem, żeby jednoznacznie powiedzieć, że ten monitor po prawej rzeczywiście ma większą rozdzielczość, tylko ze względu na to, że 1440p to zbyt mało w stosunku do 1080p i tego się nie przeskoczy.

 

Jak widać jednak lubią, używając żywej matematyki 1080p to tylko marny półśrodek względem 900p (1600x900 daje 1440000 Pixeli, 1920x1080 daje 2073600 Pixeli, a 2560x1440 daje 3686400 pixeli) tak więc jak mamy pobawić się w określanie jakiejś rozdzielczości półśrodkiem co jest bardzo zabawne i chore, to pięknie widać że to 1080p marnie wyszło, bawimy się dalej? :D

Bełkotu o tym że 1440p nie jest ostre nie będę nawet komentować, bo szkoda czasu.

 

GTX 1070 - karta bardzo dobra do 1080p, praktycznie wszystkie bajery nasze, ULTRA raczej też zagwarantowane, stałe 60fps bez problemu. W 1440p pojawiać się będą coraz większe problemy z mega wysokimi ustawieniami. Do 4K ta karta nie ma startu.

 

GTX 1080 - karta aż za dobra, OP do 1080p, bezsens, szkoda 3 tysięcy złotych. Do 1440p idealna, wszystkie bajery w górę, cieszymy się rozgrywką, ale czy jest sens inwestować w taką kartę dla średniej rozdziałki 1440p? Dla mnie do zastanowienia się, bo nie robi ona na mnie wrażenia. No i przychodzi elitarne 4K - o wysokich nie ma co gadać w topowych gierach, stałych 60fps też nie osiągniemy. Dopiero po zjechaniu do średnich ustawień możemy rozsądnie zastanawiać się nad stałymi 60fps, ale moje pytanie jest takie - po co wydawać horrendalne kwoty na takie zestawy, kupować kartę graficzną za 3000zł + jak i nie lepiej, bo bardziej wypasione opcje od czołowych producentów to już kwoty na granicy 3500zł, jeśli potem podłączam monitor i muszę co chwile kombinować, zniżać opcje, tutaj obniżyć, tutaj podwyższyć i nie mieć tak spokoju jakbym chciał..

 

A fakty są takie że na GTX 1070/980Ti ludki grają w 1440p po lekkim obniżeniu detali 60 FPS, a na GTX 1080 grają także w 1440p praktycznie na Ultra, w 60+ FPS, nie wspominając że każdy posiadać tych trzech kart, jak zada sobie trud aby ten Twój bełkot przeczytać, to tylko złapie pompę i będzie się zastanawiać gdzie takich specjalistów się szuka i czy świeca była potrzebna, dlatego dla własnego dobra zakończ te głupoty bo naraziłeś się już na ostrą śmieszność ;)

 

Mam też nadzieję że wiesz że w dalsze utarczki mnie nie wciągniesz, raz że zbyt mało wiedzy posiadasz abym chciał z Tobą na temat rozdzielczości rozmawiać, to jeszcze swoimi urojeniami rozwalasz autorowi temat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

to, że Tobie trafiła się słabsza sztuka nie oznacza, że wszystkie są takie... chyba, że problemem jest sam "overkloker"

 

Testowałem 3 sztuki, więc według swojego doświadczenia mogę powiedzieć, że te, które nie krzaczą w W3 powyżej 1500 MHz na rdzeniu, to właśnie te b. dobre sztuki. Możesz mieć inne doświadczenia, inne zdanie, nijak nie wpłynie to na moje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przerzuciłem "troszkę" 970-tek i jedna trafiła się taka, że 1500 nie było w jej zasięgu nawet w render test gpu-z (strix) + jedna, której problem sprawiał boost (po modyfikacji biosu trzymała 1.23 i 1530 bez problemu)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DisconnecT - nudne masz życie skoro tak wiele znaczą dla ciebie te cyferki :D Uważasz mnie za debila, okej, nie ma problemu , pamiętaj tylko, że to twoje ukochane 1440p wcale nie jest warte grzechu, bo względem 1080p wygląda nijak.

 

A 1080p i 1440p porównywałem na 27" monitorach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

skoro nie wyłapujesz zagęszczenia o 1/4 większego, to trudno - ja nic na to nie poradzę, dla mnie 27" w 1080p to mydło

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie znowu 1440p na 27" to takie 1080p na 24" - nic specjalnego. Dopiero na 27" 4K to odjechany widok.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

24"1080p to i tak 15% mniejsze zagęszczenie jak 27"1440p - jeden to zauważy, drugi nie... to tak jak np. z odczuciem hałasu karty graficznej - znam takich, którym ref 290 nie przeszkadza

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DisconnecT - nudne masz życie skoro tak wiele znaczą dla ciebie te cyferki :D Uważasz mnie za debila, okej, nie ma problemu , pamiętaj tylko, że to twoje ukochane 1440p wcale nie jest warte grzechu, bo względem 1080p wygląda nijak.

 

A 1080p i 1440p porównywałem na 27" monitorach.

 

Określanie czyjegoś życia mianem nudnego bo ma większa wiedzę to jednak domena Gimnazjum, niestety tutaj poklasku nie zyskasz, zbyt wysoki poziom, ja nadal uważam że Twoje 1080p jest niewarte poklasku do 900p mniejsza różnica jak do 1440p, gdybyś miał minimalnie większy poziom mógł bym się jeszcze z Tobą pobawić, ale szkoda czasu na płacze i kłamstwa, nie wspominając że nie mam w zwyczaju żadnej rozdzielczości określać crapem albo półśrodkiem, ale do pewnych rzeczy się dorasta, wtedy człowiek zrozumie że każda rozdzielczość ma swoje zastosowania ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jesteś toksyczny człowieku, bawić możesz się z kotem. Dyskusja zakończona;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Tyle teorii. A gdy idziesz miastem i neony dają 1100 nit zamiast 600-700 to różnica jest kosmiczna
    • Monitory qd oled w oknie 10% nie przekraczają 500 nitów, gdzie oledy od LG serii C w oknie 10% mają 700-800 nitów, więc sorry ale się nie zgadzam. Mam w domu DW (po 2 latach ten monitor jest wciąż w topce najbardziej ogarniętych hdr na monitorach) i C3 42 - ten drugi lepiej wypada w hdr (jasność w oknie 10% i większy ekran robią swoje). Co do  Cyberpunk to też obecnie gram w 4k i polecam te dwa mody i ustawienia (wklejam poniżej). Dzięki nim ta gry wygląda lepiej jak nigdy. I highly recommend Cyberpunk 2077 Nova LUT Mod (HDR variant under the Update section + Optional ENV File "Raster", even if you use PT in-game) + setting in-game HDR10PQ + Midpoint 3 + Max HDR Luminance 25% more than your actual display luminance in nits (e.g. 2.000 nits if you have a 1.500 nits TV) + Saturation 0. Then you can also install HD Reworked Project Mod for much better textures (Ultra Quality if you have 16GB VRAM, otherwise Balanced). Performance may take a small hit but you can recover it by just lowering both in-game Volumetric Clouds and Ambient Occlusion settings to Medium (with no noticeable differences).
    • To przy następnym wywaleniu sprawdzę. Jak nie mam internetu to w menadżerze urządzeń nie widać pozycji Intel i225 i w sumie to nic nie mogę zrobić z kartą wtedy.    win 11
    • Dzięki za odpowiedź Dirian i wyjaśnienie z tą obudową. W takim przypadku i po domiarach stwierdzam, że obudowa się zmieści - trochę na styk na szerokość, ale z przodu i z tyłu będzie luźno i przestronnie:) No właśnie - dylematy, dylematy. Chyba jednak skłaniałbym się do tego RTX 4060 Ti 16GB, bo jeśli dobrze rozumiem, to jest on nawet nieznacznie szybszy od RX 7700 XT - oczywiście za dopłatą:) Tylko zastanawiam się, którą konkretnie wersję, bo myślałem o tej https://proline.pl/gigabyte-geforce-rtx-4060-ti-gaming-oc-16gb-gddr6-dlss-3-gv-n406tgaming-oc-16gd-p8118871, ale widzę, że już niedostępna i pytanie czy brać inną - jeśli tak, jaką, czy czekać aż będą mieli dostawę - pytanie czy będą mieli na ten model czy to już wychodzi ze sprzedaży. Druga kwestia, czy decydując się na tego RTX 4060 Ti 16GB pozostałe komponenty można zostawić według tego co podesłał forskoczek20 i będzie się to wszystko razem ładnie zgrywało i działało w sposób optymalny? Ostatecznie chyba jednak będę sam to składał, żeby móc w pełni odczuć fun z nowego sprzętu i wrócić trochę do tych lat minionych, kiedy jako dziecko rozpakowywało się prezenty:) Stąd pytanie - czy coś należałoby dorzucić do tej listy zakupów i czy są jakieś dobre programy, żeby ogarnąć sterowniki, aktualizację BIOS itd., czy jednak najlepiej brać wszystko ze stron producentów i instalować ręcznie? 
    • https://www.itemfix.com/v?t=hrpf5c
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...