Skocz do zawartości
qjin

Cyberpunk 2077

Rekomendowane odpowiedzi

Mnie ta wiadomość akurat cieszy :D

To znaczy wiadomo że nie mogę się doczekać, ale widać że podchodzą do sprawy poważnie i nie chcą popełnić tych samych błędów co w przeszłości.

No i teraz to całkowicie zmienia sytuację związaną z wymaganiami i upgradem kompa, bo gdzieś w drugiej połowie roku mają przecież wyjść nowe GPU od AMD i Nvidii, więc to wszystko się ładnie zazębi ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To znaczy wiadomo że nie mogę się doczekać, ale widać że podchodzą do sprawy poważnie i nie chcą popełnić tych samych błędów co w przeszłości.

No i teraz to całkowicie zmienia sytuację związaną z wymaganiami i upgradem kompa, bo gdzieś w drugiej połowie roku mają przecież wyjść nowe GPU od AMD i Nvidii, więc to wszystko się ładnie zazębi ;)

 

U mnie bardziej natłok ciekawych gier w pierwszej połowie plus wypadalo by jednak już kupić nowego gamingowego lapka - akurat do września. (poza tym musi być tradycyjnie - poprzedniego kupowałem dla Wiedzmina 3 xD - a grałem w Factorio itp.)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najlepsze te pierniczenie głupot o "game is complete and playable" i się pytam gdzie wymagania sprzętowe. Czuję w kościach, że na obecnych sprzętach jest jak z Wiedźminem 3 przed premierą, gdzie na GTX 980Ti wyciągał ledwo 30fps! :E

Stąd pewnie te ekstra pół roku na optymalizację...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś musi być nie tak skoro drugi raz przekładają

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raczej przeczekanie żeby wyszły karty które to uciągną na sensownych detalach.

 

Tak, tak.

Będą czekać i nic nie robić :)

 

Już się zaczynają spamerskie teorie spiskowe.

Niech robią, świat się nie zawali.

(ale co ponarzekacie to wasze ;p )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No przypomnijcie sobie jak ta gra wyglądała na prezentacjach i na jakim kompie oni to uruchamiali - detale na pewno nie prezentowały poziomu Ultra, pamiętam dokładnie między innymi te rozmyte tekstury a to działało na RTX 2080Ti tak dla przypomnienia.

 

Wiadomo, że nie ma co snuć teorii spiskowych na zapas i jest to ogólnie lepsza decyzja niż wypuszczenie gry w kwietniu i łatanie jej do września by doprowadzić ją do stanu grywalności. :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To, że przełożą premierę było praktycznie pewne po tym jak o grze słuch zaginął. Swoją drogą ta data, 17 września, jakoś dziwnie znajoma :lol2:

Edytowane przez Kris194

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najlepsze te pierniczenie głupot o "game is complete and playable" i się pytam gdzie wymagania sprzętowe. Czuję w kościach, że na obecnych sprzętach jest jak z Wiedźminem 3 przed premierą, gdzie na GTX 980Ti wyciągał ledwo 30fps! :E

Stąd pewnie te ekstra pół roku na optymalizację...

Wiedźmin robił wrażenie grafiką, ta gra na tym co do tej pory pokazali nie robi.

Chyba, że optymalizacja jest konkretnie spierniczona.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Super pewnie dadza cyberpunka do nowych rtxow :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aż się za głowę złapałem jak się dowiedziałem o takim opóźnieniu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiedźmin robił wrażenie grafiką, ta gra na tym co do tej pory pokazali nie robi.

Chyba, że optymalizacja jest konkretnie spierniczona.

Dobrze wiedzieć że ktoś inny ma podobne odczucia

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cyberpunk pewnie ma problem z wydajnością głównie na konsolach. Wersja na PS4/X1 pewnie wygląda i działa jak crap. Nawet wersja PC tej gry szału nie robi a oświetlenie już w ogóle jest płaskie jak deska do krojenia...

 

niech lepiej dopracują grę tj.Wieśka niż wydać gniot,gdzie optymalizacja leży i kwiczy(RDR2,choć gniotem nie jest)

 

RDR 2 ma wysokie wymagania a nie, że jest źle zoptymalizowany ale jak ktoś oczekuje jakiejś porządnej wydajności na 5 letnim GPU ze średniej półki to co zrobić... Gra miała swoje błędy ale akurat optymalizacja nie była jednym z nich.

Edytowane przez Kris194

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No 5 miesięcy obsuwy,więc niech lepiej dopracują grę tj.Wieśka niż wydać gniot,gdzie optymalizacja leży i kwiczy(RDR2,choć gniotem nie jest)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Śmiesznie by było gdyby CDPR kiedykolwiek wyrobił się w terminie :E Plotki wewnątrz studia nie biorą się znikąd, widać że mają problemy, koncept gry pewnie zmieniany parokrotnie, budowanie gry od podstaw parokrotnie, potwierdza się plotka że długie produkcje (ponad 4 lata W3?) w CDPR są mocną kulą u nogi bo zespoły nie są całkowicie połączone i każdy robi coś losowo i później dopiero sklejają to "ducktapem", skleili pewnie i wyszło "o kurka, to nie działa". Januszex do bólu. Z jednej strony czekam aż powinie im się noga, bo jak na standardy w IT to oni sobie jaja robią (W3, W2, i teraz CP)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Azazell

Ja tam od początku byłem sceptycznie nastawiony do premiery .. Wiedziałem, że będzie obsuwa.. I tak jestem w 95% pewny, że CP będzie dopiero za rok ;). Albo pod koniec tego roku..

 

Dla mnie gra może wyjśc za rok.. I tak mam w co grać.. Może w końcu nadrobie DLC do wieśka :)

Edytowane przez Azazell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakie standardy w IT? :lol2: Gry EA? Gry Ubi? :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
koncept gry pewnie zmieniany parokrotnie, budowanie gry od podstaw parokrotnie, potwierdza się plotka że długie produkcje (ponad 4 lata W3?)

Nie widzę w tym nic niezwykłego.

 

Nawet wersja PC tej gry szału nie robi a oświetlenie już w ogóle jest płaskie jak deska do krojenia...

Kurde, zgadzam się!

 

PES, FIFA _ dużo ryzykują tym wrześniem

Nie pij tyle :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakie standardy w IT? :lol2: Gry EA? Gry Ubi? :lol2:

Jeśli mierzysz do bycia najlepszym deweloperem wśród IT, to należy chyba mieć jakieś standardy no chyba że mijanie się z prawdą, usuwanie zawartości z gry, przesuwanie premier i downgrade graficzny to standard wśród CDPR :E. Ubi swoją drogą zaliczyło bardzo dobry 2019 rok, nie było tak tragicznie.

Porównuj do studiów od Sony które zawsze trzymało poziom w przypadku exów.

Edytowane przez TheMr.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Fajnie że podałeś typ tego extendera bo z samego zdjęcia tak niskiej jakości trudno wywnioskować. Po zdjęciu wnioskuje, że to ten typ:  https://rbline.pl/extender-poe-pft1320-36882.html    Ogólnie standardowe extendery jakie stosowałem tylko regenerują sygnał nie są switchami czyli nie rozdzielają sygnału. W tym przypadku mają w sobie switcha. Różnica jest taka, że takie urządzenie różni się od typowego switcha tym, że zasilanie bierze z "głównego" switcha POE i nie ma w sobie zasilacza (taka jest idea extenderów). Na stronie którą podlinkowałem jest informacja  Więc można łączyć kaskadowo. Jednak pod 1 wyjście nie podłączysz kolejnych 2 extenderów (pewnie sam z siebie pobiera na własne działanie ze 2 W) oraz 3 kamer (każda np. po 6W). Czyli nie możesz podłączyć urządzeń które w sumie biorą więcej niż 15W.            
    • Zamierzam przesiąść się z 13700kf na 7800x3d i chciałbym go posadzić na dobrej płycie x670e w rozsądnej cenie, używki też wchodzą w grę, co byście polecili powiedzmy do kwoty 1500 zł im mniej tym lepiej. Nie śledziłem wątku więc nie wiem jak z oc wyżej wymienionego procka, mocno wyżyłowany czy mozna go jeszcze podkręcić czy lepiej iść w UV? 
    • Pograłem trochę dłużej: VRR i flickering - testowałem Squad gdzie FPS potrafi spaść ze 120 do 80 FPS, zero mignięć. Zablokowałem FPSy w grze na 45 i też zero mignięć. Może są różne wersje softu albo nie wiem, u mnie nie miga. Smużenie - jak się przypatrzy to jest przy ciemnych kolorach, ale na pewno nie taka skala jak kiedyś to było na VA. Na tyle małe że podczas normalnej rozgrywki tego nie widać i można pominąć (pewnie subiektywne, ale mi nie przeszkadza).  Skalibrowałem HDR w apce do kalibracji W11, wyszło że max jasnosć to jakieś 1150-1200 nitów. Wieczorem w grach robi serio robotę, pierwszy raz musiałem oczy zmrużyć patrząc na płomienie  Jakieś tam VA/IPS z podświetleniem krawędziowym to w ogóle nie ma jak porównać... Oby więcej takich Miniled powstawało, pakować więcej stref, walczyć ze smużeniem i super sprzęt za nieduże pieniądze.  Dziwi mnie trochę polityka cenowa, kupiłem go za 1600 zł, a na drugi dzień kosztował 2000 zł, potem 1800 zł i znowu 2000 zł. Chyba malutko ich produkują że ceny tak skaczą. Za 2k to nie warto zdecydowanie, 1600 adekwatna cena.
    • Też tak myślę, jeśli te przecieki są prawdziwe i jeśli dalej pogłębią dysproporcję między serią 90 a 80 to nie zdziwię się jak 5080 będzie miało wydajność ledwie 4090 i 16GB, to by oznaczało, że ten ostatni w ogóle nie stanieje i pozostałby na pułapie 6-7k PLN. To byłoby bardzo w stylu NV
    • Gra do niczego nie zmusza, przynajmniej grając w demko nie czułem takiej potrzeby, aby parować cały czas, częściej używałem uników.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...