Skocz do zawartości

joloxx9

Forumowicze
  • Liczba zawartości

    6985
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    2

Odpowiedzi dodane przez joloxx9


  1. 6 godzin temu, Sheenek napisał:

    Zalosne porownanie. Do resteuracji idziesz zjesc, a czy glownym celem CP byla zabawa/symulacja tlumu? Gdybys tylko w tym celu kupil gre to pewnie, mozna by bylo byc zawiedzionym.

    Rozumiesz czy wyjasniac dalej?

    Tak głównym celem cyberpunka była zabawa i średnio wyszła masz rację. A żałosne to są te wypociny i próba obrony półproduktu, który wcisnęli ludziom.

     

    BTW odnośnie mojego "zalosnego" porównania, jak i ten nieszczęsny kucharz tak i Redzi dostali kasę dokładnie na ten elwmwnt:

    https://www.google.com/amp/s/www.gry-online.pl/S013-amp.asp%3fID=126894

    No ale tak bijmy pokłony bo były chęci. EOT

     


  2. 10 minut temu, ditmd napisał:

    Skoro nie mogli zrobić symulacji wielkiego miasta, to mogli zrobić mniejsze, zapełnić go npcami z rutynami, pootwierać wnętrza, dać graczom coś do roboty poza misjami, zrobić randomowe eventy, sprawić ze miasto będzie żyło. Gry sprzed 20 lat mają działające systemy metra, policji i paramedyków, a tutaj się tego nie dało zrobić?

    W sensie chcialbys produktu, ktory od poczatku do konca byl przemyslany i dobrze zrobiony? Sorry szukaj dalej :E

    23 minuty temu, Sheenek napisał:

     redzi przynajmniej chcieli zrobic cos nowego co symuluje ludzi w wielkim miescie. A ze nie do konca wyszlo to trudno

     

    Czyli teraz placimy za checi a nie finalny produkt? Poszedlbym z tym dalej, np. sprzedaz spalonego/zepsutego/ochydnego zarcia w restauracji bo w koncu "kucharz chcial zrobic cos nowego" :E 

     

     


  3. 41 minut temu, Reddzik napisał:

    Może ja dodam swoje 4 litery do tematu CPU i BF.
    Może to stare czasy, ale BF3 ogrywałem na i3-2100 i było ok, nie było takich dropów, ale potem zakosztowałem BF4, i tam były spore problemy, dropiło na dużych mapach, dostałem w prezencie i5-3570k (nigdy go nie podkręciłem bo miałem płytę bez OC) i nagle 4/4 pomógł tam gdzie i3 miał cyrki i problemy- ogrywałem to na gtx 670/gtx 780ti. Długo go miałem i szło na spokojnie grać, BF1 ogrywałem na Xeonie, Ryzen 3600 w BF5 nawet dawał radę, choć długo nie grałem, bo testowałem tylko przez jakiś czas. Zaś beta BF2042 to była katorga, strasznie słabo działało, nie wiem czy teraz było by lepiej- ale to zaraz nie musi być wina procka, tu już też grafa może nie dawać rady.
    Od zawsze cpu w BF robi robotę, to nie cod, gdzie mamy 6na6 i nic się "nie dzieje". Nawet do 60fps wymagane jest solidne cpu.

    Do BF3 dokupilem ssd bo loadingi byly ultra dlugie, do BF4 natomiast 4 jajowy byl juz nader wskazany, na 2 rdzeniach ciezko bylo o 60FPS, przypominam ze byl to rok 2013! 

    • Upvote 1

  4. 53 minuty temu, SebastianFM napisał:

    Nie, nic nie wyjaśniła. Nie wiem czemu tak uważasz i czemu nie możesz tego ująć w jednym zdaniu swoimi słowami. Ja się nie będę domyślać o co ci chodzi.

    Ja do niczego nie piję. Nie odbieraj tego w ten sposób. Zapytałem o to, co według ciebie znaczy pełne RT, ponieważ ktoś tu definiował pełne RT jako takie bez odszumiania i z kaustyką, czyli puszczaniem setek czy tysięcy promieni na piksel. Czy to w Cyberpunk 2077 ty uważasz za pełne śledzenie promieni, skoro za jego pomocą są obliczane wszystkie składowe oświetlenia?

    @Kynareth, Ada ma 2 razy wydajniejsze rdzenie RT niż Ampere ale weź jeszcze pod uwagę, że one też pracują na wyższej częstotliwości.

    Chyba nie zrozumiales mojego posta :) Nie pisalem do Ciebie, tylko uzylem go jako odpowiedzi do tego co wypisuje @Kynareth

    Teraz jak patrze to rzeczywiscie formatowanie pozostawia wiele do zyczenia :E  Troche to przerobilem i powinno miec wiecej sensu :)

    • Upvote 1

  5. 1 godzinę temu, Kynareth napisał:

    ATI Match Graphics Ultra Pro w 1993 było kartą na 800nm, z zegarem 10 MHz, 1 MB RAM i 0,08 GB/s.

    ATI Rage 128 GL w 1998 było kartą na 250nm, z zegarem 103 MHz, 3x więcej rdzeni, 32 MB RAM i 1,65 GB/s.

    Zamiast 0,01 gigapixela/s, było 0,21 gigapixela/s - 21x wzrost w 5 lat, poza tym 10x wyższa częstotliwość na 3x więcej rdzeni, 20,6x wyższa przepustowość i 32x więcej pamięci. Można śmiało rzec, że realna wydajność kart podwajała się co rok albo 12 miesięcy. Tymczasem, porównaj sobie to do RTX 2070 vs 4070. 12nm vs 4nm, 1620 vs 2500 MHz (54,3% wyższa), 36 vs 56 RT cores, 288 vs 224 Tensor cores, 8 vs 10 GB VRAM (tylko 25% większa), 448 vs 424 GB/s (no to jest trochę głupie), 100 vs 200 Gigapixeli/s. Tak więc ok, 4070 będzie wydajniejsze od 2070 ale o ile? Dwa, dwa i pół raza po 5 latach? Widzicie różnicę między początkami ery 3D, a współczesną popularyzacją RT? Wtedy odpowiednik GTXa 1650 (czy nawet 1630) był wydajniejszy od topu sprzed 5 lat. A jak ma się 1650 do 1080 Ti lub Titan XP?

    RT ledwo działa, a ciśnie się to w części gier. No i konsole są tak mega-słabe w RT, że będą blokować rozwój, który i tak byłby słaby, jak pokazałem wyżej. Ogólnie rozwój gier uległ pogorszeniu. Niestety. Jednym z powodów są właśnie za słabe i za drogie karty. A Jensen Huang nawet ogłasza, że czasy tanienia kart się skończyły. No to jak tak, to znaczy, że jego wizje pełnego i popularnego RT oraz gier będących symulacjami się kompletnie nie sprawdzą. Bo nikt nie będzie płacić 5 miliardów złotych za kartę milion razy szybszą od RTX 3090 żeby to pociągnąć.

    Bede sie posilkowac ta odpowiedzia bo Cie @SebastianFM ladnie wyjasnil:

    Godzinę temu, SebastianFM napisał:

    Ale tendencyjne to twoje porównanie Turing vs Ada. Pomijając nawet to, że nie ma RTX 4070 a jeżeli chodziło ci o słabszego RTX 4080 to ma on 12 GB pamięci. Nieważne. Można równie dobrze porównać RTX 2080 z RTX 4080 16 GB.

    Częstotliwość zwiększyła się o około 50%. Dlaczego nie bierzesz pod uwagę ilości jednostek? RTX 4080 ma prawie 5 razy większą wydajność w obliczeniach.

    Porównujesz ilość rdzeni RT. Bez sensu. Nie liczy się tylko ich ilość ponieważ w Ada są już 5 czy 6 razy wydajniejsze niż w Turing.

    Z drugiej strony @Kynareth nie wiem o co Ci dokladnie chodzi, przeciez napisalem wyraznie, ze minie jeszcze sporo czasu nim typowa karta ze sredniej polki bedzie spokojnie obslugiwac RT wiec do czego Ty wlasciwie pijesz? :E


  6. Nie zeby cos, ale jestesmy na samym poczatku RT, chcialbym tylko przypomniec jak wygladaly pierwsze gry 3D a ile sie zmienilo w ciagu zaledwie paru lat. Co prawda wtedy przeskok jakosci potrafil byc gigantyczny z generacji na generacje, ale przypomne, ze jeszcze 5lat temu moglismy tylko pomarzyc o jakimkolwiek RT w grach. Do tego obecna generacja konsol tez juz to obsluguje wiec developerzy maja okazje by sie nauczyc optymalizacji. Mozliwe, ze nastepna generacja konsol juz natywnie bedzie to miec w wiekszosci gier, a co z a tym idzie nawet sredniej jakosci grafa bedzie to bez wielkich problemow ogarniac.


  7. 13 godzin temu, Kyle_PL napisał:

    Pewnie tak. Zwykle na przeciętnym CPU chodziły te BF normalnie.

    Tak tak, szczeglnie gdy 80% spoleczenstwa siedzialo na 2 jajcach BF do przyjemnej gry wymagal 4, gdy przecietny CPU zaczal byc 4 rdzeniowcem to BF spokojnie potrafil na 8 rdzeniach siedzeic, tak wiec:

    13 godzin temu, dawidoxx napisał:

    Po raz kolejny wtracasz swoje  3 grosze temacie w którym nie masz  bladego pojęcia :D 

    • Like 1
    • Thanks 1

  8. 15 godzin temu, Markus_TVN napisał:

    Właśnie pertraktuje zakup pokoparkowego   RTX 3090    , chcę dać maksymalnie  3900zł  ale  kolega się ciągle zastanawia .  Z tego co widziałem w  low detalach  1440p  ciągle trzyma   120klatek a to mnie wystarczy .

    3090 do 8700k i granie w wysokich klatkach? Cool story.


  9. 4 godziny temu, hubio napisał:

     

    Spadki owszem były np. w Nowym Jorku, ale to była wina CPU jakie wtedy miałem czyli i3-12100. Zależy też o jakiej aktualizacji piszemy. Ja piszę o wersji z czerwca. Bo jak po porównujesz np. z premiery to widziałem, że było dużo spadków.

    Porównuje z update 9 bo na tym ostatnio grałem dużo 

     


  10. Godzinę temu, SebastianFM napisał:

    Obejrzyj sobie filmy Digital Foundry, w których sprawdzają i porównują działanie gier na konsolach i PC, to zmienisz zdanie.

    Ogladam i nie wychodzi im, zeby gry dzialaly zle na konsolach.

    5 minut temu, Kynareth napisał:

    Nigdy w życiu nie kupiłem używanej karty i nie planuję kupić innej niż nowa.

    Wiemy, dostaniesz swoja w grudniu z juesej.


  11. 7 godzin temu, Kynareth napisał:

    Niektórzy na forum piszą, że 3060 Ti nie starcza do 1440p. No to jak konsole obecnej generacji starczają do 1440p, skoro są nieco słabsze (poza Series S)? 

     

    Bo moc konsoli != mocy PC w skali 1 do jednego, pomijajac oczywiscie to, ze konsole maja inne ustawienia detali etc.


  12. 15 godzin temu, aureumchaos napisał:

    image.png.6784dcb2708c09f395807469c8bbc37e.png

    Mozna samemu policzyc lub wlaczyc indykator ktory Ci pokaze aktualna uzywana przez dlss rozdzialke.. 

    Jak sie komus chce to pewnie ze mozna :D  Jak widac rozne pierdoly wypisuja w wielu miejscach i szkoda, ze taka NV nie ma tego gdzies na swojej stronie.

    6 godzin temu, hubio napisał:

    Jak nie starcza jak starcza ? :)  W 1440p w MFS na 3060Ti miałem wszystko ustawione na max. Ustawienia ULTRA i miałem 60fps.

    No no a smoki tam byly? 3080 ma spadki ponizej 40 w tej grze i to nie na ultra :E 

    • Upvote 1

  13. 1 minutę temu, Kynareth napisał:

    Ja nie przepadam za DLSS ale może dopracują w grach w przyszłości. Kupować dziś 3060 Ti czy czekać na 3 listopada co AMD pokaże?

    Przeciez ktos tam Ci ma z juesej przywiezc 3080 przez swieta o ile mnie pamiec nie myli?

    • Haha 3

  14. 2 godziny temu, caleb59 napisał:

    Oczywiście, że się powtórzy, jak to przy nowym sprzęcie. Wczoraj czytałem, że PS5 dostanie nowy CPU i ogólnie przełoży się to pozytywnie na mniejsze temperatury i to jest dopiero plucie w twarz bo płytę w PC to sobie możesz sprzedać, wymienić a w PS5 nic nie zaingerujesz.

    Ty tak na serio? 

×
×
  • Dodaj nową pozycję...