Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Thimedes

Forumowicze
  • Liczba zawartości

    3274
  • Rejestracja

Odpowiedzi dodane przez Thimedes


  1. Tez nie wierze w samo gpu 12 Tf bo zawsze podaja calosc

    Nie podawali całości w 8-generacji. PS4 ma GPU 1.84 TF, a XBO 1.31 TF. CPU jest osobno. Jednak np. dla PS2 rzeczywiście Sony podawało CPU+GPU 6.2 GF.

     

    Teoretyczna moc obliczeniowa, dzięki 256-bitowym instrukcjom AVX-2 Zen 2 CPU to:

    32 (flopsów na cykl na rdzeń) x 3.6 GHz (?) x 8 rdzeni = 921.6 GF.


  2. Kupujący 2080 Ti utwierdzają Nvidię w przekonaniu, że wysoka półka za 6000+ zł to dobry pomysł. Ja nie zmieniam swojego 1060, bo nie chcę głosować portfelem za wysokimi cenami. Upgrade peceta powinien kosztować tyle samo i być lepszy, a nie kosztować więcej by był lepszy. Gdyby ceny rosły od GeForce 256 jak ostatnio to dzisiaj płacilibyśmy za kartę jak za mieszkanie.

     

    XSX będzie zdecydowanie opłacalniejszy ale ja zostaję przy pecetach, tyle że z wymianą karty poczekam na coś sensownego, np 6600 XT za $249.


  3. iGPU zajmują krzem, który mógłby być lepiej wykorzystany. Intel zmniejszał rozmiar krzemu i do tego wciskał na siłę iGPU, przez co 7700K wciąż miał 4 rdzenie, 10 lat po Q6600. 10900K dostanie 10/20, czyli jakiś postęp jest. 10nm umożliwi nawet 20 rdzeni w mainstreamie (i być może 60 lub 80 wątków). AMD wymusi na Intelu podwajanie liczby rdzeni. Xeon Scalable już to pokazuje ale ceny są masakryczne i muszą zmaleć.

     

    nowa linia Xeon Scalable wydaje się być 42% opłacalniejsza od poprzedniej ale EPYC 2 i tak wygrywa

    2nd-Gen-Xeon-Scalable-SKU-Stack.jpg


  4. Jeśli chcecie lepszych cen to nie kupujcie nieopłacalnych produktów. Ci, którzy kupują za drogie proce, ciągną ceny w górę.

     

    Jim Keller twierdzi, że możemy spodziewać się podwajania wydajności procy co 2 lata. Mówi też o 100x wzroście szybkości w 10-15 lat.

     

    Każdy rząd wielkości otwiera nowe możliwości dla komputerów. Np. obecnie używając GPU, da się podwajać rozdzielczość lub klatkarz dowolnego filmu ale takie wnioskowanie maszynowe zajmuje sporo czasu (tym dłużej im wyższa rozdzielczość i więcej klatek/s) i im szybsza karta tym lepiej. Więcej informacji tutaj, tutaj i tutaj.

     

    9-ta generacja konsol powinna przynieść poprawę w SI i fizyce w grach, dzięki Zen 2. Można wyobrażać sobie co dałoby się zrobić, gdyby 10-ta dostała 10x szybsze CPU od tych w tegorocznych konsolach. Half-Life 2 w 2004 umożliwił graczom bawienie się przedmiotami w grze, które wcześniej zwykły być nieinteraktywne. Garry's Mod do dzisiaj jest używany do tworzenia różnych śmiesznych sytuacji.

     

    Comet Lake prawie nic nie wniesie. Najlepiej wstrzymać się z kupnem CPU do Zen 4 i DDR5.


  5. Może tym razem dopracowali tak architekturę by dobrze wykorzystać tę specyfikację. Jeżeli XSX będzie 25% szybszy od 5700XT to przydałaby się flagowa karta 100% szybsza, taka prawdziwa karta do 4K 60fps. W 2017 XOX miał 6 TF, a Vega 64 12 TF. Czas najwyższy skoczyć z przepustowością VRAM, bo całe dziesięciolecie się słabo zmieniała (HD 5870 miał 153.6 GB/s, a GTX 580 192.4 GB/s), a Radeon VII nie umiał jej wykorzystać w grach z jakiegoś powodu.


  6. Skłaniam się ku hipotezie, że Xbox i Xbox 360 mają niższą wydajność niż tam napisano.

     

    Od dłuższego czasu podejrzewałem 12 teraflops, bo jest to zdecydowanie lepszym marketingowym punktem niż np 10,4. Ważne dla nich było by tę teoretyczną wartość z XOX przynajmniej podwoić, w końcu tak mocno reklamowali 6 tflops. Kolejne generacje muszą zapewnić odpowiedni wzrost wydajności, bo inaczej nie mają sensu. Tylko PCMR są gotowi zapłacić 75% więcej za 35% więcej fps po 2-3 latach. Konsolowcy wciąż oczekują sporych popraw opłacalności, np między XOX i XSX.


  7. Gry dziś pod względem rozgrywki stoją w miejscu. AAA nawet cofają się w rozwoju. Jedynie grafika ciągle się rozwija. Tylko czy ktoś oprócz napalonych Januszy gamingu będzie się jarał samą grafiką z gry? Chyba nie. Oczywiście postęp jest ważny, ale twój argument nie pasuje do obecnych czasów.

    Gry AAA stoją w miejscu, a czasem się nawet cofają pod względem rozgrywki przez trzy powody:

    1. twórcy gier tak decydują, sprzedaje się to dobrze, więc po co robić inaczej

    2. dzięki Internetowi można łatwo zarabiać na mikrotransakcjach, DLC i wydawać niedopracowane produkty (patrz No Man's Sky)

    3. postęp sprzętu jest gorszy niż wcześniej, co też ma wpływ na innowacyjność

     

    Jak dla mnie, zmieszczenie wszystkiego czego chcę na samych SSD nie jest opłacalne, bo mam za dużo danych, a SSD są wciąż zbyt drogie.


  8. A jedyny postęp jaki jest... to taki, że mogę sobie wepchać...4k, czy 8k, które zajmie tyyyyyle miejsca, że szkoda gadać, a do TV to lupą podchodź.

    Oczywiście pominę, że pojawiły się usługi VoD, że bawienie się w coś takiego jest po prostu zbędne :P

     

    Takie są przynajmniej, moje spostrzeżenia :)

    Z wszystkich rzeczy ostatnich lat, to najbardziej szanuję chyba to SSD :P

    Najważniejsza zmiana z ostatnich dziesięciu lat to ta, że wszyscy zaangażowani w pecety przenieśli się z HDD na SSD + HDD. W tym dziesięcioleciu podejrzewam, że przeniesiemy się na samo SSD (konsole uczynią to już w tym roku).

     

    Rzeczywiście filmy 4K czy 8K nie mają aż takiego znaczenia dla przeciętnego telewizora (mają dla dużego porządnego) ale jeśli przyszłość to sprzęty noszone takie jak okulary AR, soczewki kontaktowe AR czy headsety VR, to 8K, a nawet 16K będzie wręcz niezbędne. Poza tym, nagrywając film w 8K, możesz wyciągnąć z niego pojedyncze klatki i traktować jako wysokiej jakości zdjęcia. Z 1080p już tak nie zrobisz, szczególnie gdy chce się wyciąć fragment. Screenshoty z gier w 1080p na dużym ekranie 2160p wyglądają niewyraźnie i przeszkadza aliasing. Xbox One S nadaje się tylko do grania na nie za dużym telewizorze siedząc nie za blisko.

     

    Kojarzycie Nvidia Ansel? Gdy kiedyś w sprzedaży będą VR-sety z dwoma wyświetlaczami 16K, to potrzeba będzie daleko szybszych GPU do liczenia tego co powinno się w nich pokazywać. Motorola DynaTAC za $3995 (obecnie ponad $10K) w 1984 ważyła 790g i miała wyświetlacz mieszczący tylko jeden numer. Obecne smartfony są cienkie, ładne, potrafią drastycznie więcej i mają wyświetlacze z kilkoma milionami pikseli. Z czasem HMD staną się smukłe, lekkie, stylowe, wyraźne i z interfejsem mózg-komputer. Do tego niezbędne będą procesory na zupełnie innym poziomie niż teraźniejsze.

     

    Gdy w 2010 wyobrażałem sobie Internet roku 2030 (zainspirowany książkami), to był on inny od tego co znamy - trójwymiarowy zamiast dwuwymiarowy (naturalny rozwój, jak gry z 2D w 1990 do 3D w 2000). Miałem nadzieję, że za 20 lat "strony" www będą miejscami, które odwiedzamy w trójwymiarowej przestrzeni VR lub AR. Teraz, wiedząc jak mały postęp zaliczyły pecety przez 10 lat (zwykły CPU ma 2x rdzeni i 2x wydajność na rdzeń), nie sądzę, by rzeczywiście było aż tak za kolejne 10 lat ale 20 lat już to prawdopodobne.

     

    Tak jak smartfony i smartwatche otworzyły zupełnie nowe możliwości robienia czegoś on-the-go, to head mounted displays (najlepiej z brain computer interface) otworzą możliwość wchodzenia w worldwide web oraz w gry. I tu wymaganie procesorów graficznych rzędy wielkości szybszych od 20X0. Aktualnie kroki ku temu są podejmowane: WebVR, Mozilla Reality, Chrome Experiments, Microsoft HoloLens, Half-Life Alyx.

     

    I tak, hopes, byłbym zadowolony gdyby postęp był dużo większy. Cały świat by na tym korzystał. Mielibyśmy więcej pieniędzy, produkty stawały by się tańsze, stopniowo dłuższy czas wolny, lepsza medycyna. Obecnie czekanie 3 lata by zamiast procka 6/6 4.3 GHz dostać 6/12 4.8 GHz z tym samym IPC i wyższym TDP nie jest fajne. Preferowałem gdy przez 3 lata przechodziliśmy od Athlona (Argon) 600 MHz do Athlona (Thoroughbred) 2000 MHz, który miał wyraźnie lepsze IPC i kosztował połowę ceny. Irytuje mnie, że nie ma dla mnie CPU, które mógłbym nowe kupić. Gdybym wymienił 6/12 na 12/24 to i tak software nie potrafiłby tego użyć, czyli po co?


  9. Zależy dla kogo. Jeśli chciałeś kupić PC na lata a później po dwóch latach dowiadujesz się że twój PC jest prawie nic nie warty to bardzo kiepsko.

     

    Tutaj raczej w 90 procentach oczekujemy rozgrywki na wyższym poziomie więc jestem prawie pewny że zdecydowana większość ma więcej niż 4 rdzenióf ;)

    Tak, są osoby niezadowolone z lepszych tańszych podzespołów, bo ich kompy stają się przez to coraz bardziej przestarzałe. Ja w przeciwieństwie, jestem bardzo zadowolony, gdy widzę zmniejszające się ceny! Ryzen 1600 AF kosztuje 1/5 z tego ile zapłaciłem w 2016 za i7-6800K, co jest pozytywne, zero negatywnych emocji.

     

    Gdyby producenci myśleli jak niektórzy wściekli, że 2070S jest lepsze od 2070, a kosztuje tyle samo, to nie byłoby postępu albo byłby bardzo powolny.

    Bylibyście zadowoleni, gdyby Pac-Man, Mission Asteroid, Zork: The Great Underground Empire, Fishing Derby czy Berzerk były grami nadal aktualnymi? Bo są osoby, którym nie chce się wymieniać komputerów? Korzystalibyśmy z 32 kB RAM i procesorów 8 MHz. Globalna gospodarka byłaby 3-krotnie mniejsza. Telefony komórkowe mieliby tylko najbogatsi, a tablet czy Spot Mini byłyby rzeczami z książek sci-fi.


  10. W 2013 Microsoft (Don Mattrick) próbował wydać konsole uniwersalną multimedialną i wyszło tak, że jest daleko w tyle za Sony (którego też nie lubię za cenzurę i virtue signaling). Tym razem Microsoft (Phil Spencer) chce zaoferować po prostu dobry sprzęt do grania. Poszedł już w tym kierunku z Xboxem One X.

     

    d42.jpg


  11. Jak pisał DjXbeat, przy 4K dla kart takich jak 2070S czy 5700 XT, proce jak 1600 AF czy 9600KF są wystarczające i nie ma różnicy pomiędzy nimi, a 9700K czy 3800X. Posiadacze monitorów 144 czy 165 Hz powinni jak najbardziej zaopatrzyć się właśnie w (podkręcone) 9700K, 9900K czy 3800X, bo wtedy różnica owszem jest, jeśli karta graficzna wyrabia (2080 Ti, Titan RTX).


  12. GeForce 2 w 2000 roku względem GeForce 1 był ponad dwukrotnie szybszy w liczeniu tekseli (czyli najmniejszych elementów tekstur), po 9 miesiącach. Nie było by nic dziwnego w nowej serii będącej dwukrotnie lub ponad dwukrotnie szybszej w trejsowaniu promieni, po 24 miesiącach.

    q6mAQTToK6fezLSNcw3s2m-650-80.gif


  13. Najpopularniejsze gry jak FIFA czy CoD nie zasługują na 60$, bo producenci chcą by później dokupywać jakieś DLC albo lootboxy. Żądanie pełnej ceny za produkt do którego trzeba co miesiąc coś dokupywać powinno być karalne. Akurat RDR2 jest dużą dopracowaną grą i moim zdaniem wartą swojej ceny.


  14. 1600 AF jest obecnie w 100% wystarczający do 60 klatek/s, tylko do monitorów 100Hz+ potrzeba lepszych CPU

     

    podejrzewam, że w bliskiej przyszłości monitory z lepszym refresh rate staną się popularniejsze

     

    ja zmieniłem monitor 1680x1050 60Hz na 2560x1440 60Hz na 3840x2160 HDR 60Hz i kolejny planuję nie 5K, tylko wciąż 4K ale 144Hz z jeszcze lepszymi kolorami i kontrastem


  15.  

    Localray, ciekawe co z tego wyjdzie, bo jeśli software RT ma być realizowany z lepszymi rezultatami jak u nvidii przy rdzeniach od RT to zapowiada się na rewolucję.

     

     

    Takie rezultaty na mobilnym GTX maxq 1080

    Red Gaming Tech to ten kanał, który przynudza i trzeba go na prędkości przynajmniej 1.5x oglądać

     

    nie mam pojęcia jak będzie z ray-tracingiem ale Jensen Huang twierdził, że firmy będą musiały dostarczyć 100x szybszego sprzętu w 10 lat, więc może nawet co 1.5 roku będzie podwajać się szybkość kart

     

    do pełnego fotorealizmu (wciąż bez przekonującej fizyki czy faktycznie inteligentnej SI) potrzeba przynajmniej 10 000x szybszych sprzętów, więc przydałoby się nabierać speeda, chyba nie chcemy czekać na to 50+ lat

     

    jak pisałem, obstawiam 100% szybszy ray-tracing od 20X0 w 30X0 ale może będzie 130% czy coś takiego

     

    Quake II (gra z 1997) w 4K z RT ON działa na 2080 Ti w 20 klatkach/s, co jest totalną żenadą i trzeba jak najszybciej ten wynik znacznie poprawić

     

    są już monitory 1920x1080 360Hz oraz 3840x2160 165Hz, a bardzo ubogi ray-tracing w grach taking jak SotTR nie osiąga nawet 2160p 60fps, ja szczerze pisząc nie wiem skąd weźmiemy karty do grania w bardziej zaawansowane gry z lepszym ray-tracingiem i do tego w wyższej rozdzielczości i więcej klatek niż dotychczas


  16. moje zdanie:

     

    dzisiaj do gier wystarczy jeszcze CPU 4/8 (chyba że się streamuje czy nagrywa, wtedy 6/12)

     

    za 2 lata będzie potrzebne 8/16 (10/20 do streamowania czy nagrywania) ale wtedy będzie już Zen 4 i to jego będzie opłacało się kupić

     

    za 5 lat może być potrzebne aż 16/32 (nawet więcej do streamowania czy nagrywania), szczególnie że powszechniejsze będą monitory z refresh rate powyżej 60 Hz

     

    a Intel w 2020 znów odgrzewa Skylake, nuda... ale w Q3 albo Q4 będzie Zen 3, ciekawszy od Comet Lake (10900K pobiera niedopuszczalne ilości prądu jak na 10/20)

     

    mam nadzieję, że wraz z Zen 4, AMD uczyni 16 i 12 rdzeniowce tym czym Zen uczynił 8 i 6 rdzeniowce (Ryzen 7 16, Ryzen 5 12, Ryzen 3 8)


  17. Mam procesor 6/12 od 2016, więc wiem o tym, że lepiej mieć 6/12 niż 4/4, to oczywiste. Ale przy wyłączonych programach w tle, 4/8 wciąż pozwala na wygodne granie w 60 klatkach/s i więcej, mimo że Ryzen 1700X wyszedł w marcu 2017, czyli prawie 3 lata temu, a 8-rdzeniowy 5960X w 2014. Gdy ktoś nagrywa czy streamuje to już potrzeba więcej niż 4/8 ale większość nie nagrywa i nie streamuje. Kiedyś po 3 latach były już gry potrafiące zrobić dobry użytek z procesorów, a dzisiaj nie ma. W sprzedaży za 18 tys. zł jest 64 rdzenie 128 wątków, czego do 99.99% oprogramowania nie ma jak w pełni użyć. W 2010 narzekano, że Starcraft II potrafi tylko 2 rdzenie użyć, a obecnie wciąż wychodzą gry na 4 rdzenie, mimo że maksymalna ilość rdzeni w pecetach pomiędzy 2010, a 2020 wzrosła nie z 2 do 4, tylko z 6 do 64.


  18. Nawet jeżeli PS5 będzie 10x szybsze od PS4, to przy 4x wyższej rozdzielczości i 2x więcej klatek/sekundę (1080p30 -> 2160p60) zostanie tylko 2x (10/(2.5x2)) szybkości dla podniesienia jakości grafy. Jeżeli będzie mniej niż 10x szybsze to problem jeszcze większy. Dlatego bardzo trudno będzie przynieść natywne 4K, 60fps i do tego sporo lepszą grafę. W mojej ocenie, sporo gier będzie działać w natywnym 4K 30fps albo udawanym 4K 45-60fps. Jeżeli po jakimś czasie wyjdzie PS5 Pro, to rzeczywiście uciągnie każdą grę w natywnym 4K 60fps, a niektóre nawet w 4K 120fps lub w 8K.

     

    SSD dużo przyspieszy ładowanie wszystkiego z dysku, obecnie wczytywania trwają za długo, marnując czas gracza.

     

    Dla mnie niestety 30 klatek/s to za mało ale karty do 4K60 będą drogie jeszcze przez jakiś czas. Monitor 4K60 kosztuje 999 zł, karta 4999 zł.


  19. Problem w tym, że średni segment się przesunął. W 2016 był to RX 480 i GTX 1060 za $200-250. W 2019 RX 5700 XT i 2060 SUPER za $400.

     

    Winę ponoszą właściciele kopalń kryptowalut oraz gracze kupujący karty po zawyżonych cenach (czyli każdy kto zakupił Turinga).


  20. RTX 2080 Super troszeczkę szybszy od GTX 1080 ti ??? XDD

     

    No bez jaj chłopie na tej twojej i5 6600k może i tak, ale z normalnym prockiem do gier RTX jest DUŻO szybszy od GTX 1080 ti, 2070 Super jest na równi.

     

    Na co komu te 3GB Vramu? W 1440p mało która gra alokuje więcej niż 6GB.

     

    No tylko troszeczkę, bo zaledwie 11%. Wychowałem się w czasach, gdy co roku były karty 100% szybsze (a nie 11% szybsze po 3 latach), czytałem testy w Chipie i CD-Action i tak sobie wyrobiłem zdanie.

     

    Nie mojej, bo ja 4 wątków od lat już nie używam, RTX nie jest dużo szybszy w obecnych grach.

     

    Strasznie głupie rozumowanie. Więcej VRAMu jest potrzebne, by mogły wychodzić gry, które wymagają go więcej. Tak to w przeszłości działało: wychodzi karta z większą ilością VRAM (2x co 1.5-2 roku) i zaczynają ukazywać się gry mogące tyle użyć. Obecnie niby jest coś takiego - Titan RTX ale cena wynosi 5x tego co zwykły kosztować flagowe produkty, więc się nie liczy.

     

    6 lat po PS2, Radeon X1950 XTX miał 16x więcej RAM. 6 lat po PS3, Radeon 7970 miał 6x więcej RAM. 6 lat po PS4, Radeon 5700 XT ma tyle samo RAM. Czy tylko ja widzę problem?


  21. Bardzo chciałbym, by gry potrafiły wykorzystać więcej wątków ale nie potrafią. Aby gry były o wiele bardziej zaawansowane niż teraz i działały z większa ilością klatek/s (monitory high refresh, nawet do 480 Hz) potrzebne jest zwiększenie wydajności o minimum rząd wielkości. 9900K nie przynosi nawet 50% więcej klatek/s względem prawie 5-letniego 6600K, a kosztuje 2300 zł. Zobaczcie jak niewiele odstaje 7700K. 2080 SUPER jest troszeczkę szybszy od 1080 Ti i ma 3 GB VRAM mniej, a w marcu mija 3 lata. Żenada.

     

    g8-L2-JZe-R46x-NRDdf3-Mqx6-K-650-80.png

    Ppwp-GWsrecg75qqey-Jxm-RA-650-80.png

    untitled-2.png

     

    Co to w ogóle ma być za "postęp"? Mija 2 lata i zamiast 8600K możesz kupić 2.22% szybszego 9600K w cenie często 10% wyższej. To chyba przykry żart jest. Zmieniać kompa to można chyba tylko dla samej zmiany, bo sensu owa zmiana nie ma, poza wąskimi zastosowaniami HEDT (7980XE na 2x droższy i 4x szybszy 3990X).


  22. Chętnie bym kartę, a nawet cały pecet wymieniał co rok, gdyby był sens. Jednak go nie ma, gry nie potrafią wykorzystać więcej niż 4 rdzeni 8 wątków, nowe karty graficzne są niewiele lepsze w stosunku wydajność/cena, RAM najpierw zdrożał by znów stanieć i niektórzy się cieszą, że nie jest droższy niż w 2016.


  23. Współcześni nastolatkowie nie wiedzą jak to jest przeżywać zajebisty postęp technologiczny w pecetach i w grach. W 1999 grać w Might and Magic VII: For Blood and Honor, a już 7 lat później siepać w The Elder Scrolls IV: Oblivion, z modami oczywiście. To co się od Crysisa działo nie umywa się do zmian zachodzących do 2008. Dzisiaj jakieś Fortnajty i mikrotransakcje. Dzieciaki jarają się skrzynkami. Czasem wychodzą perełki jak Wiedźmin III ale ogólnie jest raczej zastój. Może 9-ta generacja konsol jakoś rozrusza ten kurwidołek.

×
×
  • Dodaj nową pozycję...