Szanowny Użytkowniku,
Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.
Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.
Administrator Serwisu Forum PC LAB informuje, że:
- Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
- Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
- Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
- Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
- Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności
Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.
-
Liczba zawartości
4311 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
7
Odpowiedzi dodane przez Ronson
-
-
8 godzin temu, tomcug napisał:Wydajnościowo te GPU są praktycznie 1:1, więc nie wiem, co się tak uczepiłeś tego przykładu.
https://www.techpowerup.com/review/asus-radeon-rx-6750-xt-strix-oc/31.html
Zaletą RTX 2080 Ti jest większa pojemność VRAM, ale do tego wniosku nietrudno dojść, skoro ten parametr jest podawany najczęściej nawet na pudełku od karty graficznej
Thank you, Cpt. Obvious

Problem w tym, że było gadanie u tych youtuberów, że "szybsza od 2080ti" bo tak Nvidia powiedziała, a o mniejszej ilości pamięci albo nie było mówione wcale, albo było to bagatelizowane. Tymczasem kupowanie high-endowej karty z 8GB RAMu to było nieporozumienie, bo już wtedy istniały gry, które i bez raytracingu wymagały więcej do maksymalnych ustawień.
Internety oszalały i uznały, że można między tymi kartami postawić znak równości, więc 2080ti nie jest więcej warta niż MSRP 3070.
W sumie jak ktoś jest laikiem i go stać na kupowanie 2080ti bez elementarnej wiedzy o grach i sprzęcie, to widać jest bogaty i nie ma co ich żałować, ale to już zupełnie inna kwestia. -
@veronek
Sytuacja jest diametralnie różna od tego co było przy premierze 3000.
Nie ma kopaczy zabierających karty.
Nie ma też braku kryzysu i dodrukowanej kasy, bo w USA ludzie dostawali kasę na przeżycie bo Covid, a wydawali na kompy.Konsole też są coraz atrakcyjniejsze. Wtedy PS5 jeszcze nie było na rynku. A teraz jest i ludzie często wybierają to + duży TV w cenie kompa.
Do tego części do PC ogólnie są bardzo drogie.
To wszystko zmniejsza ilość chętnych, więc sugeruje niższe ceny i lepszą dostępność.
Ale... to Nvidia. Mają pierwszy raz układ z ogromną ilością tranzystorów poświęconą dla dodania cache. To może naprawdę sporo namieszać, a do tego NV może specjalnie dać tak mało kart, żeby się wydawało, że wszystko schodzi na pniu i się ludzie o karty biją niczym baby o kurczaka za 6zł w supermarketowej promocji.
Myślę, że najlepiej poczekać do pierwszych info i...
kupić z pewnego źródła krótko używaną 3080ti. Albo kup 3080 12GB na przeczekanie.
Moim zdaniem ceny 308x zapikują w dół po pierwszej prezentacji, bo ludzie będą wyprzedawać na szybko. Ale zaraz potem odbiją. Nie sądzę, żeby na stałe staniało cokolwiek przed premierą 4060ti czy jak to tam się nazwie. To by się pokrywało z plotkami, że najpierw tylko 4090 i 4080 a 4070 trochę późnej.
4070 może być gorsza lub taka sama. Moooże nawet lepsza.
Ale na pewno nie będziesz mógł jej kupić w tym miesiącu.
Do tego nie wiadomo kiedy jakieś fajniejsze wersje. No i info o tym co się dzieje z zasilaczami na nowej serii też może wyjść później.
Może wyrwiesz nawet 3090 w super cenie jak jakiś posiadacz lub sklep będzie sprzedawał w trybie "panic mode".
Poprzednio ludzie oszaleli. Myśleli, że 3070=2080ti więc 2080ti były sprzedawane za 50% ceny jaką miały już dwa miesiące później, jak się okazało, że jednak 2080ti lepsza, a o 3080 za MSRP można pomarzyć. Na pewno teraz sytuacja będzie inna, ale do pewnego stopnia myślę, że podobieństwa można wróżyć.
Dalsza część prognoz zarezerwowana dla posiadaczy subskrypcji Fusy PRO
Będziesz grał w grę.
-
Teraz to tak. Stracili za dużo "mind share", mamy kryzys itp. itd. itezet.
Ale po wypuszczeniu 6400 widać jak się "starają". Żeby karta nowej generacji nie miała nie tylko nowych i lepszych układów do obróbki video, ale nawet gorsze od starego poprzednika - to jest coś, czego jeszcze nie grali.
Co do RT, to jesteśmy na etapie S3 Virge w akceleracji 3D, albo na etapie X800 w temacie HDR (czy to chodziło o HDR jednocześnie z MSAA?, no i oczywiście nie o ten HDR chodzi, a o ten co dodawał bloom w Far Cry i potem świecące się konie w Oblivionie i piasek w DIRT). Wtedy też AMD nie ,miało funkcji, na którą i tak było za wcześnie, bo co z tego, że 6800 miało, jak i tak było na to za wolne i lepiej było grać bez tego.
Ale to by trzeba się postarać. Najpierw mieć wyraźną przewagę w price/perf. w tradycyjnej rasteryzacji, a potem przekonywać, że granie w 120fps jest lepsze od ray tracingu, który i tak jest ułomny.
Ale niestety:
- mind share - AMD przegrywa przez K.O
- wydajność w rasteryzacji - AMD w najlepszym wypadku nie wygrywa, z wyjątkiem ostatnich 2-3 miesięcy, gdzie ceny 6600 spadły, a konkurenta od NV nie bardzo
- wydajność w RT - znowu K.O
- (opieram się na tym co wyżej, bo nie śledzę tematu) kodowanie Video - według wypowiedzi wyżej, AMD odstaje
- ogólna sprawność teamu od software w kwestii sterowników, współpraca z developerami - znowu AMD przegrywa
- nisze - wydajność w starociach, DX9, 3D Vision, współpraca z Pimaxem - AMD nie działa lub działa kulawo (odpowiednio: microstutter, nie działa, nie działa)
- kłopoty z błędami w sterownikach i sofcie pobocznym - Nvidia wali sporo buraków, ma swoje za uszami (Gayforce Experience zamykane na konto online, wymuszanie zgody na szpiegowanie na kompie itp.) ale i tak AMD przegrywa. Nawet jeśli tylko na niektórych produktach jak laptopy spred 3 lat, to i tak wystarczająco dużo smrodu się unosi w necie, na forach i Youtube, żeby odstraszyć wahających się.
No teraz to na serio oni mają MOCNO pod górkę, aby wrócić do gry.
A ja pamiętam jak ok. 2014r. AMD zapowiadało, że do końca 2019r. wydadzą kartę, która sobie będzie spokojnie radzić w 8K.
8K mamy dopiero teraz, ale nie na monitorze a na paragonach
-
2 godziny temu, sideband napisał:W czasach 4850 AMD ceną znokautowało NV i musieli grubo zjechać z cen
Tylko to były inne czasu teraz NV ma inne pozycje na rynku to mogą dać mniej za więcej
Ja bym powiedział, że wtedy AMD i Nvidii zależało. A teraz po prostu nie zależy ani AMD ani Nvidii. Po co konkurować, skoro można sprzedawać bardzo drogo mniejsze ilości. NV zapachniała kasa z innych stron, a AMD chyba woli łatwiejszą kasę niż walkę z rywalem, który ich wyprzedził, więc trzebaby teraz się napocić, żeby dogonić a potem utrzymać z przodu. Było to widać w erze kopalni. AMD mogło łatwo odbudować udział w rynku gier, ale miało na to wybimbambowane. Nie zrobili ani jednego REALNEGO kroku aby to ukrócić. Nie skupili się na VR, do którego można było zrobić dedykowane chipy, które mogłyby być mniejsze o 2-3x od normalnych, ale zaoferowałyby te aspekty wydajności, które w VR sa najważniejsze. Na takich kartach nie dałoby się kopać niczego, więc nie byloby problemu. Jasne, odchudzenie GPU to spora praca i niemal projektowanie chipu od nowa, ale ile lat minęło od pierwszych szaleństw cen wywołanych crypto craze?
Nie zrobili niczego. Nie zaczęli konkretnej walki o klienta gdy niedobory produkcyjne minęły. Nie zależy im na budowaniu rynku i aktywnie go psują kartami typu 6600 czy 6400. Dobrze, że z 6600 się poprawili, ale ta karta to był i tak policzek na premierę, bo na tle poprzedników wypadała po prostu śmiesznie.
CytatGdybys byl tak madry jak ten linus.... eh
Ogólnie? Nie jestem. Ale w wielu aspektach wiedzy o grach i sprzęcie do gier, ten koleś to straszny amator i bycie mądrzejszym od niego to żaden wyczyn. Połowa ludzi tutaj pewnie go przebija.
To jest bardziej "entertainer" niż fachowiec od czegokolwiek. Jego kanał jest, że tak powiem, "mainstreamowy".
A jego materiały na temat serii 3000 to był naprawdę straszny kwas. Nie to, że to co puściło Digital Foundry było lepsze. Ot, po prostu na zimno skalkulowali jaka forma uzyskania korzyści od Nvidii opłaci im się lepiej, biorąc pod uwagę, że ich opinia i image niezależnych i uczciwych, jest na pewno dla nich warta sporo. Nie mogą więc od tak po prostu walić reklam temu co sypnie kasą, ale nie tylko kasą można takich wynagrodzić, a nawet same wyświetlenia są intratne, jak jesteś jednym z pierwszych. Dobre stosunki z samą firmą, darmowe karty do testów, dodatkowe materiały, z których da się tworzyć więcej filmików nakręcając wyświetlenia kanału itp. itd.
I potem masz takie wesołe pierdzenie, że 3080 to niesamowita karta, że jak to wspaniale, że Nvidia daje następcę 2080ti za jedyne 699$. Że karta ciągnie Dooma w 8K, że raytracing jest sporo szybszy i (w tych dwóch grach które "zasugerowała" NV) nowa generacja wypada znacznie szybciej. Że 3070 to karta szybsza od 2080ti (g..uzik prawda) i ogólne trzymanie się zawsze narracji jaka idzie z góry, nawet jak ta narracja śmierdzi ściemą na kilometr.
Kanał Linusa nie jest jedynym winnym tego typu podejścia. Wystarczy wspomnieć DF i ich pierdzeniu jakie to RT nie jest przełomow, oh, ah, orgazm. Tutaj mogłaby NV im absolutnie nic nie dać, a te sto osiemdziesiąt filmików skupiających się na RT to samo w sobie jest źródłem sporej kasy z wyświetleń.
CytatLinus i jemu podobni to nie żadni idioci tylko zależy od kogo przyjdzie przelew na konto....
No właśnie. O tym się rozpisałem powyżej, ale w przypadku Linusa - no nie sądzę. Obejrzałem do kotleta naprawdę masę jego filmów przez ostatnie lata i ten gość po prostu ma poziom wiedzy o grach na poziomie casuala, niedzielnego gracza, co se pyknie w Fifę w weekend i Call of Duty z kolegami czasem. I to tyle.
Także myślę, że takie pieprzenie głupot wynika w 60% z braków wiedzy, a w 40% z chęci zysku. Przy czym raczej część z tych 40% to chęć zysku z własnego kanału - z materiału który ma się klikać, zarabiać na reklamach. Że bezpośrednio bierze kasę od NV czy innych, żeby im smarować to nie sądzę. Co by o nim nie mówić, to jednak wydaje się jakośtam uczciwy i prawdomówny.
@sideband @galaktyCytatPatrzysz na to przez ostatnie lata gdzie NV ma praktycznie monopol na rynku dedykowanych GPU. Przykładowo 680GTX vs 7970 na premierę mieli nieco wyższą wydajność i niższą cenę od AMD
CytatNie bierzesz pod uwagę, że kurs dolara jest coraz gorszy, inflacja i nadchodzący kryzys. Nie można tego porównać 1:1.
Nie chodziło mi tylko o te najnowsze czasy, gdzie faktycznie Nvidia zamienia się powoli w monopol w sensie udziałów w kompach do gier. Pomiędzy 7970 a 6900 jeszcze trochę kart było
AMD jest jak kot drapiący do drzwi przez godzinę tylko po to, aby gdy w końcu dostanie to co chce (otwarcie drzwi - dobry produkt w rękach, którym można konkurować) to traci całe zainteresowanie i woli się położyć i pospać. Pamiętacie RX 480? Taki mały chip, odpuszczenie segmentu wydajnych GPU, żeby skupić się na mniejszym, którego można robić więcej. I co? I AMD przez pierwsze pół roku zrobiło tych kart jakieś 10% tego co by sprzedali, a potem też się trzymali z dala od potencjału. A przecież to był całkiem konkurencyjny chip.
I chodzi mi o lata gdzie o nadchodzącym kryzysie czy dolarze za więcej niż 4zł to nawet nikt nie myślał jeszcze. -
Godzinę temu, sideband napisał:Bleblanie niezależnie jakie nie ma żadnego wpływu co zrobi NV

Na to wpływ ma konkurencja i wyniki sprzedaży.
Z pierwszym się zgodzę.
Z drugim zdecydowanie nie.
Słabe wyniki spredaży? Olanie danego rynku zamiast obniżek. Jak chodzi o Nvidię.
Konkurencja? Jak np. konkurencja w procach od AMD, na którą wszysy czekali latami, otwieralio szampany jak AMD w końcu miało proca, który może konkurować.. iii jakoś ceny nie spadły, a zostały tak samo złe jak za czasów braku konkurencji.
Z kartami też bywało tak, że AMD miało świetną ofertę, a nic z tego nie wynikało, bo albo dowalali cenę Nvidiową, albo wypuszczali jakieś kilka procent tego, co rynek oczekiwał, więc Nvidia nie czuła żadnej presji.
PS. wiem, że nie lubicie info od tego gościa z Twattera, ale come on. Już lepsze to niż gadanie o zasilaczach czy na co tam innego zeszliśmy ostatnio
-
1
-
-
No oby nie, bo jeśli Nvidia byłaby aż tak pazerna, żeby 4080tkę wypuścić z tylko 12GB, to ta tragedia w postaci 4070 z tylko 10GB i 160bit bylaby bardziej prawdopodobna.
Wtedy wyszłoby, że Nvidia znowu poprzekłada naklejki, dając 4060 zamiast 4070 itd. a potem niezależni youtuberzy oraz idioci ala Linus z Linus Tech Tips, będą chwalić za to, jak fajnie, bo tanio, bo patrzcie jakie niskie ceny za 4070 i za 4080 12GB
Byłby to bardzo "Nvidiowy" cios poniżej pasa. Dokładnie taki jakiego się po nich należy spodziewać.
Póki co ja jednak jeszcze utrzymuję nadzieje. No choć te 192bit i 12GB w 4070, bo jak nie to gat demyt
-
1
-
-
19 godzin temu, Fenrir_14 napisał:Efektem dzisiejszej regulacji związanej z wymogiem licencji na sprzedaż nowych technologii do bolszewickich regionów jest spadek wartości akcji o 11%. Całkiem całkiem ?
Nvidii tyle spadło?

Jak z ludzkiego nieszczęścia nie potrafię się ani śmiać (o, wyglebił się i przywalił głową o ziemię, hahaha hohoho ale śmieszne) ani cieszyć z czyjejś niedoli, tak jeśli chodzi o tę konkretną korporację, to muszę przyznać, że mnie to ucieszyło bardzo. A jeszcze żeby tak niemal splajtowali na segmentach dla których olali rynek gier, to bym się dopiero cieszył. Niestety raczej będzie odwrotnie, bo mają kasę wykupować konkurencję w zarodku, zanim im zagrozi.
-
Nadal aktualne
Kabel, lepsze mocowanie na głowę, może wkładka dla lepszego komfortu na twarzy, może mocowania na soczewki korekcyjne, chyba, że ktoś ma akurat komplet specjalnych już gotowych w okolicach -1.5 (mam -1.5L i -2.25P, ale od biedy mogłoby być np. --1.5 dla obu oczu bo i tak to nie jest headset 8K
) Może nawet -1 by coś dało, ale musiałbym sprawdzić najpierw u optyka czy coś poprawia w prawym czy wcale.
-
Godzinę temu, Bono[UG] napisał:Co ma popsucie się czajnika do większego zużycia energii?
Większa moc nowego nie oznacza wyższych rachunków. Żeby zagrzać wodę, musisz dostarczyć konkretnej ilości ciepła. Czajnik 1kW zagrzeje w X czasu, 2kW w X/2 czasu (a nawet ciut szybciej, bo mniej ciepła zdąży się z czajnika rozproszyć w tym czasie).
Jak chcesz oszczędzić, to większa moc i lepsza izolacja.Płacilem 220-250 średni, teraz gotowałem wodę na gazie i miałem 175.
W każdym razie - zużywam mało, tylko się zastanawiam jakie sa szanse, że z dzisiejszych 0,58zł/1kWh w roku 2024 będę płacił np. 2 czy 3zł.
Jak się tak chore ceny utrzymają na opał, to też lepiej będzie wstawić sobie 2 grzejniki po 1500W na prąd i tym dogrzewać kawalerkę niż męczyć się z kopciuchem i węglem którego wrzucanie do pieca fizycznie wręcz boli, jak człowiek pomyśli ile każda szufelka węgla kosztuje.
Jak w 2024 tona węgla będzie po 5000, a normalna cena prądu to np. 3zł, to może warto by było. Tylko w kategoriach absolutnego armageddonu cenowego w 2024 to rozważam. Normalnie bym się nie zastanawiał.
Póki co byłem w 51% na nie, a po Waszych radach, jestem na 80% na nie.
PS. Proponują też jakies durne bonusy. Masakra, że widocznie ludzie na to idą. Nie mam własnego auta, nie interesuje mnie zniżka na Orlenie i kupony na myjnię. To znowu sugeruje szukanie jeleni. No i na koniec fakt, że dzwonili do mnie z ofertą. Gdyby była niekorzystna dla nich a korzystna dla mnie, to bym sam musiał pewnie się dowiedzieć i składać wnioski
-
Godzinę temu, sideband napisał:Poważny człowiek nie wrzuca co chwilę innej specyfikacji. Producenci nie robią czegoś takiego jak UV ?
Skrót myślowy. Ustalenie poboru prądu niższe niż inne brane pod uwagę, wyższe.
Realny scenariusz. Oczywiście możecie mieć rację, nie będę bronił gościa, bo dopiero od momentu jego plotek o 40xx wiem o jego istnieniu. -
O radę w podjęciu decyzji o kosztach energii to mogę tu zapytać czy zakładać osobny, własny wątek?
Dostałem telefon "z elektrowni". W skrócie: płatne ubezpieczenie od wzrostów opłat na okres dwóch lat.
Mam: 0,58zł za 1kWh
Proponują mi 0,74zł + 50zł na rachunek (25 na miesiąc)
Przy poprzednim rachunku dostałem 175zł czyli niecałe 90zł miesięcznie.
Według tego, można oszacować koszt nowej taryfy na 0.95 przy takim poborze prądu jak ostatni rachunek. Ale popsul mi się czajnik elektryczny i będzie więcej.
To jest podwyżka o ~65% lub mniej, może 55-65%.
Co myślicie?
Wybory.. wybory.. i po wyborach jak nam to pierd..dzielnie to może być sporo więcej. Ale do tego czasu jest "przed wyborami" to nie wiem czy się w to pakować czy nie warto bo co zaoszczędzę w 2024 to przepłacę w 2023.
A może należy się spodziewać podwyżek typu +40% już od stycznia 2023? -
Poczekajcie z mieszaniem Kopite'a z błotem do momentu premiery.
Co do 800W to była mowa o pełnym chipie, tym tzw. "monster". Możliwe, że nie było jeszcze wtedy nawet wiadomo co będzie kartą, o której dostał info. 4090? 4090ti? Titan? A może coś na rynek pro, pomiędzy dotychcasowymi Titanami a dedykowanymi układami na HBM. No i te 48GB pamięci. 800 mogło tez oznaczać skoki "transients" albo mniej krótkotrwałe, ale sporadyczne, przy średniej sporo niżej. No i nie wiadomo w czym. Tak jak proce inaczej biorą prąd "normalnie" a inaczej pocąc się przy AVX.
Mam za to nadzieję, że te plotki o 160bit 4070 to bzdura, bo taka szyna i 10GB to jest taki sam łokieć w brzuch jak cena 3050 czy 1630. No chyba, że daliby 399$, ale już prędzej 4030 taką dostanie znając ich pazerność
Była też wypowiedź, enigmatyczna i niewiele mówiąca, że "AMD disappoints". Może pobór był wyższy, ale NV widząc niezadowolenie ludzi w necie oraz wiedząc, że AMD nie ma mocnego konkurenta, po prostu obniżyło napięcia albo dało ciaśniejsze power limity. Wyjdzie po premierze. Jeśli dali UV, to UV będzie dawał mnniej niż ludzie oczekują, a OC będzie lepsze niż ludzie oczekują. Po tym poznamy i będziemy wtedy albo wieszać na Kopite'cie psy, albo medale.
Póki co ja wolę jakieś plotki niż nic. I tak widać po offtopie tutaj jak nam się nudzi jak nie ma plot
-
-
3 godziny temu, hopes napisał:Nie zasłaniaj się 180 fps bo zaraz dojdziesz do 360 fps i będziesz potrzebował dwa razy mocniejsze gpu. Jeśli bierzesz pod uwagę większość graczy na steam to raczej mierzą w 60 fps więc 3 razy mniej niż teraz piszesz.
Rozumiem logikę i trafność argumentu, ale..
- jak ktoś gra w strzelanki, to taki Battlefield 4 potrzebował aby nie spadało poniżej 150. Nawet jak było średio 250 to było czuć, że jest jeszcze lepiej. Przy graniu na 120Hz bez v-synca. Niektóre gry są tak zrobione, że wyraźnie lepiej się celuje przy 400fps. I nie wynika to z tego, że na 60 jest OK, esportowiec wykorzysta 120, a więcej to tylko jakiś superzdolny Azjata albo półcyborg. Po prostu tak to działa, bo kod gry i reszty (OS, sterowniki itp) nie jest idealny.
- jak chcesz grać w trybie strobowania podświetlenia (zwane Blur reduction, Lightboost, BFI, G-sync ULMB, backlight strobing, itd) to wymagasz, aby framerate nie spadał poniżej danego targetu nawet o 1fps. Jak masz często spadki do 115fps na 120Hz zamiast trzymać 120, to w tym trybie odczujesz to bardzo wyraźnie, o ile ten tryb działa poprawnie na danym wyświeltaczu, bo z tym różnie bywa. A tu często jest tak, że gdzie masz średnio 120fps, tam potrzebujesz nawet +50% mocy aby minimalne fps nie spadało poniżej. Czasem nawet 2x.
- niektórzy, ale to nisza, mają wyświetlacze 240Hz, 360Hz czy teraz wchodzące 480Hz
- no i na przyszłość informacja: Żeby mieć obraz wyraźny w ruchu bez cudowania z migotaniem calego ekranu, to musisz mieć te ~500fps, a lepiej i 1000fps. Także jak przejście z 120 na 360 nie zmienia wiele w kwestii jakości obrazu w ruchu bo nadal szybko poruszające się obiekty są mocno rozmyte, tak dalej masz "niespodziankę" bo od 480 zaczyna się robić wyraźnie, co będzie konkretną zaletą, bo bez migotania możesz nadal cieszyć się pełną jasnością i HDR.
Także to nie tak, że w 120fps to grają tylko esportowcy i wymagający bogacze. W BF4 to ja kiedyś na GTX 660 potrafiłem grać w 800p na monitorze 1080p, i to nie na najwyższych detalach, a w CSGO jak zrobili patche, które popsuły wydajność i średnio zrobiło mi się 180fps to się mocno zirytowałem, bo sterowanie natychmiast się pogorszyło.
Jak patrzę na wykresy w testach, to zakładając, że ktoś chce zamknąć v-sync na 100 czy 120fps, to 3090ti ledwo ledwo "załatwia" 1440p, i to bez raytracingu, a czasami nawet jej trochę brakuje.
Oczywiście jak ktoś chce mieć wszystkie suwaczki na prawo i koniec. Ja tam nie mam problemu zjechać na medium
-
Godzinę temu, someI napisał:A to przepraszam o czym w ogóle już dyskutujemy. Bo ostatnie kilka stron to były jęki, że nie ma tanich kart dla mainstreamu i causali, a teraz piszesz, że mają się skupić na high endzie i topowym sprzęcie dla PCMR i VR o abstrakcyjnych wymaganiach. Przeczysz sam sobie.
Nie. Pisałem przecież, że można to zrobić na raz. Zadbać i o low end i o high end. A low end ma wspólnego z high-endem tyle, że jest istotnym szczebelkiem drabiny do zdrowego rynku PC gaming jako całości.
CytatPimax 12k, RTX 3090 żeby to napędzić nawet na low settings i najlepiej to wszystko w 2015 razem z pierwszą generacją VR.
Przekręcasz sens mojej wypowiedzi i próbujesz przerysować. Oczywiście, że nie oczekuję Pimaxa 12K na kartach z 2015 i wtedy. Chodzi mi o to, że elementy powalającego VR mogły być dostępne już wiele lat temu, a rok 2015 to moment gdy trzeba bylo działać.
Pomiędzy 200° Pimaxa a 100° DK2, Rifta i Oculusa Quest 2 (zaokrąglijmy) jest spora przepaść. Pimax oferował realne 150-160° od lat, ale opierał to na badziewiastym ekraniku LCD, brakach w swerze software i w ogóle wszystkich wadach jakie idą za faktem, że to tylko mała, szemrana firmeka z Chin.
Pimax 12K jest super drogi po części dlatego, że ma modul do Stand-alone VR, którego nie potrzeba pecetowcom, i bardzo wysokiej rozdzielczości ekran. Dałoby się zrobić porządne wide-FOV bez tak kosmicznej rozdzielczości, a do tego cena jest skalkulowana pod malutką ilość planowanej sprzedaży i pod szybki zysk dla małej firmy.
CytatWięcej już mi się nie chce pisać, widzę że trafiłem na eseistę, nie przegadam ?
A tu przynam rację. Piszę za obszernie i po prostu kiepsko, za co przepraszam.
Ale myślę, że przynajmniej sens tego co piszę jest wartościowy.
Przynajmiej jak na taki wątek, gdzie nam wszystkim się po prostu nudzi, a nie ma póki co nowych info o 40xx
-
1 godzinę temu, someI napisał:Chyba nie widziałeś jak w ostatnich latach eksplodował rynek gamingowych laptopów.
A w dłuższej perspektywie wszyscy duzi gracze mają parcie na granie w chmurze i może się okazać, że to będzie definitywny koniec low-endu. Lepiej komuś sprzedać miesięczny abonament za 10$, niż kartę jednorazowo za 150$. A jak będziesz chciał lepszą jakość i brak opóźnień w swoich ulubionych gierkach, to wtedy wybulisz na desktopa minimum średniej klasy.
PC VR nikt nie olał, wszyscy się na to rzucili a potem okazało się, że jednak poza garścią entuzjastów za bardzo to nie chwyciło. To raczej ludzie olali nowinkę jak telewizory 3D. Oculus zdominował rynek VR właśnie dlatego, że zrobił headset który nie wymaga PC i kabli. Nawet na Steam jeden model Quest 2 ma większy udział urządzeń niż wszystkie pozostałe headsety razem wzięte. A to nawet nie uwzględnia urządzeń, które nigdy nie były podłączone do PC.
Ależ owszem, że zdaję sobie sprawę, że laptopy zyskały na popularności. Dokładnie dlatego całe prezentacje Intela praktycznie tylko o tym mówią. Ale jednak bądźmy szczerzy - ostatnie ceny to był absurd. Zamiast karty typu rtx 2060 czy 3060 mogłeś niewiele drożej kupić laptopa z kartą o takiej nazwie (wiadomo,. że to nie prawdziwe, tak samo wydajne 2060/3060) bo był szał na kopanie. W ogóle desktopy byly cenowo w innej galaktyce. Na to dodaj fakt, że niewiele oferują, bo wydajność dostępnych cenowo nie pozwala pokazać czegoś diametralnie innego niż konsola czy mainstreamowy, gamingowy laptop.
Co do VR to nie. Ludzie najpierw muszą zobaczyć zalety czegoś, a potem decydują o zakupie. Tak jak z 3D w telewizorach - to nie wina ludzi, że technologia była pchana w formie badziewia pełnego zbyt daleko idących kompromisów. Gdyby Oculus nie sprzedał się, a działał tak jak ludzie oczekiwali wspierając gremialnie ich Kickstarter, to by było inaczej. Facebook wydał w 2014r. 50 baniek $ na konkursik na... gierki i aplikacje mobilne od amatorów. Żadnego killera VR nie zrobiono. Natychmiast przesunięto PC VR na drugi tor, opóźniono prace nad SDK Rifta DK2, bo wzięli się za współpracę z Samsungiem (badziewne komórkowe VR). Potem nie wydali na czas kontrolerów Touch, tylko pchali zestaw z joypadem co wywołało ogromne straty przez zakłócenie rynku, bo developer ma wiedziec dla kogo robi grę. Jak połowa gra na PSVR, 40% na padzie a 10% na kontrolerach VR, to gra nie wykorzysta w pełni kontrolerów VR. A jak mogło być widać było zaraz po premierze Half-Life: Alyx od Valve.
Nie było contentu, to raz.
Nie było szerokiego FOV, które moim zdaniem jest kluczowe, to dwa. A dlaczego nie było? Bo korpo (Facebook) ustami załozyciela Oculusa powiedziało w tym samym roku, w którym wydali Gear VR do komórek Samsunga, które miało niewiele mniejszy FOV, że... PC jest za słaby na więcej.
Nie dano soczewek pancake.
Nie dano lepszej klasy optyki ogólnie, co miałoby sens gdyby podeszli do sprawy rozsądnie i wiedzieliby, że lepsza oferta poskutkuje wielokrotnie lepszymi liczbami sprzedaży. Ta sama optyka może być superdroga dla 10 000 headsetów, ale już nie tak droga jak zamawiasz jej do 10 000 000 headsetów.
Kontrolery od Valve, Lighthouse 2.0 to jest coś, co powinno się stać standardem.
- kompromisy w wyglądzie i rzeczach ważnych tylko dla casuali
- brak kompromisów w aspektach ważnych dla dobrego VR i graczy "core" i entuzjastów
Stało się dokładnie odwrotnie. Wyobraź sobie, że teleportują gościa z roku 1970 i pokazują mu Counter Strike i Call od Duty na komórce. Mały ekranik, input lag, sterowanie paluchem. Zapytaj czy widzi w tym potencjał do tego, aby ktoś wydawał dla tego 7000zł na CPU, GPU i szybki monitor, czy myszkę za 400zł. Zapytaj czy widzi w tym jakieś transmisje esportu.
Taki ktoś nie zrozumie potencjału, bo nie wyobrazi sobie tego, czego nie zobaczył spradzając ubogą wersję rozrywki na telefonie.
Content powoli się pojawia. Powoli. Zbyt powoli i już jest za późno. Czas na działania był w 2014-2015. Wtedy poczynione starania i inwestycje miały sens i przyniosłyby dziś zyski i istnienie rynku, którego teraz, przez zaniechanie, po prostu nie ma.
Myślę, że ankiety wyglądałyby "trochę" inaczej i "trochę" inaczej czytałyby je szychy w korpo, gdyby je przeprowadzać wśród ludzi wychodzących z targów, na których sprawdzali
- Pimax 12K. Brak efektu screen-door. 200° FOV marketingowo, czyli realnie i tak blisko pełnego pola (pewnie ze 170-180 będzie, w tym całkiem duży FOV także w pionie. Wysoka rozdzielczość może pomóc z upscalowaniem, wysokie odświeżanie. Kontroler będzie kiepski więc powinni na targach pokazywać zestaw spięty z systemem od Valve (Lighthouse 2.0 + Knuckles od Indexa). Audio od Indexa, w tym zaawansowane binaural audio. Ekran mam nadzieję radzący sobie świetnie z ruchem i o dobrym kontraście i kolorach. Bardzo niskie opóźnienia dzięki 120-200Hz.
- content: Half-Life Alyx o ile zmodyfikują na wide-FOV, symulatory typu MS Flight Sim 2020, symulatory wyścigów, VR experience w postaci filmów, których istnienie wymaga ogromnie drogiego sprzętu, ale pozwala nagrać nie tylko braz w 3D przy wysokiej ilości klatek, ale i "nagrywa" geometrię. Kilka takich ujęć zajęłoby pewnie terabajty danych, a system kamer kosztuje coś koło miliona dolarów z tego co pamiętam, a chyba nawet jego rozwój jakiś czas wstrzymano bo nie widzieli perspektyw na zyski. W każdym razie dla teoretyzowania tutaj się nada jako przykład. 120Hz, 3D, mapa geometrii abyś mógł pzejść kilka kroków po muzeum na przykład, zajrzeć za stojak z tabliczką informacyjną, obejrzeć coś z boku itp. Przydałaby się gra dedykowana, np. superwosokobudżetowe VRowe wydanie gry opartej o trylogię Władcy Pierścieni. Wszystko projetkowane z myślą o 12900K i 3090 jako minimum dla niskiej rozdzielczości (bo wiadomo, że do natywnej tego Pimaxa to 4090 w bogatej oprawie się spoic)
I wtedy można pytać, wtedy można mówić co ludzie sądzą.
A nie jak im oferujesz badziew-VR w cenie high-end VR.
Przypomnę, że Maxwella i Pascala szeroko Nvidia reklamowała od strony VR. Tile based rendering w Maxwellu pomaga w wydajności, Pascal pozwolił na renderowanie róznych miejsc z różną rozdzielczością. Mówiono o dodaniu całej biblioteki 3D Vision co na headsecie o wysokiej rozdzielczości pozwoliłoby milionom osób przeczekać aż dedykowanego contentu dla VR się nazbiera. Gry w 3D są naprawdę super, a to, że pchali to w badziewne telewizory, które się do tego nie nadawały i próbowali pchać to ludziom do filmów w 24fps i gier 30fps, gdy 3D po prostu naturalnie wymaga 60fps lub więcej (zaleznie jakie odświeżanie wyświetlacza) to już inna kwestia.
Co do grania w chmurze - no właśnie. Nie rozumieją zagrożenia i tego, że pomagają ostrzyć piłę, którą utną gałąź pod sobą. Kierując wszystko na casuali, bo ich jest najwięcej w statystykach i wykresikach, nie rozumieją, że ich jedyną szansą przetrwania jest skupienie się na tym co zostaje po odjęciu casuali. Rynek PC gamingu z produktami dla casuali nie będzie istniał jak casuale będą grali w chmurze. Ale wymagający gracz nigdy się nie zhańbi przesiadając na skompresowany obraz, z lagami i bez kontroli nad ustawieniami itp.
Producenci konsol też nie mogą sobie pozwolić na to, aby zanikała różnica między badziewiastym cloud gaming a konsolami. Dobrze, że tym razem nie wstawili CPU z tableta jak poprzednio i mam nadzieję, że tak szybko jak technologia na to pozwoli, wydadzą PS5 pro i Xbox X Series X Version X Factor X SuperEdition X
Bo, że casuale pójdą w cloud to nieuniknione. Jedyna szansa to wytworzyć sobie odpowiednio dużą rzeszę graczy świadomych i wymagających więcej.
I dlatego przy premierze 4090 powinniśmy dostać grę zrobioną za zlecenie Nvidii za np. 200mln $ (bez kosztu marketingu bo tu zbędny), która by zmieliła konsole w kwestii oprawy.
Dlatego Valve powinno wydać Indexa 2, a na niego excluzywnego, tym razem już ogromnego i pełnego Half-Life 3 zrobionego z rozmachem i pod mocarne PC.
Tak to kiedyś było. Szło się do kolegi i widziało 486 i jak płynnie na tym Heretic zapieprzał, to się chciało robić upgrade kompa. Kolega przychodził po graniu na PS1 i widział NFS III: HP na VooDoo i już tego samego dnia myślał, że chyba lepiej kupić kompa niż konsolę. Odpalało się Unreal Tournamenta w 1600x1200 czy Mafię w 15fps i się robiło wszystko co się da, żeby jak najszybciej kupić kartę/kompa, który to płynnie pociągnie.
Nie można iść za tym co "ludzie mówią w ankietach" bo kiedyś nikt nie chciał przyklepać pomysłu zrobienia konsoli opartej o grafikę 3D. Trzeba było aby twórca Playstation pokazał na spotkaniu krawaciarzom co sprzęt potrafi. Zobaczyli na własne oczy i zmienili zdanie. A co jakby on nie miał na czym pokazać tego co PS1 będzie potrafić? No, to właśnie sytuacja PC 2014-2022. Teraz już prawie jest na czym pokazać. Pytanie kiedy jakiś ważny krawaciarz natknie się na takie targi jaki nakreśliłem w swoim teoretycznym przykładzie wyżej.
Pewnego dnia te VR "zaskoczy" a wtedy będzie boom, przy którym popularyzacja konsol od PS1 czy akceleratorów od VooDoo 1, to będzie pikuś. -
Godzinę temu, someI napisał:Przecież tu absolutnie nie chodzi o to że mają wywalone albo im nie zależy. To korporacje, tu chodzi tylko o kasę. W przeciwieństwie do forumowych ekspertów oni mają statystyki sprzedaży kart low-end, wiedzą ile produkcja takich kart ich kosztuje, wiedzą jakie są marże. Widocznie nie opłaca im się na tyle, żeby się nad tym tematem pochylić. W segmencie low-end jest konkurencja ze strony konsol, laptopów, używanych GPU. Wątpię, żeby kiedykolwiek był to rewelacyjny biznes a obecnie jest pewnie gorzej niż kiedykolwiek.
PC-Gaming to nie tylko desktopy, wręcz przeciwnie. Na Steam Mobilnych 3060'ek jest więcej niż desktopowych. Mobilnych 3050 i 3050Ti jest w sumie więcej niż dekstopowych. Starszych kart pewnie też, ale dopiero od 3xxx widać podział na desktop/mobile.
To w lapkach masz najlepsze perf/wat, AMD architekturę RDNA 2 najpierw dało do laptopowych APU (i Steam Decka), gdzie desktopowe to nadal Vega itd... Świat nie kończy się na blaszanym pudle pod biurkiem.
Tak, mają wykresy i słupki. Ale nie patrzą długoterminowo. Zabijają potencjał przyszłości jak nie oferują normalnych cen, bo jak ktoś sobie odpuści PC to zazwyczaj już z konsol nie wraca.
Mogli dziś zarabiać grubą kasę dzięki rozwojowi PC VR, ale olali. A patrząc w słupki i ankiety to akurat VR to jak pytanie ludzi w XVIIIw czy wydaliby kupę kasy na to, żeby szybciej jechać. Przecież bez sensu, koń się szybko zmęczy, na nierównościach będzie trzęsło, a poza tym to "Komu to potrzebne. W żadnym wypadku. Dlaczego?"
VR dobrej klasy to najpierw trzeba móc zobaczyć, mieć na czym i w czym (hardware i gry) a potem można się wypowiadać, więc każda ankieta i badanie rynku jest skazana na porażkę. Tylko lekko analogicznie (bo bardzo mało to ma wspólnego ze sobą) było w temacie komórek. Gracze-laicy na komórkach dostali jakość gier z PS2 i Wii w 2010 to w ankiecie odpowiadali, że w sumie to nie marzą o nowej konsoli. Korpo sobie wzięło ankiety, porobiło słupki i doszło do wniosku, że konsole to sprzęt odchodzący do lamusa i nie ma co się na to nastawiać. A potem przyszło PS4 i Xone i się okazało, że te swoje wykresiki i ankiety mogą sobie wsadzić tam gdzie słońce nie dociera.
I teraz sobie pomyśl co by było jakby Sony, MS i Nintendo uznały, że no faktycznie, nie ma sensu, więc po X360 i PS3 skupiło się na komórkach. Straciliby kupę kasy z zysków długoterminowych, bo w 2013-2020 zarobili miliardy.
Tak samo Nvidia i AMD nie powinna patrzeć na to, czy odpowiednio dużo doi na karcie typu 3050 i 3060, czy Radeonie 6500 i 6600, tylko rozumieć, że każdy choćby "jako-taki" PC to potencjalnie jedna osoba zainteresowana PC więcej za jakiś czas. Za dwa lata taka osoba co kupiła 3050 może wydać kasę na 4070 dając już zarobić więcej. Jak do takiej osoby przyjdzie pograć konsolowiec i zobaczy przewagę jakości, to może zostać kolejnym Pececiarzem. I tak dalej.
Badziewne laptopiki i komputerki biurowe może i są większością w numerkach sprzedaży rynku PC, ale nie przyciągną gracza, nie zrobią z niego gracza-pasjonata. Wręcz przeciwnie. Wiele młodych ludzi myśli, że skoro na tanim kompie mają 30fps tak jak 30fps na konsolach, skoro tak samo grają w upscalowanym i rozmytym obrazie jak na konsolach, to nie ma najmniejszego sensu męczyć się z PC i lepiej grać na konsoli.
A im więcej osób jest poza światem PC tym więcej osób nie ma świadomości, że PC to może być coś fajnego. I to jest problem, bo tak NV, jak i Intel jak i AMD mogłyby w tym zobaczyć niszę dla siebie, ale nie chcą.
-intel - bo przez wiele, wiele lat miał proce, które jak nic innego się nadawały do gier dla wymagających graczy
- NV i AMD - bo mają od dawna opracowane sterowniki, bazę wiedzy, tzw. know-how i łatwo można wykorzystać taki monopol czy duopol do oferowania tego, czego nie zaoferuje nikt inny.
Ale jak już pozwolą zainteresowaniu PC tak zdechnąć całkiem, to zostają jako konkurencja na rynkach dziś intratnych, ale za kilka lat potencjalnie bardzo, bardzo trudnych. W obliczeniach AMD i Intel mogą nie móć konkurować z Nvidią. Nvidii może powinąć się noga. To był najbezpieczniejszy model biznesowy dlugoterminowo a wszystkie trzy największe firmy zdają się kompletnie nie przejmować tym, że rzesza ludzi zainteresowanych wydajnym PC do gier, kurczy się niczym powierzchnie jezior przy obecnej suszy.
PC gaming dla mnie oznacza coś, co oferuje więcej niż inne systemy. Konsola oferuje prostotę, przystępność, bezproblemowość, niską cenę czy mobilność.
PC oferuje nowe możliwości, wyższą jakość. Laptopy się kręcą wokół możliwości konsol niczym pierd wokół stojącego pasażera autobusu. Tzw. DTRy to jest też znowu nisza i coś kosztem czegoś. Konsole dostają wersje PRO gdy odstaną za mocno, więc laptopy nigdy nie zaoferują tego, co może zaoferowac desktop. No po prostu nie ma opcji, żeby sprzęt jedzący 500-600W prądu dał się dogonić laptopowi 65W (mainstream) lub 95W (nadal mainstream, ale sporo ludzi kupuje nawet słabsze) czy 120+W (tu już całkiem inaczej wygląda ilość sprzedaży)
-
1 godzinę temu, galakty napisał:Tylko że przy nadchodzącym kryzysie akurat powiedzenie "nie stać Cię" jest prawidłowe. Przywykliśmy do dobrobytu, wszystko tanie, wszystko dostępne, zero zmartwień.
I ups, jednak życie takie nie jest, zamiast to zrozumieć i zachować się dojrzale to płacz że karty drogie i nie mogę grać w 4k 60 FPS
Moje życie nie ma sensu auuuuu!
Firmy typu Nvidia mogłyby oferować super drogi sprzęt i rozsądny cenowo. Jednocześnie.
Tylko, że musi za tym iść wartość.
Tak jak Grażyna nie kupi 3070 bo gra w Kulki i Simsy, a ktoś, kto gra sporo w FPSy online wyda kasę na 3080, dobrego proca i monitor 120Hz nawet kosztem długich wyżeczeń i konieczności oszczędzania, bo po prostu da mu to radość, która jest tego warta - tak samo można zupełnie inaczej spojrzeć na granie.
Grażyna od Simsów też może widzieć krytykę wysokich cen kart typu 3090 jako "głupi płacz bo nie może sobie pograć w jakieś durne gierki w wyższej rozdziałce".
Ktoś kogo stać może sobie zrobić symularor lotu czy wyścigów i wydać na to roczne zarobki albo i więcej. Bo to jego pasja i jedna z głównych radości w życiu. Ten sam człowiek do wszystkich innych gier mógłby nie widzieć sensu w wydaniu 2000zł na grafikę, ale jak postawil 3 zakrzywione TV 60", kierownicę za 6000, stand za 4000, to nie żałował ani sekundy, bo granie w Call of Duty było dla niego tylko gierką, rozrywką typu obejrzenie serialu telewizyjnego. Ale na symulatorze ma teraz pasję. Ściga się w gronie pasjonatów, czerpie z tego masę radości, a do tego rozwija umiejętności, które przydadzą się na prawdziwym torze.
I tutaj inaczej się spojrzy na kwotę wydatków.
Tak jak nikt nie mówi, że sportowe auta są za drogie i bez sensu, bo do sklepu można pojechać starym szrotem i też się zakupy przywiezie. A ktoś sobie 5-10 lat będzie odkładał, kupi, i będzie zadowolony.
Albo ktoś kto kupuje sprzęt muzyczny za 30000.
Moim zdaniem naprawdę wspaniałej jakosci VR nie tylko dorównuje takim celom jak motolotnia, basen czy wycieczka dookoła świata, ale może je przebić.
Nowy Pimax 12K za pół roku może pokazać potencjał takiego VR.
I wtedy tak jak ja potrafiłem 3 lata odmawiać sobie wszystkiego aby zmienić 386 na Pentium 133, tak ludzie mogliby chcieć brać kredyty (no, przed kryzysem może, nie teraz
) na takie VR, żeby to nie były już tylko "jakieś tam gierki komputerowe" a coś naprawdę niesamowitego, co ma szansę stać się głównym źródłem radości z życia dla niektórych.
Przy 200° widzialnego pola widzenia, dobrym ekranie, optyce, trackingu, rozdzielczości, itp. VR na pewno da radę powalić.
I tutaj niech sobie by były karty po 10000. Byłby sens dla AMD i Nvidii inwestować w rozwój, bo coprawda dałoby się pograć na np. 3080, ale korzyści z większej mocy mogłbyby być potrzebne na spokojnie dekadę rozwoju, bo w VR nawet 16K ma sens.
Obliczanie fizyki i zwiększanie precyzji i realizmu ruchów i manipulowania rzeczami w VR też pozwoliłoby na rozwój w sprzęcie i popyt na dekady.
Cena sama w sobie to nie problem. I "nie stać na to ludzi" to nie problem, bo jest nas kilka milardów i przy odpowiedniej popularyzacji PC Gamingu opartego o wydajny sprzęt, zawsze znajdą się ludzie albo bogaci albo z pasją.
Nie każdy kupuje 3090 synowi do Minecrafta i Fortnite i nie każdy widzi tą rozrywkę jako "tylko głupie gierki".
Inna sprawa to jakie te gry w obecnych czasach robią.
Może tutaj zrozumiem dlaczego ktoś to widzi jako "głupie gierki". Praktycznie na ostatnią dekadę to wyszło może z 5 gier, które mnie jakoś konkretniej nakręciły, a ostatnie lata to w ogóle nie widzę żadnej gry uzasadniającej kupowanie drogiego sprzętu, ale to już rzecz gustu, to nie ma co o tym dyskutować. -
4 godziny temu, someI napisał:A tanich i dobrych kart nie ma, bo korporacje już dawno odkryły, że najlepiej zarabia się na produktach "premium", a nie na masówce z minimalną marżą. Przez ostatnie dwa lata w ogóle nie opłacało się takich kart produkować, tylko zajmowały linie produkcyjne droższym modelom.
No to jest jasne dla każdego tutaj, ale zauważ, że boom na crypto się skończył a NV i AMD zamiast "no to teraz damy wam w końcu normalne karty z niskiej półki" to na konferencjach dla inwestorów otwarcie mówią, że chcą wyjść z tego segmentu, a NV po prostu poprosiła TSMC o ucięcie zamówień.
1. Mają wolne wafle.
2. Mogą zrobić te karty
3. Nie zrobią.
Tak to wygląda. Mają wywalone, tak NV jak i AMD na cały PC gaming. Postawily na tym krzyżyk dawno temu. NV jest pazerna i choć na GPU urosła, to teraz woli grubszą kasę z segmentów innych niż sprzęt do gier.
AMD w ogóle nie zależy. Tyle lat ludzie czekali aż AMD w końcu zacznie znowu konkurować i jak tylko pojawił się proc od nich, który nie odstawał o 50% w 0,1% low od inteli, to natychmiast AMD radośnie dołączyło do Intela w dojeniu. Poza tym nawet jak mieli dobre karty to zamiast zwiększyć produkcję, woleli poczekać rok czy dwa, aż karta przestanie być tak dobra i będzie można oddać Nvidii kolejną część rynku, celując chyba w 0,1% udziałów na Steamie w dłuższej perspektywie.
AMD i gaming? No przecież robią chipy do konsol. No i starczy.
Te i kilka innych działań to jest dokładnie to, dlaczego mówię, że PC gaming umiera. Tym razem naprawdę. Zmienią nazwę jakiegoś badziewia na PC gaming, ale PC gaming jaki znamy już umarł. A tutaj się rozpiszę bardziej o tym jak wbijają kolejne gwoździe w tą trumnę od lat:
(długi tekst wyszedł, nie poprawię, sorry za literówki)
- najpierw zabrali nam dedykowane gry na PC, na których wszystko wyglądało tak, że konsoliwec mógł pomarzyć. W 1998r. na VooDooo graliśmy w 480p w 60fps z filtrami tekstur. Kupowałeś kartę za 400zł (nie wiem ile to będzie teraz) i miałeś takiego nextgena, że konsol nie można było nawet porównać.
W 1999r. grałeś w "wysokiej rozdzielczości" w gry typu Half Life, w Unreal Tournament przy 100fps. W 2004. odpalałeś Far Cry 1 i Half Life i znowu - wiedziałeś za co zapłaciłeś tę kasę za 9800pro czy 6800gt, które kosztowało wtedy 1800, a było sto razy większym przełomem i rewolucją niż całe te przereklamowane RT w 2080ti i 30xx. Było też absolutnym "potworem" w temacie ilości tranzystorów i wydajności. Mogłeś pograć w 120fps w strzelanki. Mogłeś pograć w super wysokiej rozdziałce. Mogłeś pograć w niektóre gry zupełnie bez widocznych pikseli i przy AFx8 (1600x1200 + MSAAx4) Mogleś odpalić shadery w viewportach programów do modelowania 3D. Miałeś shadery 3.0 i mogłeś oglądać 3D Marka 2005 z płynną animacją, pozdziwiając jakość grafiki, która miała w grach pojawić się znacznie później. Mogłeś w 2005 odpalić Obliviona z takim zasięgiem rysowania roślinności, że mainstream na to musiał czekać dekadę.
No było jak się sprzętem nacieszyć.
PC dostawał też nowości technologiczne. W Mafia 1 można było sobie pograć na kółku z force feedbackiem (na PC w 1999, na konsolach dopiero w 2001/2) przy dźwięku 5.1 czy nawet 6.1. Przy włączonym stereoskopowym 3D
- zamienili otwartą platformę PC gaming w Windows gaming. Żaden portal i dziennikarze nie protestując jak obok konsol na trailerach jest "Windows PC". Dobrze, że Valve trochę pomaga, ale Windows jako wymóg to nie był problem kiedyś, ale dziś oznacza rezygnację z prywatności, zgodę na durne zagrywki MSu, marnowaną wydajność, marnowanie czasu i denerwowania gracza-laika, który często porzuca PC bo ma dosyć sytuacji gdy znowu jakiś debil nie przetestował instalatora jakiejś aktualizacji i znowu trzeba wołać informatyka, żeby móc pograć
- Kiedyś wrzucałeś plik do katalogu w Norton Commanderze i to tyle. Dziś nie masz nawet prawa odczytu plików gry. Nie podmienisz dźwięku na chrapanie brata, bo zaszyfrowane, zablokowane i zapieczętowane DRMem pod groźbą bana w grze. Kiedyś PC to możliwości, np. modowanie wszystkiego. W Wolfensteinie 3D sobie zrobiłem pixelarty, w Cannon Fodder, Alien Breed i Abuse popodmieniałem dźwięki, bawiąc się tym tak samo dobrze jak samą grą. W wielu grach bez zaszyfrowanych plików nadal społeczność 3D Vision robi patche do 3D, do wyłączania TAA i innego syfu. Ale idzie to w złą stronę i niedługo może nie dać się modować niczego
- nawrzucali tysiąc launcherów, Origin, Steam, Uplay, MS Store itp. To wszystko jest złe dla gracza, zajmuje mu czas i odpycha od PC w stronę konsoli, nie mówiąc o szpiegowaniu na rzecz czy to corpo ogólnie czy po prostu rządu Chin (Tencent i gry z Chin ogólnie)
- cyfrowa dystrybucja czyli "kupuj drożej, dostań mniej, a jak po paru latach ci serwery wyłączymy to guzik nam możesz zrobić, a w grę nie pograsz"
- każą płacić za to, czego gracz nie potrzebuje. Brak procesorów o wyższej wydjaności, ale mneijszej ilości rdzeni (na prawdę nie potrzeba 16 wątków, zobaczcie na testy 12900K po wyłączeniu kilku rdzeni, to trafienia w cache pomagają flagowcom, a nie rdzenie, poza nielicznymi wyjątkami) teraz AI, Tensor, Ray-tracing. Zamykanie high-endowej wydajności w kartach z niepotrzebnie dużą ilością pamięci (3090 do czasu premiery 3080ti) i tak dalej, ale przede wszystkim
- zdzierstwo i ceny z kosmosu. Karty graficzne - "a bo ludzie kopią crypto" no to pomińmy to, niech tam im będzie. Ale monitory o marżach chyba 2000%, płyty główne pełne pierdół i świecidełek ale w cenie 2000zł bez modelu jakim zawsze się interesowali ci, co kupowali płytę za 200-450zł w latach 1997-2015. Płyta dobrej jakości, do podkręcenia wydajnego proca w pobliże max. Ale bez luksusów. Bez kart wifi, bez czachy z plastiku, bez światałek RGB.
- ogólne "wisi mi to" w całej branży. Gdzie standardy dla jakości? Monitory na przykład. Gdzie dążenie do uproszczenia? Przecież automatyczne presety można laikom ogarnąć bez problemu. Gdzie darmowy OS do gier, który zachęciłby więcej graczy do PC? Gdzie inwestycje Intela, NV i AMD w VR, które naturalnie rozkręciłoby popyt na mocniejszy sprzęt na wiele lat? ( to powinno się było wydarzyć w 2014 a do teraz przynieść już ładne efekty), gdzie współpraca od conajmniej 2010 albo i 2005r. na rzecz popularyzacji niskiego laga i jakości obrazu w ruchu w telewizorach, żeby gracz mógł pograć na tańszym sprzęcie, a nie płacić 10000 za monitor, który jest tym samym telewizorem OLED, który kosztuje 5000,? Gdzie nowe technologie, nowe możliwości? Gdzie dedykowane gry ala Far Cry 1, żeby ludziom chciało się wydawać kasę na drogą kartę? Gdzie starania branży o to, aby było taniej? Nie zachęca się gracza do PC jak pozwala się aby gra z konsol 4,5GB RAM cięła się na sprzęcie bez karty 6GB i bez 16GB RAM, jak pozwala się aby gra Ubisoftu wymagała pełnego upgrade'u kompa, aby odzyskać to, co zjada durne i niepotrzebne grającemu DRM, jak w grach na PC, które powinno być "master race gamingu" mamy przycinki bo wydawca maksymalizuje zyski i DRM zakłóca wydajność, to ktoś, a najlepiej całe zrzeszenie firm, powinien reagować i przeciwdziałać, nagłaśniać.
Teraz AMD i NV zabierają nam low-end. Znowu sporo ludzi się zastanowi czy ich stać na kompa. Jakby mieli mało kasy to mogliby kupić coś dziś, z tanią kartą i dokupić kartę za rok. Ale co mają teraz zrobić? Kupić 1630 za 1000zł o wydajności kart, które wyprzedzają tą kartę a kosztowały 200zł na allegro dobre kilka lat temu? A może wydać 1500zł na kartę, która jest wolniejsza od karty z roku 2015? Wyobraźcie sobie kartę o wydajności Rivy TNT2 obk GeForce'a 7900GTX. Przecież normalnie po tylu latach karta za 140zł była szybsza.
Czterordzeniowe procesory już nie dają sie podkręcać, a za chwilę nie da się podkręcać i 6c pewnie. Sztucznie ogranicza się wolniejszym procom dostęp do szybszych pamięci, co pogarsza wydajność. To jak już chcą segmentować to dać graczom max 2 sloty na RAM i tyle. Dałoby się. Ale nie. Trzeba być pazerną korpo która nie widzi nic poza najbliższym kwartałem i planszą zysków.
Pozwolono też zdechnąć Blurayowi. Gdyby kilku korpo zależało na rynku PC to by się zrzeszyły i zapobiegły takiej sytuacji. Skazanie graczy na online-DRM to jest ogromny cios. Gracz PC powinien mieć ZAWSZE wybór kupna gry "na zawsze". Jasne, że można sobie pobrać grę bez DRM i przechować, ale płyty powinny nadal istnieć, lub zostać zastąpione pamięcią Flash. No chyba nikt przy cenach typu 380zł za konwersję z konsol z gry sprzed pół dekady, nie będzie argumentował wyższym kosztem. Za kartę 64GB ostatnio płaciłem na promocji 19zł. Jednokrotnego zapisu byłaby pewnie jeszcze tańsza.
Wcześniej AMD olało graczy idąc w ZENa. Ja rozumiem powodu, ale to też temat rzeka dlaczego dopuszczono w AMD do takiej zapaści, że nie mieli wyboru. Pierwsze dwa ZENy to jest porażka. Architektura pod serwery a nie pod gry i może niewielu wtedy wiedziało patrząc na mylące słupki "average FPS", ale dziś jasno widać, że te proce często obrywały od muzealnego 2600K puszczonego na dobrym konfigu z szybkimi DDR3. Dziś nadal proce Ryzen 5600 i 5800 odstają czasem o 30-40%. A już się mocno poprawiło. Kto chce grać w 120fps i bez mikroprzycinek ten z zakupu Zena 1xxx, 2xxx czy 3xxx nie może być zadowolony. 3600 i 3800X to dziś jest absolutna porażka, a przecież AMD mogło dać mniej rdzeni ale dodać cache szybciej. Tylko że AMD nie zależy.
Teraz intel karłowaciejący rynek PC gaming dobije jeszcze raz, zabierając desktopy w ciągu najbliższych lat. Tylko mowa o mobile, mobile i mobile. Niski pobór prądu i blablabla.
Nie zależy też na VR nikomu. Oculus został rozjechany i zamiast obiecanego "Rifta 3 do roku 2017", nie dostaliśmy Rifta 2 do 2022 i nie dostaniemy pewnie już nigdy.
Valve wydało Indexa i olało temat. Co się sprzeda to OK, ale żeby się czasem nie przemęczyć. O, standalone VR się sprzedał, to Gabe ma nowy świetny pomysł - olewamy PC i następcę Indexa, a wydamy coś ala Quest. I kij, że ludzie dostaną downgrade trackingu, że zapłacą za niepotrzebną pececiarzowi elektronikę w środku odpowiedzialną za tryb standalone.
Jedyną firmą, która pcha VR do przodu na PC jest jakaś szemrana firemka z Chin, która łaskawie wyda w 2023 to, co technologicznie było możliwe 5 lat temu, w cenia zaledwie 5000€ z kontrolerem kupionym od Valve, przynajmniej do czasu aż Valve w końcu oficjalnie przyzna, że wywalają cały system Lighthouse do kosza i już nikt sobie zapsowej wieży czy kontrolera do Indexa nie kupi.
Bo to jest korpo. Oni nie mają pojęcia o tym jak myśli gracz-pasjonat. Nie mają pojęcia o tym, jaki w rynku jest potencjał.
Korpo w 2011: Widzimy szał na komórki, konsole umierają. Nikt nie kupi nowych konsol, no chyba, że damy jakiś lowend i dzięki temu bardzo niską cenę. O, AMD Klakier jest tani. Nada się.
Reszta korpo: PS4 i Xone nawet tanie odniosą klapę. Nikt już nie chce grać na konsolach, ludzie przesiadają się na komórki!
Te same korpo w 2014: O kurde, jak nas sprzedaż PS4 i Xone zaskoczyła.
Korpo w 2017: Gry single player wymierają, to już historia
God Of War: przepraszam, przepraszam, ja tylko przechodzę odebrać moje miliardy zysków z gry SP, przepraszam, już zaraz wyjdę i nie przeszkadzam panom w rozmowie
PC zabija pazerność, krótkowzroczność i kompletny debilizm korpo.
I ja już nie mam nadziei, że PC jakie znaliśmy i kochaliśmy, przetrwa.
[/spoiler']-
3
-
2
-
-
Skoro dyskusja co jest czym to się dołączę.
Następca 580tki to nie 680, a 780. Nvidia 660tkę nazwała 680 i kazała nazywać high-endem.
Co byloby odpowiednikiem rozsądnej cenowo a miażdżącej poprzedni high-end 8800GTX 384MB?
Nie wspomnę o 8800GT 512, bo to był raj na ziemi, dar z niebios (no nie licząc tego, że 90% padło przez gówniane luty, bo Nvidia jednak urzęduje na dole, a nie na górze
)
Skoro 80 to była karta pełna, to tak to powinno zostać, a marketingowe oszustwa traktujmy jako oszustwa, a nie normalność.High end, czyli 4080, to obecnie karty o nazwach pomiędzy 4090, 4090Ti lub Titan cośtam.
Lekko okrojone karty to podobna półka ilości tranzystorów i przepustowości RAM.
Średnia półka to 4060ti, które kiedyś oznaczało bardzo dobrą wydajność, ale wyraźnie gorzej. Dziś takie karty dostaną nalepkę z napisem RTX 4080.
Karta o równo polowie wydajności topu w 2004 była nazywana średnią półką, a oferowała wydajność nie ustępującą nigdzie (to ważne! nie tylko tu i tam) najszybszej karcie dostępnej przed premierą danej "nowej generacji".
Jak to zaplilować do 40xx to mówilibyśmy o 192bit, 12GB, oraz połowie cache jaki jest fizycznie w pełnym chipie jaki jest największym chipem w danej serii, licząc te które mają wyjście video.
Cokolwiek niżej to już low end. 4x mniej wszystkiego, czyli 96bit i 1/4 cache, to już ultra low end, karty które kiedyś nazywały się GF 2 MX, Geforce 6200, 7300 itp.
Teraz wracając do pytania co jest czym.
W sensie wydajności: 3050 to zdecydowanie karta o wydajności typowego badziewia jakie kiedyś brało się w zasadzie tylko do biura lub spotykało w kompach z marketów. Ktoś wyżej napisał, że od 1660ti do 3060. No tak.. tylko że 3050 potrafi przegrać w testach z 1660ti. No jak na dwie generacje dalej i porównanie do karty 1660, gdy była przecież inna 60tka wtedy - zwała się 2060, to jednak coś nie teges. Mijają 4 lata od momentu premiery 2060 a 3050 nie ma najmniejszych szans zastąpić 2060 w kwestii wydajności.
W sensie ceny: 3050 to do niedawna niemal high-end. A teraz? Google. O rzesz...
Ceny widzę zostały. 1500-1600 za najtańsze, a 2100 za najlepsze. Jeden dziwny sklep szuka jeleni za 2500zł do dziś
No to zdecydowanie jest to półka średnia.
W sensie chipu - no tutaj nie ma 192bit, więc zdecydowanie nie mid-end.
Wychodzi na to, że w trzech kategoriach, jedynie w kategorii cenowej 3050tka to mid-end.
Dla mnie to crap-end, bo cała ta karta w tej cenie to jest policzek w twarz jaki NV wymierza konsumentom. Radeon 6400 to jest uderzenie z łokcia, a Geforce 1630 jaki ostatni NV wypuściła to jest już po prostu kosa pod żebro w ciemnej uliczce, za co powinna ścigać policja i pakować do więzienia.
Po czterech latach, low end spokojnie powinien równać do 2060 przy cenie kart low-endowych czyli te 350-400zł. Razy dwa bo inflacja. To 700-800.
Nikt się nie łudzi, że NVidia lub AMD kiedykolwiek zrobią cokolwiek, żeby chora sytuacja z low-endem się poprawiła.
Więc może się zgodzimy, że low-end po prostu nie istnieje, a AMD i NV próbują wciskać biurówki które w 2010 stały w sklepach po 180zł za tysiaka.
Popatrzcie na cenę Xboxa Series S.
Na ceny produkcji.
A teraz na ceny produkcji PS5.
I Switcha.
I APU w Steam Decku.
No i a teraz się zapytacie: Gdzie do dżumy są te lowendowe karty?
Dmuchają nas jak chcą.
Mam nadzieję, że kto kumaty ten sobie przetłumaczy niektóre wyrazy na te, których nie wolno napisać
edit: zapomniałem kategorii pobór prądu. Tutaj się zmieniło, bo badziewiasty low-end nie powinien potrzebować żadnej wtyczki PCI-E, a teraz to wiadomo jak jest-
3
-
-
Godzinę temu, Stjepan666 napisał:Niech się ogarną z wydanością per Wat, wtedy pogadamy, dla mnie seria 4XXX tak jak kiedyś serie 8XXX oraz 2XX i 4XX były bardzo prądożerne, pamiętacie 8800GTX/Ultra, GTX280/295 oraz GTX480/490 ile to wpierdzielało prądu kiedyś, poczekam do serii 5XXX jak się ogarną z prądożernością, wydajność to nie wszystko. Z resztą ja zawsze siedziałem w średnim segmencie.
Średni segment ewidentnie zmieniają na siłę na segment niski, ale z ceną segmentu wysokiego

Przypomnę, kiedyś segment wysoki to 384bit, a średni to 256bit. Dziś za 256bit to trzeba bulić premium, a za kolejną generację to 5080 może będzie miał 128bit jak tak dalej pójdzie
Co do następcy to może nie być żadnego następcy. Nadejdą MCMy (multi chip) i tyle z tego będzie. Już po AMD widać jak to może wyglądać. Największy jednoukładowiec to lowend 128bit, któremu nalepią naklejkę "karta z półki średniej". Ja osoboście mam mocne obawy, że MCMy w grach będą miały konkretne minusy, choć nie dla każdego, tak jak dziś emulacja w kartach Intela nie przeszkadza jednym, a drugim co chcą grać w gry DX9 już tak.
Postęp zwalnia. Ceny rosną. Jak liczysz na to, że po 4090 wyjdzie coś jak wyszło po Fermi 480 to się możesz rozczarować. W sumie to po 4nm, pierwszy realny postęp i to nawet nie 2x tylko 30%, no moooże +50%, ale może i tylko +25%, to może być dopiero rok 2025 lub 2026. Do tego momentu wielkie jednoukładówki do gier mogą już przejść do historii. -
To nie jest kwestia czy ktoś jest ślepy czy nie jest, tylko kwestia tego, czy jego mózg się nauczył rozpoznawać róznicę czy nie bardzo. Tak jak gracz esport szybko zauważy przeciwnika jak mu się w oknie jeden pixel zmieni z szarego na ciemniejszy szary, tak podobnie osoba, która się bawiła porównaniami kilka razy, będzie widziała różnicę natychmiast i określi ją jako znaczącą.
Pomiędzy 60 a 75 jest widzalna różnica w wyścigowej grze, bo tylko to sprawdzałem. Przy ruszaniu kursorem czy okienkiem to laik może nawet nie wiedizeć na co zwracać uwagę. Na to jak ostro widać poruszany obiekt ma większy wpływ typ matrycy i tryb wyświetlania obrazu niż samo odświeżanie, a "płynność" to nie wszystko.
Ja potrafię zgadywać po sposobie poruszania się kursora na puplicie i tym jak wygląda przesuwanie okienek, czy mam monitor na 100 czy na 120Hz. W zasadzie zawsze gdy mi się wydaje, że chyba mam 100 bo coś nie tak, więc zaglądam do ustawień, faktycznie jest 100. Ale ja spędziłem na porównaniach sporo czasu i mam najszybszą matrycę LCD.
Ogólnie jednak różnicy 60 vs 75Hz nie określiłbym jako "ogromna".
Co do pasztetowej i szynki. Sposób czucia ruchu myszki na 120Hz jest inny. To jak widzisz ruch na ekranie jest inny. To są rzeczy, których czasem laicy nie widzą, aż poużywają dłużej. Wtedy powrót jest bolesny. Jak ze wszystkim. Pograj trochę na monitorku 22" i przesiądź się na 24". No lepiej, ale po miesiącu nie będziesz uważał, że jest przepaść. Aż do czasu gdy przesiądziesz się na 22". Wtedy już będzie naprawdę wyraźnie widać, że 22" jest duuużo gorsze. I tak samo z 40" vs 46, i 80 vs 100" i tak dalej. Zawsze z lepszego na gorsze szybciej rozpoznasz różnicę jak się przyzwyczaisz, bo po prostu wiesz co tracisz. Tak samo jest z graniem w 30fps. Teraz konsole nie mają prawie gier na currentgeny to większość ma tryby 60fps i coraz więcej konsolowców przyznaje, że jednak woli grać w 60.
Nie ma co wyzywać innych od ślepych. To po prostu naturalne dla ludzi, że tak interpretujemy różnice.
Ja chciałbym dożyć posiadania monitora 1000Hz na MicroLED i wtedy możemy sobie pogadać jak strasznie badziewne jest 240Hz i że trudno uwierzyć, że ludzie chwalili monitory 120Hz
-
1
-
-
Zaraz, zaraz.
Ale on podał, że ma NB 3600 a memory 1500.
To w końcu ma RAMy na 3600 czy 3000?
Bo jak 3000 przy tych timingach to bardzo ogranicza wydajność swojego 9900K.
3600 17-17 to też daleko od maksimum potencjału ale zgoda, że średniak i ujdzie jak na proca, który i tak już o tytuł mistrza nie powalczy.
@naczelnik5
To fakt, dema to dema, a do gry to tam trzeba wpakować 4x tyle detali.
Co MS FS2020 to chodzi o to, że to ma po prostu nextgenową ilość geometrii. Ten parametr, patrząc na view distance i pop-in disntance, często wisi właśnie na procu.
Jeśli gry są robione pod PS4 i PS5, to robi się je tak, aby na PS4 miały 30fps, a na PS5 60 czy 120fps.
Jeśli teraz jednak odrzucą w końcu, a w końcu się to stanie, past-geny to przy projektowaniu gry pod 30fps na PS5, wszysko od high czy very high w porcie takiej gry na PC może wymagać więcej od proca. I tutaj po prostu może być problem aby uzyskać 2x taką wydajność na 9900K niż na konsoli.
Co do optymalizacji, to optymalizacja zazwyczaj idzie "na odwal się". Jest 30fps jako-tako stabilne to jest dla wydawcy OK i można grę pchać. I teraz jak programista nie ma od "góry" zadania zrobienia poprawnej optymalizacji, to nie będzie kosztem własnego czasu i innych obowiązków w pracy robił optymalizacji na inne proce. Kod portu więc ma działać tak aby było OK na tym kompie przy którym on akurat siedzi w pracy. Zazwyczaj to jest topowy proc na daną chwilę. I jesli ktoś robi port na 12900K czy 13900K w pracy, to może być że choćby target pojemności cache na procu będzie właśnie pod te nowsze proce. I nawet jakby dało się rozpisać ten kod tak, aby pracował lepiej na 9900K to realia są takie, że porty są robione byle jak i tutaj starsze procki zawsze z czasem tracą.
Dam taki przykład. C2D 6300 na takim samym zegarze do C2D 6600 tracił odrobinę. Jakies 10-20% max. Ale był jeden test, w nieralnych ustawieniach w grze FEAR. Bez cieni. I tutaj już różnica była w teście w stylu 100fps vs. 200fps.
I co się stało? Ano po kilku latach takie róznica zaczęły się pojawiać w wielu grach na normalnych ustawieniach.
Wcześniej Duron 800 był prawie tak szybki jak Athlon. Aż wyszła gra Comanche 4 (czy inny numerek, to było ponad 20 lat temu, wybaczcie) i na Duronie, który był tym samym procem, tylko miał mniej cache - nagle nie dało się grać. Gra zwalniała do niemal zera. Wlatywałeś nad lotnisko, zaczynał spadać framerate, aż osiągnął dno na poziomie niegrywalnych 1-5fps.
Na pewno na Duronie 800 dałoby się tą grę puścić szybciej jakby ktoś pod tego proca kod zoptymalizował.
Z nowszych przypadków to były afery z DRM, gdzie developer pierdział, że DRM nie robi różnicy w wydajności, a potem się okazało, że jednak robi, tylko dev siedział na 8c/16t z najwyższej półki, a po premierze ludzie bez DRM na 4c osiągali to samo co ludzie z 6c na DRM. Cała jedna półka cenowa wyżej tylko po to, aby DRM dowalić. Taki jest poziom przykładania się do optymalizacji gier na PC. I nie ważne, że gra z żółwiastej konsoli.
Jak gra na konsole, pisana tylko pod PS5/X Series, będzie miała sporo geometrii i target 30fps w grze z gatunku, gdzie 120fps się przydaje, to nawet 13900K może nie starczyć.
Tym bardziej jak fapujący do nowego silnika developerzy zrobią grę pod 30fps na swoich sprzętach, a na konsoli się potem okaże, że dla 30fps to zasięg widzenia jest na 2 metry od kamery a 5m od niej wskakują budynki i drzewka
to sensnowne ustawienia na PC też będą sporo wyższe w porcie na PC.
Te wszystkie nowe techniki jakie są w UE5 czy raytracingu, sporo od proca wymagają.
Jak na dziś do 60fps = spoko.
Jak jednak karta 3090 jest kupowana na 2 lata conajmiej, to zmiana będzie koniecznie prędzej czy później, a proce tak mocno do przodu już nie idą, żeby oczekiwać, że w 2024 będzie coś 30% szybsze od 13900K. Moim zdaniem nie będzie. A skoro zmieniać to lepiej od razu niż za 2 lata, to się te 2 lata więcej skorzysta z lepszego CPU -
Godzinę temu, lis22 napisał:Możliwe, że coś mi pozmieniali w BIOS ie?
Dwie osoby próbowały uruchomić obsługę TMP 2.0 żeby zainstalować W 11 ale nie udało się tego zrobić, wcześniej takich problemów, poza tym tabletem nie było.
Możliwe, ale nie sądzę.
Może spróbować zrestować w bios do factory defaults (ust. domyślne) tylko zapytaj tych, co ustawiali wcześniej, czy nie było jakiegoś ustawienia, które się przydaje, np. podkręcanie czy konfiguracja czegoś pod Twoje zastosowania.
Co do monitora, to jak masz czas i chęci to poczytaj sobie tutaj:
https://blurbusters.com/faq/motion-blur-reduction
tutaj masz porównanie obrazu z migotaniem (backlight strobing albo Lightboost, to dwie nazwy na dokładnie to samo)
https://blurbusters.com/zero-motion-blur/lightboost/
Od razu na samej górze.
Jak monitor radzi sobie z ruchem, to migocze. Innej drogi poniżej 500Hz nie ma jak zechcesz mieć czysty obraz w ruchu, co naprawdę moim zdaniem dodaje grom znacznie więcej niż przejście z monitora 1080p na 4K, choć jest to kwestia gustu i preferencji, bo ktoś kto gra tylko w horrory powie, że OLED 480p lepszy od LCD 8K, bo czerń wypada po prostu inaczej i LCD nie ma szans.
Jeśli migocze to nie chcesz tego widzieć. A przy 60Hz widać i to mocno. Mając kartę 3090 spokojnie można grać w trybie 120Hz gdzie migotanie nie jest widoczne i nie męczy jakoś mocno (zależnie od osoby. 30-200 minut bez przerwy powinieneś móc grać zanim przydałaby się krótka przerwa)
Migotanie ma swoje wady: Musisz się nauczyć sporo o całym zjawisku, nauczyć ustawień w grach, bo tutaj jest różnica między 118fps a 120fps i liczą się tylko wartości najniższe, więc patrzysz w testach na 0,01% lows, a nie na średni fps. No i tracisz sporo jasności, co mocno boli przy graniu w nasłonecznionym pokoju, ale jest OK jak grasz wieczorami/w nocy lub masz pokój mocno zaniemniony.
Jako ktoś kto ceni sobie obraz w ruchu i wartości jakie dodaje grom uzyskanie obrazu czystego, a nie rozmytej zupy, obserwuję już od 23 lat, że zdecydowanie lepiej się gra słabej karcie graficznej a dobrym CPU niż odwrotnie. To jest zasada, która się nie zmienia od lat, ale mało osób o niej wie, bo na LCD bez migotania podświetleniem to nawet micro-przycinek nie widzisz, bo przykrywa je inny problem (rozmycie w ruchu).
Do grania z migotaniem potrzebujesz załączyć v-sync. To też zmienia kwestie wymagań i mocno uwidacznia problemy z brakiem mocy procesora.
Na koniec, powoduje też spory input lag, więc w 60Hz na g-sync możesz grać bez problemu, to przy v-sync on przy celowaniu myszką, 60Hz to jest po prostu tragedia i 120Hz to jest minimum, a przydatne jest nawet i 240Hz (czytaj: nadchodzące OLEDy, bo LCD i tak na 240 jest za wolne)
Na sam koniec - LCD które są wystarczająco szybkie do migotania i uzyskania poprawnego obrazu w szybkim ruchu, to są dokładnie te LCD które BARDZO odstają kontrastem i żywością obrazu od tych wolnych. Dlatego jak kupisz jakiś monitor zachwalany za super jakość obrazu, świetny HDR i w ogóle najlepszy monitor roku 2022 itd. to będzie to na 99% monitor na matrycy VA. Taka matryca jest za wolna często nawet na migotanie 60Hz. Niektóre sobie z tym radzą. Monitorów VA które są na tyle szybkie aby poradzić sobie przy 120Hz po prostu nie ma. I pewnie nie będzie.
Także albo się nie przejmuj i kupuj te 3090, albo apap na ból głowy i kombinuj co dla Ciebie jest najlepszą opcją. Może zanim skończysz się zastanawiać to już 4090 będzie po premierze

NVIDIA RTX 40x0
w Karty graficzne
Napisano · Edytowane przez Ronson
Wykresik pewnie bzdurny, ale z braku laku można i o nim pogadać, zakładając scenariusz, że jednak prawdziwy:
+80% w Minecrafcie, który ma pełne RT. +100% w Quake'u.
Niestety względem 3090, a nie 3090ti.
Na wykresie tylko gry z RT.
To sugerowałoby, o ile ten wykres to nie ściema, że o +100% w rasteryzacji, czyli o przełomie, pierwszej generacji od bardzo dawna, która naprawdę miesza - możnaby zapomnieć.
Inaczej na wykresie byłyby pozycje pokazujące wzrost w grach bez RT.
Z drugiej strony
- mam nadzieję, że fake
- mam nadzieję, że był ten "undervolting" w sensie, że karty będą pozytywną niespodzianką w temacie podkręcania. O ile NV chamsko tego OC nie zablokuje/ograniczy.
Zgadzam się z Wami, że i tak nawet przy +100% ten cały ray-tracing to nieporozumienie.
Krytyka RT pod spojlerem. Zwolennicy RT mogą sobie darować kliknięcie
35fps w grze, gdzie jest tylko częściowy RT, w grze z 2020r. (Cyberpunk). I nadal ten cały RT jest pełen szumów, bo promieni powinno być z 5x tyle, żeby wszytko wyglądało jak trzeba. I nadal zjada superważną wydajność CPU ograniczając przydatność do grania w 120fps, a więc albo rezygnujesz z responsywności i normalnego sterowania, albo z wyraźnego obrazu w ruchu (v-sync ON = nikt normalny nie chce grać w 60Hz czy to przez sterowanie myszką (laaaag!) czy przez migotanie (w trybie z wyraźnym ruchem na ekranie)
2080Ti = S3 Virge
3090 i 4090 to taki Matrox Mystique
kiedy 3dfx VooDoo?
kiedy Riva TNT2 (pierwszy konkrenty skok w rozdzielczość "hi-res" i erę gier z lepszymi teksturami niż te robione pod 2MB)
Oceniałem, że falstart był gdzię o dekadę, i nadal to podtrzymuję. W 2028 może coś z tego będzie. Takie RT jakie będzie mieć teoretycznie 2x szybszy od 3090 model 4090, to powinno być w kartach low end, typu GF 2 MX, GTX 750ti, gtx 960. Celowanie tylko w 60fps, w 1440p, z szumami w odbiciach lub lekko biedną ilością detali.
A nie w kartach za 5-15 tysięcy.
Potrzebujemy z 10x tyle co ma 3090. Skoku o 5x względem 4090 nie da się zrobić choćby nie wiem jaką rewolucję wymyślili architekci GPU, bo to po prostu za dużo obliczeń i za dużo prądu.
Dopóki mainstreamowe karty biorące 100W nie będą sobie spokojnie radzić z RT, które naprawdę imponuje i zachwyca (a nie tylko fanatyków światla, dla których cofanie się w geometrii o 20 lat do tyłu to nie problem, o ile tylko można się brandzlować do realizmu w oświetleniu) żadnej rewolucji z tego nie będzie, tak jak nie było gdy karty na PC osiągnęły wydajność 10x konsol, a ilość pamięci na tekstury była 4x większa. I co? Jakie były gry pod GTX 480? Mieliśmy już Titana Kepler 3GB zanim wyszły nowe konsole, a gry nadal byly robione tak, aby pomieścić wszystko w 512MB x360 (dla grafy oczywiście mniej) albo i 256MB w PS3.
Teraz to se można pooglądać demka z kulkami albo gry, w których nie wolno za szybko ruszyć kamerą, bo się robi problem, lol
Powinny być karty 4090 bez RT, tak jak były 8800GT 320MB. Kto chciał tanią a szybką, ten dostawał. Kto chciał "future proof" ten kupował droższą. Podobnie z 4090 - dać snobom i grafikom pełne karty, niech sobie grafik akceleruje viewport z RT przy modelowaniu, niech się branża profesjonalna cieszy rewolucją.
A od graczy z tym RT to (wstaw tu Bogusia Lindę ze słynnej sceny z karabinem)