Kyle_PL 1134 Napisano 23 Września 2022 1 minutę temu, darkmartin napisał: 4080 ma mniej rdzeni cuda w stosunku do 3080 i mniejsza przepustowość pamięci 12 GB 4080 ma mniej rdzeni CUDA niż 10GB 3080 nie wspomnę nawet o przepustowości pamięci. Gdzie nastąpiła rozbudowa w tensorach 639 do 272. widać od razu, że karta jest skonstruowana przede wszystkim pod upscaling DLSS Wszystko wskazuje na to, że niższe modele będą również mieć mniej rdzeni CUDA niż w serii 30X0 Czyli jak ktoś nie używa tego syfu DLSS to RTX 3xxx jest szybszy od RTX 4xxx? 🤣 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
aureumchaos 756 Napisano 23 Września 2022 LoL a ja ciagle marze zeby zagrac w CP77 max ultra super duper RT na opor w 60 fps ale NATIVE!!!!! 2 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
SebastianFM 1139 Napisano 23 Września 2022 2 minuty temu, kadajo napisał: Tylko to zawsze był bonus, a nie główny powód. Nowe GPU kupuje się dla nowych/przyszłych gier, a nie aktualnych. I to się robi trochę śmieszne, kupujesz GPU które fajnie sobie radzi z grami które już są a te nowe jak wychodzą nagle potrzebują sztuczek bo już GPU sobie nie radzi i cyk znowu musisz kupić nowe GPU. Jak ten proces trwał 3-4 lata to było spoko, ale jak on teraz ma trwać rok góra dwa, przy kartach za ponad 7 tys. złotych... PC robi się kompletnie nieopłacalną maszynka do grania, ale tak naprawdę nieopłacalną. Tutaj naprawdę konsola zaczyna świecić jak złoto. Tak, bo jak się przesiadasz z PC na konsolę to automatycznie ci się coś przestawia w mózgu, że przestajesz potrzebować natywnego 4K i ustawień Ultra czy Psycho RT. Jak do tej pory DLSS kłuło w oczy to nagle dynamiczne skalowanie jest w porządku a niektórzy to nawet korzystają z upłynniacza w telewizorze, który działa 100 razy gorzej niż DLSS 3. 1 2 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
Ronson 242 Napisano 23 Września 2022 (edytowane) Godzinę temu, SebastianFM napisał: Opowiadasz bzdury. Po pierwsze w Turing i Ampere przepustowość pamięci jest w większości przypadków na wyrost. Można to prosto sprawdzić, zmieniając częstotliwość pamięci np. o 20%. Najlepszym przykładem jest właśnie RX 6900 XT, który ma szynę 256 bit zamiast 384 bit i prawie o połowę mniejszą przepustowość pamięci niż RTX 3090. Różnica w wydajności w grach wynosi średnio 10% i nie ważne czy w 1080p czy 4K. Nie, nie można tego tak sprawdzić. Wiesz jak są dostosowywane inne parametry przy tej zmienie? Nie wiesz. Tak jak idioci prawie 20 lat temu twierdzili, że podnoszenie FSB w Athlonach nie ma znaczenia, bo z 133 na 166MHz widać różnicę, a z 166 na 200 i 266 nie ma jej wcale (liczby są błędne w moim przykładzie, bo słabo to już pamiętam). A czemu? Ano kontroler pamięci sobie dostosowywał parametry. Tak samo jak Ivy Bridge na pamięciach 2400 osiągał to samo co Sadny na 2133. A Bulldozer miewał te same wyniki na 4GHz co na 3.2GHz. Także takie "sprawdzanie" to o kant D potłuc. Do tego jeszcze dochdzi co i jak sprawdzasz. CPU bottleneck, shadery vs. czysta wydajność, a dalej wydajność w grach 60fps vs. 180fps. Albo w VR. Wydajność średnia a wydajność 0,1% low (to jest istotniejsze niż AVG, a nawet szanowani scepe skupiają się na AVG bardziej, podczas gdy różnica w AVG o 30% może nie dać nic, a spadek w AVG o 0,5% może oznaczać aż 10% spadku w 0,1% lows) A 6900XT nie jest najlepszym, a najgorszym przykładem, bo ta karta ma cache, którym sobie pomaga i niweluje wpływ pamięci na wydajność. Na sam koniec jeszcze jest kwestia tego, że sama przepustowość może zawierać w sobie dwa parametry. Realną przepustowość i czasy dostępu. A zapchanie przepustowości może wpływać na czas dostępu. Zmiana szyny i zegarów oraz timingów może wpływać. Moim zdaniem nie tylko nie masz tego jak łatwo sprawdzic, ale w ogóle nie masz jak sprawdzić, chyba że jesteś inżynierem od projektowania GPU i masz odpowiednie narzędzia do tego. edit: a jeszcze mamy mechanizmy automatycznego dostosowywania się w GDDR6X. Polecam przyjrzeć się testom OC kart 3090, gdzie w kilku grach masz +5-7%, a w kilku masz... spadek o 15% względem stock. Edytowane 23 Września 2022 przez Ronson Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
kadajo 11799 Napisano 23 Września 2022 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
darkmartin 23 Napisano 23 Września 2022 1 minutę temu, Kyle_PL napisał: Czyli jak ktoś nie używa tego syfu DLSS to RTX 3xxx jest szybszy od RTX 4xxx? 🤣 4090 będzie zawsze szybsza ale dla niższych modeli możesz się zdziwić. 40X0 może nie być szybsze bez DLSS. Pamiętaj, że magazyny 30X0 są pełne. 40X0 będzie moim zdaniem promowane do grania w 4K z DLSS 1 1 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
kadajo 11799 Napisano 23 Września 2022 1 minutę temu, SebastianFM napisał: Tak, bo jak się przesiadasz z PC na konsolę to automatycznie ci się coś przestawia w mózgu, że przestajesz potrzebować natywnego 4K i ustawień Ultra czy Psycho RT. Jak do tej pory DLSS kłuło w oczy to nagle dynamiczne skalowanie jest w porządku a niektórzy to nawet korzystają z upłynniacza w telewizorze, który działa 100 razy gorzej niż DLSS 3. No i to jest zabawne w tym co piszesz. NA PC już tez nie masz natywnego 4k i ustawień Ultra bo każą ci za nie płacić jakieś absurdalne sumy, a i tak, nie możesz grac w natywnej rozdzielczości bo potrzebujesz DLSS 😂 No chyba, że w 5-10-letnie gry, lol 4 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
SebastianFM 1139 Napisano 23 Września 2022 1 minutę temu, Ronson napisał: A 6900XT nie jest najlepszym, a najgorszym przykładem, bo ta karta ma cache, którym sobie pomaga i niweluje wpływ pamięci na wydajność. No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska. 4 minuty temu, darkmartin napisał: 4080 ma mniej rdzeni cuda w stosunku do 3080 i mniejsza przepustowość pamięci Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością. 1 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
Ronson 242 Napisano 23 Września 2022 Godzinę temu, SebastianFM napisał: No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska. Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością. Póki co nie wiemy, czy ten cache L2 się naprawdę przyda w rasteryzacji czy nie. Jest inaczej "podpięty" pod GPU niż w kartach AMD. Możemy mieć nadzieje, ale możemy mieć też uzasadnione obawy. Moim zdaniem jest szansa, że 4080 12GB w wielu grach będzie dostawał po D od 3080ti a może i nie będzie wyprzedzał 3080. PS. 4080 16GB to żaden prawdziwy 4080. To jest 4070tka, a 4080 12GB to 4060tka. To, że Nvidia już oswoiła ludzi z kłamstwem jak przemalowywała segmenty kilka lat temu, nie znaczy, że mamy to łykać. 1 1 6 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
kadajo 11799 Napisano 23 Września 2022 Pomijając ze Nvidia robi z nas debili to ostatecznie liczy sie moc do ceny. A ta na ten moment wygląda średnio żeby nie napisać słabo. Przy takich cenach te karty powinny być od 6 do 8 razy szybsze od tego co jest aktualnie na rynku. 2 5 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
darkmartin 23 Napisano 23 Września 2022 (edytowane) 12 minut temu, SebastianFM napisał: No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska. Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością. A jest jakiś nie prawdziwy 4080 z klocków lego ? W specyfikacji jest wyraźniwe napisane że 4080 12 GB ma mniej rdzeni niż 3080 10GB (7680 vs 8704 to jest 12% mniej jednostek). Taktowanie jest około 50% wyższe. Szyna pamięci jest 192 bit do 320 bit. Schadery są takie same w 40X0 jak e 30X0 Różnica wydajności bez DLSS może być naprawdę bardzo mała. 4090 będzie oczywiście wywalona w kosmos ale tak musi być. Reszta to nędza. A co do tego mitycznego cache - cache jest super jak się w niego trafi a jak się nie trafi to trzeba brać z pamięci po wąskiej szynie. Edytowane 23 Września 2022 przez darkmartin 1 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
Mistol 233 Napisano 23 Września 2022 Jak czytam co tu wypisujecie to odechciewa mi się kupno 4xxx. 8000-1000 tysi za "mydło" to ja podziękuję. Gram w natywnej rozdzielczości. Chciałem realnego wzrostu wydajności a nie g.. DLSS 3 2 2 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
Minciu 4778 Napisano 23 Września 2022 2 minuty temu, darkmartin napisał: A jest jakiś nie prawdziwy 4080 z klocków lego ? W specyfikacji jest wyraźniwe napisane że 4080 12 GB Ad1 : https://ithardware.pl/aktualnosci/colorful_przygotowal_pc_z_geforcem_rtx_4090_na_ktory_stac_kazdego-23440.html Ad2: na pudełku w sklepie chyba nie znajdziesz tego wyraźnie napisanego. Godzinę temu, zawisztheblack napisał: Dokładnie, tutaj nie ma żartów. Wszystko musi być bardzo dobrze i przemyślanie wykonane, bo inaczej stopisz sobie wtyczki - albo do strony GPU jak coś będzie źle zaciśnięte / źle wpięte lub od strony PSU, ale to temat na osobną rozmowę. Stopienie wtyczek to i tak lajtowy problem. Bo stopić może się cała chata. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
kadajo 11799 Napisano 23 Września 2022 6 minut temu, darkmartin napisał: Różnica wydajności bez DLSS może być naprawdę bardzo mała. 4090 będzie oczywiście wywalona w kosmos ale tak musi być. Reszta to nędza. Właśnie taki obraz się rysować zaczyna, DLSS 3 ma uratować zbyt mały skok wydajności. Zapewne dlatego nie widzimy jego wsparcia dla starszych RTX'ow. Dlatego te karty tak żrą prądu, są wyżyłowane w kosmos do tego stopnia ze teraz to TY będziesz mógł wybierać NA WŁASNE RYZYKO czy chcesz wchodzić w świat 600W TDP. Tutaj się zapowiada powtórka z Turinigiem tyle że jeszcze bardziej żałosna. 5 minut temu, Mistol napisał: Jak czytam co tu wypisujecie to odechciewa mi się kupno 4xxx. 8000-1000 tysi za "mydło" to ja podziękuję. Gram w natywnej rozdzielczości. Chciałem realnego wzrostu wydajności a nie g.. DLSS 3 W punkt. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
sideband 4209 Napisano 23 Września 2022 20 minut temu, Ronson napisał: edit: a jeszcze mamy mechanizmy automatycznego dostosowywania się w GDDR6X. Polecam przyjrzeć się testom OC kart 3090, gdzie w kilku grach masz +5-7%, a w kilku masz... spadek o 15% względem stock. Muszę przestać tu wchodzić bo mi głową imploduje od głupot. 14 minut temu, Ronson napisał: Póki co nie wiemy, czy ten cache L2 się naprawdę przyda w rasteryzacji czy nie. Jak wyżej. 1 5 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
SebastianFM 1139 Napisano 23 Września 2022 10 minut temu, darkmartin napisał: Taktowanie jest około 50% wyższe. Szyna pamięci jest 192 bit do 320 bit. Schadery są takie same w 40X0 jak e 30X0 Różnica wydajności bez DLSS może być naprawdę bardzo mała. Jak tylko pojawią się pierwsze wyniki w natywnej rozdzielczości to nie omieszkam ci przypomnieć, jak bardzo nietrafione były twoje wywody. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
MroczneWidmo 99 Napisano 23 Września 2022 1 1 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
cichy45 178 Napisano 23 Września 2022 1 godzinę temu, zawisztheblack napisał: Dokładnie, tutaj nie ma żartów. Wszystko musi być bardzo dobrze i przemyślanie wykonane, bo inaczej stopisz sobie wtyczki - albo do strony GPU jak coś będzie źle zaciśnięte / źle wpięte lub od strony PSU, ale to temat na osobną rozmowę. Dlaczego oni idą w konektor rozmiaru PCIE 8 pin z większą ilością cieńszych kabli i delikatnymi wtykami zamiast dać właśnie mniej pinów i grubsze kable, gdzie wszystko byłoby bardziej odporne? Przecież przy wysokich prądach nikt nie rozdziela ich na 30 wtyków z kablami 0.2mm tylko idą dwa kable konkretnej grubości. Moze chodzi o elastyczność, ale też nie przesadzajmy że linka 3mm jest super sztywna, a pewnie takie wystarczyłyby tylko 4 i z solidnymi wtykami zamiast tych mikro końcówek. 3 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
Thimedes 1186 Napisano 23 Września 2022 5 minut temu, MroczneWidmo napisał: Źle to wygląda, dużo artefaktów. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
sideband 4209 Napisano 23 Września 2022 https://www.newegg.com/msi-geforce-rtx-4090-rtx-4090-gaming-trio-24g/p/N82E16814137762?Description=4090&cm_re=4090-_-14-137-762-_-Product&quicklink=true Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
MroczneWidmo 99 Napisano 23 Września 2022 7 minut temu, Kynareth napisał: Źle to wygląda, dużo artefaktów. pewnie tez finalnie to nie przeszlo, ale z drugiej strony to bylo 12 lat temu. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
ArgusSamuaro 120 Napisano 23 Września 2022 (edytowane) 10 minut temu, sideband napisał: https://www.newegg.com/msi-geforce-rtx-4090-rtx-4090-gaming-trio-24g/p/N82E16814137762?Description=4090&cm_re=4090-_-14-137-762-_-Product&quicklink=true 7790zł kursem Google Dostawa przez pośrednika i wychodzi załóżmy nawet te 8k I wcale nie ma takiej tragedii Chyba ze coś mi umyka Edytowane 23 Września 2022 przez ArgusSamuaro 2 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
Fenrir_14 820 Napisano 23 Września 2022 (edytowane) 13 minut temu, sideband napisał: https://www.newegg.com/msi-geforce-rtx-4090-rtx-4090-gaming-trio-24g/p/N82E16814137762?Description=4090&cm_re=4090-_-14-137-762-_-Product&quicklink=true Jak narazie po cenie MSRP @ArgusSamuaro trzeba VAT jeszcze doliczyć i myto w PL to wyjdzie pewnie te 10K z górką mniejsza lub większą. Edytowane 23 Września 2022 przez Fenrir_14 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
Ronin69 376 Napisano 23 Września 2022 (edytowane) 3 minuty temu, ArgusSamuaro napisał: 7790zł kursem Google Dostawa przez pośrednika i wychodzi załóżmy nawet te 8k I wcale nie ma takiej tragedii Chyba ze coś mi umyka może VAT i cło? Edytowane 23 Września 2022 przez Ronin69 3 1 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach
kadajo 11799 Napisano 23 Września 2022 12 minut temu, MroczneWidmo napisał: pewnie tez finalnie to nie przeszlo, ale z drugiej strony to bylo 12 lat temu. W pierwszej chwili tez tak sobie myslalem ale interpolacja w Video a konkretnie w TV jest znana już z lat 90, jej najbardziej wtedy znana wersja była w TV Philipsa (Motion Flow albo plus nie pamiętam jak się to teraz nazywało, trzeba by pokopać trochę w necie), a potem stała się częścią Pixel Plusa który żeby było śmiesznie robi dokładnie to samo co DLSS 3, upscaluje do wyższej rozdziałki i upłynnia obraz. Ale do czego zmierzam. Mamy rok 2022, znacznie szybsze procesory itd itd itd. a TV nadal nie potrafią idealnie (bez artefaktów) interpolować Video w żadnej rozdzielczości. Zapytajcie każdego speca od TV to wam powie żeby to wyłączać. Minęło tyle lat a nadal nie ma sposobu żeby to dobrze ogarnąć. I coś czuje ze DLSS 3 będzie ta sama bajka, ale w sumie chciałbym się mylic bo jeśli Nv faktycznie to ogarnęła i działa to perfect albo przynajmniej tak ze nie widać tych artefaktów podczas normalnej rozgrywki to to byłby niezły przełom w upłynnieniu grafiki real time bez obciążania potoku renderingu, szczególnie tam, gdzie procesor albo sama ułomność silnika gry dusi wszytko (aka Microsoft Flight Symulator). Tak że jestem sceptyczny ale ciekawy tego co oni tam probuja nam wcisnąć. Testy będą ciekawsze od samej premiery, to na pewno. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach