Skocz do zawartości

Rekomendowane odpowiedzi

No i tak sobie myśle to nie przypadek że w tych krótkich migawkach z DLSS 3.0 nVidia pokazała nam praktycznie tylko gameplay gdy auto lub postać poruszały się do przodu, bez nagłych zmian kierunku bez nagłych zmian kamery, wszystko bardzo kontrolowane, aby ograniczyć potencjalne artefakty.

Oczywiście DF będzie nam mówić coś innego :E   

takie mam przeczucie, wtedy po prostu napiszę komentarz 

"Richard zmień okulary, bo detale ci uciekają" 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jestem pewien ze Nv zablokowała sztucznie DLSS 3 na Ampere i Turingach bo może i okazałby się gorszy (więcej artefaktów) ale nadal na tyle akceptowalny ze juz kompletnie nie byłoby czym "sprzedawać" Ad'y.

Spider Sense GIFs | Tenor

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Keken napisał:

No i ponawiam pytanie czy w najbliższym czasie są planowane jakieś gry killery graficzne żeby ten sprzęt wykorzystać?

To prawda. Jest lipton :(.
Jak ktoś jest masturbatorem ogrywającym każdy nośny tytuł od dnia premiery i miętoli wszystko w realtime, to... ma problem!
Ja akurat mam taką GÓRĘ WSTYDU, że mając teraz 100% mocy więcej pod maską, z większą ochotą wróciłbym ponownie i po raz enty do niektórych tytułów, które kiedyś niedomagały.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co Wam nie pasuje w tym video? :D

 

 

  • Sad 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ja się nie będę powtarzać. Przypomnę tylko, że DLSS 3 ma znacznie większe pole do popisu niż interpolacja klatek w telewizorach, ponieważ korzysta z dodatkowych danych dostarczanych przez grę.

NVIDIA nie pokazała za dużo, jednak na krótkim filmie od Digital Foundry można dostrzec więcej artefaktów, np. w Cyberpunk 2077 przy nogach ludzi.

Ja bym zbyt pochopnie nie oceniał. Przecież to jest nowe rozwiązanie. Zanim pierwsze gry zaczną to obsługiwać to minie sporo czasu. Tak samo zanim będziecie mieć nowe karty graficzne obsługujące DLSS 3. NVIDIA na pewno dopracuje jescze sporo DLSS 3 tak jak dopracowywała przez długi czas DLSS 2.

Przypominam też, że jak na razie nie ma obowiązku korzystania z DLSS 3. Komu będzie przeszkadzało to zamiast narzekać niech nie włącza tej opcji, tak samo jak z DLSS 2.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Są już jakieś ciekawe nowe zasilacze robione pod 12VHPWR?

Bo właśnie w końcu odesłałem mojego padniętego Corsair HX1200i i cóż, ani nie wymienią, ani nie naprawią więc wleci zwrot prawie 300euro i trzeba się rozglądać za nową zasiłką na przyszłość pod te wszystkie cudaczne GPU :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
2 godziny temu, sideband napisał:

Muszę przestać tu wchodzić bo mi głową imploduje od głupot.

Nie widziałeś dziwnego zachowania w kartach serii 3000 po OC?
O.. a taki fachowiec, co tu nie ma co zaglądać, bo ten wątek jest niegodny goszczenia takiego mędrca.
I nie wiedział..
ac14531f17d3a3e0ee1fe498b2c27318.png

Co do pamięci to zerknij tutaj, dlaczego w nowych kartach nie jest już jak dawniej, że kręcisz kręcisz aż masz spadki.
https://itigic.com/gddr6x-memory-why-it-achieves-more-speed-and-overclock/
Dodaj do tego fakt, że na niektórych kartach pamięci już są blisko swoich możliwości pracy w danych warunkach i masz to co w uproszczeniu napisałem wyżej. 

Co do L2, to nie jest ono dokładnie tak samo zaprojektowane jak u AMD. 

AMD: 
RDNA_2_2.png

4090:
NVIDIA-Ada-Lovelace-GPU-GeForce-RTX-4090

Nawet nazwa typu cache jest inna. L2 u Nvidii vs. L3 u AMD. 
No ale pan mędrzec wie lepiej i do tego jest wróżbitą, bo nikt jeszcze nie wie jaka będzie wydajność w rasteryzacji ale mędrcy już wiedzą.

Po raz kolejny powtórzę: skończcie zaśmiecać wątek komentarzami na temat osób i opinii, bo guzik ludzi obchodzi wasze ego i wasze próby dowodzenia swojego geniuszu. Masz argument to odpisuj argumentem, a nie walisz śmieć-posta bez sensu. 
 

Edytowane przez Ronson
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, Szala napisał:

Co Wam nie pasuje w tym video? :D

 

 

Nie użyto DLSS 3 żeby pokazać jeszcze więcej klatek. :D

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, lukadd napisał:

Są już jakieś ciekawe nowe zasilacze robione pod 12VHPWR?

Bo właśnie w końcu odesłałem mojego padniętego Corsair HX1200i i cóż, ani nie wymienią, ani nie naprawią więc wleci zwrot prawie 300euro i trzeba się rozglądać za nową zasiłką na przyszłość pod te wszystkie cudaczne GPU :E

Jeżeli chcesz mieć natywne 16pin to nowy TUF Plus Gold będzie takim zasilaczem. Dostępne warianty to 750,850,1000 i 1200W. Jednak ma być na półkach w połowie listopada dopiero. 

302565126-4912350632199359-1481001755715

Również nowa seria Loki i Thor II ma mieć native 16pin. Do istniejącej już serii Thor będą dołączane/sprzedawane adaptery. 

Asus niedługo zaprezentuje też serie ROG Strix 3.0 PSU. 

Prawdopodobnie wszyscy powazni producenci uaktualnią niebawem swoje oferty. Do już istniejących modeli będą adaptary sprzedawane przez producentów. 

 

 

  • Like 1
  • Thanks 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 minut temu, Szala napisał:

Co Wam nie pasuje w tym video? :D

 

 

Jaka sieczka aż mnie oczy i głowa rozbolały od tej gry. Co to jest wgl? :E

  • Haha 3
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, KamcioGF napisał:

Jaka sieczka aż mnie oczy i głowa rozbolały od tej gry. Co to jest wgl? :E

Szybki test czy masz epilepsję.

  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, KamcioGF napisał:

Jaka sieczka aż mnie oczy i głowa rozbolały od tej gry. Co to jest wgl? :E

 

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
54 minuty temu, Fenrir_14 napisał:

Jak narazie po cenie MSRP :)

@ArgusSamuaro trzeba VAT jeszcze doliczyć i myto w PL to wyjdzie pewnie te 10K z górką mniejsza lub większą.

 

52 minuty temu, Ronin69 napisał:

może VAT i cło? 

No dobrze ale nawet w przypadku gdy Szwagier mieszka pod sklepem i kupi bezpośrednio w sklepie za 1600$ i wyślę mi to kurierem do Polski? 
 

Szwagier jest postacią fikcyjną*

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
1 godzinę temu, Ronson napisał:

Na sam koniec jeszcze jest kwestia tego, że sama przepustowość może zawierać w sobie dwa parametry. Realną przepustowość i czasy dostępu. A zapchanie przepustowości może wpływać na czas dostępu. Zmiana szyny i zegarów oraz timingów może wpływać.  Moim zdaniem nie tylko nie masz tego jak łatwo sprawdzic, ale w ogóle nie masz jak sprawdzić, chyba że jesteś inżynierem od projektowania GPU i masz odpowiednie narzędzia do tego.

edit: a jeszcze mamy mechanizmy automatycznego dostosowywania się w GDDR6X. Polecam przyjrzeć się testom OC kart 3090, gdzie w kilku grach masz +5-7%, a w kilku masz... spadek o 15% względem stock.

29 minut temu, Ronson napisał:

Nie widziałeś dziwnego zachowania w kartach serii 3000 po OC?
O.. a taki fachowiec, co tu nie ma co zaglądać, bo ten wątek jest niegodny goszczenia takiego mędrca.
I nie wiedział..

Co do pamięci to zerknij tutaj, dlaczego w nowych kartach nie jest już jak dawniej, że kręcisz kręcisz aż masz spadki.
https://itigic.com/gddr6x-memory-why-it-achieves-more-speed-and-overclock/
Dodaj do tego fakt, że na niektórych kartach pamięci już są blisko swoich możliwości pracy w danych warunkach i masz to co w uproszczeniu napisałem wyżej. 

Bardzo prawdopodobne, że to właśnie @sideband rozpoczynał tutaj dyskusję o korekcji błędów pamięci podczas premiery Ampere, a na pewno w niej uczestniczył.

Ja też nie rozumiem, czemu ty ten spadek wydajności spowodowany korekcją błędów tłumaczysz jakimś zapchaniem przepustowości.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

@ArgusSamuaro na 99% i tak wleci na celny nawet jak w deklaracji ściemni. No może jak będzie pudełko otwarte, karta porysowana i zadeklaruje ze jest niesprawna, bez folii i zaślepek ale i tak myślę że nie uwierzą. Mi to clili nawet 10 lat temu jak turbiny, tłoki czy inne części zamawiałem z różnymi podkładkami. W 9 na 10 przypadków i tak było cło :/

Generalnie zasada chyba się nie zmieniła, wszystko co warte powyżej 100 USD podlega ocleniu. Jeśli w deklaracji jest rażąco niska wartość przedmiotu to sami ją wycenia wg katalogu czy innego źródła. 

Edytowane przez Fenrir_14
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

TV ogarnia obraz też całkiem nieźle z poprawą jakości i upłynnianiem. Artefakty są w różnych specyficznych przypadkach. Ale 99,9% ich nie ma/nie widać.

Jeśli chciałbyś zrobić demko technologiczne z upłynniacza w TV, to spokojnie ogarniesz filmik z czystym obrazem. Szczególnie jak jeszcze na to YT dowali swoją kompresję.

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
28 minut temu, KamcioGF napisał:

Jaka sieczka aż mnie oczy i głowa rozbolały od tej gry. Co to jest wgl? :E

Filmik do oceny 400FPS wrzucany na jutuba w 60 FPSach, gdzie w pierszych trzech sekundach dema widać stroboskop na schodach na wprost ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, SebastianFM napisał:

Bardzo prawdopodobne, że to właśnie @sideband rozpoczynał tutaj dyskusję o korekcji błędów pamięci podczas premiery Ampere, a na pewno w niej uczestniczył. Ja też nie rozumiem, czemu ty ten spadek wydajności spowodowany korekcją błędów tłumaczysz jakimś zapchaniem przepustowości.

Gdzie?
Pisałem o kilku różnych rzeczach, przepustowość i korekcja błędów to nie są ze sobą powiązane rzeczy. 
Chodziło mi o to, że jest wiele przyczyn, przez które badanie wpływu wpływu pamięci i wszystkiego co z nią związane, na wydajność, jest bardzo trudne a już na pewno nie jest jak napisałeś, że można to łatwo sprawdzić podbijając zegary pamięci o np. 20% i patrzenie czy wzrosło czy nie wzrosło.

Zwinę w spoiler dalszy tekst na temat posiadania niepopularnych i wyśmiewanych opinii w sprzęcie i jak często to wyśmiewający się ośmiesza nawet o tym nie wiedząc.


W ogóle temat pamięci to jest taka mina, na którą włazi większość "ekspertów". Od 2004r. walczę na forach z hordami mędrców, co mówią, że RAM dla CPU w grach się nie liczy. Wklejają mi słupki, podają jako argument, że większość fachowców w mediach tak mówi. I tak dalej. 
Np. W Far Cry 1 masz max 36fps w pewnym miejscu bo to wina silnika gry, a nie procesora czy karty, bo podkręcanie tych nic nie daje.
A ja mówię, że daje. Tylko że trzeba zrobić tak, żeby realne czasy dostępu do pamięci się poprawiły. Wtedy będzie lepiej i że owszem, nadal potrzebujemy lepszych CPU, a nie jak się teraz (2005r.) mówi, że już tylko wydajność karty się liczy a proc jest nieistotny.
I za chwilę wychodzi C2D i nagle z 36 się robi 60fps. No nie do wiary. Wyśmiewany na forum miał rację? Nie może to być! :D
Potem był test C2D 6600 vs 6300. Wszyscy: więcej cache niewiele daje, jakieś 5-10% max, nie ma sensu dokładać jak kupujesz proca do gier. Ja: nieprawda, cache zawsze pomaga w grach.
Testy: wszędie te ok 10%. W jednym teście jednak 100% różnicy. Test bez cieni w FEAR. Powtarzany przez fachowego recenzenta kilka razy. Zaznaczony w recenzji ale autor nie wiedział z czego to wynikało i uznał za jednostkowy przypadek.
Minęło kilka lat a się okazało, że jednak te proce z 4MB w nowych grach zdecydowanie odstawiają proce 2MB nawet gdy reszta (FSB, zegar, ustawienia RAM) są te same. I znowu byłem wyśmiewany bo mówiłem nie to co większość. I znowu jednak miałem rację.
Potem były kwestie pamięci i wpływu na gry. Wszyscy: nic się nie liczy, nie ma znaczenia. Ja mówię, że ma, ale trzeba testować w 720p na najlepszej karcie albo i 480p. Lata wyśmiewania bo przecież "fachofcy wiedzą lepiej" i że jestem idiotą co chce testowac highendowe karty w 480p co nie ma sensu. A w testach CPU CPU vs. RAM owszem ma sens.
Mija kilka lat. Wychodzą szybsze karty i co?
Ano jednak dobre DDR3 i DDR4 mieć warto? Co się stało? Nie do wiary.
Dalej premiera ZEN. Znowu alarmuję, że czas dostępu mocno grozi tym, że w grach będzie tragedia. Ludzie testują w 1440p i 4 i mówią, że nie ma prawie różnicy. Mija trochę czasu. Już w 1080p dziś pierwszy Zen zostaje o +100% z tyłu względem ówczesnych Inteli.
Dalej kłóciłem się, że nie ma żadnego "uczenia się obsługi większej ilości wątków" przez developerów gier, ani korzystania z HT, tylko po prostu pomaga więcej cache i to, że w przypadku HT, niektóre potrzebne dane są niejako "bliżej proca" i szybciej jest je obrobić. A nie, że do gier potrzebujemy 6 czy 8 rdzeni i że dopakowany cache'm proc 4 rdzeniowy byłby lepszym pomysłem, bo byłby tani, profesjonaliści nie widzieliby w nim wartości, więc nie kasowałby Intelowi i AMD rynku a do gier byłoby szybciej i taniej. Znowu zostałem wyśmiany, bo przecież rdzenie są potrzebne w grach! I ja się w ogóle nie znam.

Mija kilka lat i ostatnio wychodzi test 12900K. Robią test na 4 wątkach z pełnym cache. Róznica między i3 4c/4t i 4c/8t a 6, 8 i 12 wątkowcami Intela nagle w połowie,  w 2/3 lub nawet 3/4 (czasem nawet całkiem lub bardziej!) jest niwelowana przez cache. A nawet przy 8c/16 więcej cachu pomaga, co jest dla mnie od 18 lat oczywiste, bo wiem, że czas dostępu do pamięci i wydajność jednowątkowa to bardzo istotne rzeczy i akurat te, które od 2006 najwolniej się posuwają do przodu. 

Większość serwisów z milionami subskrybcji na YT nawet nie wie, że 0,1% lows są ważne. 


Dlatego prosiłbym się dłużej zastanowić zanim wyśmiejesz czyjąś opinię tylko dlatego, że widziałeś jakieś wykresy, które coś sugerują. Jak tutaj to, że podkręcenie o 20% RAMu nic nie daje, więc wniosek, że seria 3000 miała za dużo przepustowości jak na te GPU. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
53 minuty temu, Szala napisał:

Co Wam nie pasuje w tym video? :D

Bardzo fajne wideo. Jedyne do czego można się przyczepić to rozjazd między licznikiem klatek a opóźnieniem.

1 sekunda to 1000 milisekund. Jeżeli więc na sekundę przypada 366 klatek, oznacza to iż jedna klatka będzie wyświetlana przez 2.7 milisekundy

Natomiast u nich na filmie mają aż 9.6 milisekundy. Kalkulator podpowiada, że takie opóźnienie mamy grając w 104 klatkach. 

Po prostu montażysta słabo zsynchronizował oba liczniki. 

image.png

  • Haha 1
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, cichy45 napisał:

Dlaczego oni idą w konektor rozmiaru PCIE 8 pin z większą ilością cieńszych kabli i delikatnymi wtykami zamiast dać właśnie mniej pinów i grubsze kable, gdzie wszystko byłoby bardziej odporne? 

Przecież przy wysokich prądach nikt nie rozdziela ich na 30 wtyków z kablami 0.2mm tylko idą dwa kable konkretnej grubości. Moze chodzi o elastyczność, ale też nie przesadzajmy że linka 3mm jest super sztywna, a pewnie takie wystarczyłyby tylko 4 i z solidnymi wtykami zamiast tych mikro końcówek. 

Przekrój przewodu w 12VHPWR jest zalecany na AWG16, gdzie w przypadku wiązek 8-pin PCI-E masz nadal często AWG18, który ma znacznie mniejszą średnicę, więc jest odwrotnie niż piszesz. Masz mniej grubszych przewodów, piny są po prostu mniejsze, ale powierzchnia kontaktu jest większa jak w przypadku zwykłych Mini Fit Jr. Generalnie w przypadku oplatanych przewodów na AWG16 nie da się tego zrobić, trzeba użyć AWG17, który nadal ma odpowiednią średnicę, żeby to ogarnąć. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
45 minut temu, kadajo napisał:

Nie użyto DLSS 3 żeby pokazać jeszcze więcej klatek. :D

460FPS = 6.9ms z DLSS3

Ile normalnie pokazałby ten licznik dla 144FPS bez DLSS3? Nie przypadkiem 6.9ms? 

Ewentualnie jakby natywnie leciało 460FPS bez wsparcia DLSS3 to były by 2.2ms? 

 

image.png.d5c5441935a693a7b3d875613e5a97bc.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, *** ChOpLaCz *** napisał:

Ja akurat mam taką GÓRĘ WSTYDU, że mając teraz 100% mocy więcej pod maską, z większą ochotą wróciłbym ponownie i po raz enty do niektórych tytułów, które kiedyś niedomagały.

W sumie najzabawniejsze jest to, że pewnie każdy z nas ma gigantyczny backlog gier do przejścia z minimum ostatnich 10 lat, z czego połowa nieruszona i tak naprawdę chcą ograć to wszystko moglibyśmy nie kupować nowych GPU przez kolejne kilka lat 8:E

Ja sięgam jeszcze dalej, aktualnie ogrywam wszystko to czego nie dałem rady w dzieciństwie (NES, SNES, Mega Drive, Saturn, etc.) i zajmie mi to pewnie z 5 lat, a potem w kolejce dobre 100 gier steam+GoG oraz 50 na samo PS3, więc... 8:E 

OFC nie samymi starociami się żyje, na pewno będę chciał cisnąć Diablo 4 dla przyjemności, albo Grim Dawn 2 jak wydadzą. Ale to pewnie za 2 lata i wtedy będzie RTX 5000.

Innymi słowy, pies drapał tą Adę.

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Minciu napisał:

460FPS = 6.9ms z DLSS3

Ile normalnie pokazałby ten licznik dla 144FPS bez DLSS3? Nie przypadkiem 6.9ms? 

Ewentualnie jakby natywnie leciało 460FPS bez wsparcia DLSS3 to były by 2.2ms? 

 

image.png.d5c5441935a693a7b3d875613e5a97bc.png

Myślę ze jakby użyli tutaj DLSS 3 to by to wyraźnie zaakcentowali i pokazali różnice z i bez. :D
A nie użyli DLSS 3 bo .... ? :>

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Radio_Tirana napisał:

Bardzo fajne wideo. Jedyne do czego można się przyczepić to rozjazd między licznikiem klatek a opóźnieniem.

1 sekunda to 1000 milisekund. Jeżeli więc na sekundę przypada 366 klatek, oznacza to iż jedna klatka będzie wyświetlana przez 2.7 milisekundy

Natomiast u nich na filmie mają aż 9.6 milisekundy. Kalkulator podpowiada, że takie opóźnienie mamy grając w 104 klatkach. 

Po prostu montażysta słabo zsynchronizował oba liczniki. 

image.png

 

a no właśnie nie jestem pewien czy ten licznik nie pokazuje po prostu około trzy krotnie słabszego laga względem natywnego renderingu. Ale natywnie tyle FPS by nie było, więc może tak ze 2x gorszy lag? 

Nie wiem, pewnie będzie tak, że żeby było git to wyjściowo i tak potrzeba ze stówkę na blacie ;) 

Teraz, kadajo napisał:

Myślę ze jakby użyli tutaj DLSS 3 to by to wyraźnie zaakcentowali ii pokazali różnice z i bez. :D
A nie użyli DLSS 3 bo .... ? :>

To jak nie ma tam DLSSa to nie wiem co ten licznik milisekund ma sobą prezentować. Bo się nie klei do natywnych FPSów raczej ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   1 użytkownik

×
×
  • Dodaj nową pozycję...