Skocz do zawartości

Rekomendowane odpowiedzi

Zastanówcie się co to znaczy 600W na GPU i poziom wyrzucanego ciepła z kompa. To jakby siedzieć przy koparce 5x3060ti.
600W z gpu plus 150-200W z pozostałych elementów w pokoju 15m2 podnosi temperaturę o nawet 5st, a może i więcej już po 1-2 godzinach. W zimie podczas grania mozna mieć uchylone okno i zakręcone kaloryfery, a w lecie zamiast 25-26st nagle jest ponad 30st :) To jest jakaś paranoja. 

  • Haha 1
  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

kuwa, 3 dekada 21 wieku, zamiast miniaturyzacji i energooszczędności mamy cegłówki 600W :D

  • Like 2
  • Upvote 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

AD104-400 jest trochę jak GA102-350 z 12 GB VRAM. W praktyce, 4080 12GB może być wolniejsze od 3090 Ti (szczególnie gdy gra wymaga powyżej 12 GB RAM). Ogólnie to 4080 12GB jest niczym ciekawym. Gdyby to chociaż było jakoś energooszczędne ale też nie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, xtn napisał:

Zastanówcie się co to znaczy 600W na GPU i poziom wyrzucanego ciepła z kompa. To jakby siedzieć przy koparce 5x3060ti.
600W z gpu plus 150-200W z pozostałych elementów w pokoju 15m2 podnosi temperaturę o nawet 5st, a może i więcej już po 1-2 godzinach. W zimie podczas grania mozna mieć uchylone okno i zakręcone kaloryfery, a w lecie zamiast 25-26st nagle jest ponad 30st :) To jest jakaś paranoja. 

Jest plus, zimą oszczędności na węglu, a latem....no cóż, lepiej nad jeziorkiem posiedzieć ;) Chyba że klima, to inna bajka :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RDNA 3 będzie opłacalniejsze i tańsze, bo użyje MCM.

Gdyby to w miarę normalnie szło, to mielibyśmy w tym roku 4060 12GB i 4060 16GB o podobnych specyfikacjach jak te 4080 i w normalnych cenach, tak by gaming industry mogło się faktycznie rozwijać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawi mnie jak ta interpolacja oparta o wektory ruchu dodająca pośrednie klatki na podstawie klatki poprzedzającej i następującej poradzi sobie w grach w momentach gdy jedna scena przechodzi w drugą (np. otwieramy okno ekwipunku). W odróżnieniu od sytuacji gdy mamy dwie klatki z tej samej sceny i algorytm powinien dosyć łatwo wygenerować klatkę pośrednią, tutaj algorytm będzie musiał wygenerować pośrednią klatkę bazując na dwóch zupełnie różnych scenach i czuję że może się mocno pogubić. Jakoś średnio widzę tą technologię gdy przy każdym otwieraniu ekwipunku postaci czy innej zmianie sceny będziemy doświadczać artefaktów. Jak podobne algorytmy generujące klatki pośrednie w TV radzą sobie z przejściami scen w filmach których przecież jest zdecydowanie więcej niż w przypadku gier? Potrafią odczytać, że mamy do czynienia z dwoma różnymi scenami i zamiast klatki pośredniej dodają skopiowaną klatkę poprzedzającą lub następującą? Wiem, że wyraziłem moje wątpliwości słowami laika, ale chyba we w miarę zrozumiały sposób.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, marcin_21 napisał:

kuwa, 3 dekada 21 wieku, zamiast miniaturyzacji i energooszczędności mamy cegłówki 600W :D

A do tego ludzie płacą za to gruby hajs i się jeszcze z tego cieszą 🤦‍♂️

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież możecie sobie ustawić 200 czy 300W ale dopiero limit od nvidii by was uradował? :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, grzegorz1981 napisał:

A do tego ludzie płacą za to gruby hajs i się jeszcze z tego cieszą 🤦‍♂️

Ale wymagania też wzrosły, kiedys siedziałeś przy telewizorze 21 cali, jak gra odpaliła na kompie to już się cieszyles, a jak trzymała 30 klatek to był luksus, a far cry miał realistyczną grafikę. No i grało się w 1024x768.

Gdyby pozostać przy tych wymaganiach to faktycznie komp 100W by ogarnął sprawe. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
40 minut temu, xtn napisał:

Zastanówcie się co to znaczy 600W na GPU i poziom wyrzucanego ciepła z kompa. To jakby siedzieć przy koparce 5x3060ti.
600W z gpu plus 150-200W z pozostałych elementów w pokoju 15m2 podnosi temperaturę o nawet 5st, a może i więcej już po 1-2 godzinach. W zimie podczas grania mozna mieć uchylone okno i zakręcone kaloryfery, a w lecie zamiast 25-26st nagle jest ponad 30st :) To jest jakaś paranoja. 

To znaczy zabawa w kręcenie wyników w benchmarkach. Przecież nikt normalny na codzień do grania nie będzie odkręcał limitów na 600W dla kilu % czy nawet ~10% wydajności tylko będzie siedział na optymalnych nastawach po UV. 

Edytowane przez lukadd
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, maras2574 napisał:

Czuję długą kolejkę do @zawisztheblack ;)

Właśnie ogarniam wykonywanie nowych wiązek w oplotach bez widocznego termokurczu. Dobra informacja jest taka, że będzie się dało to zrobić i będzie to dobrze wyglądać. Zła jest taka, że będzie drogo, ale może przez to kolejka będzie krótsza :E:P

  • Like 2
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, T0TEK napisał:

Ale wymagania też wzrosły, kiedys siedziałeś przy telewizorze 21 cali, jak gra odpaliła na kompie to już się cieszyles, a jak trzymała 30 klatek to był luksus, a far cry miał realistyczną grafikę. No i grało się w 1024x768.

Gdyby pozostać przy tych wymaganiach to faktycznie komp 100W by ogarnął sprawe. 

Nie widzę problemu, żeby za kilka lat osiągnięto wydajność serii 40x0, mieszcząc się w 100W, co wydaje się być głównie kwestią procesu technologicznego. Problem w tym że producenci zawsze będą dochodzić do granicy akceptowalności poboru mocy przez użytkowników, by pokazać jak największą możliwą wydajność. Seria 40x0 podnosi po raz kolejny tę poprzeczkę i przy okazji będzie testem ile rynek jest w stanie zaakceptować. Wg mnie ta granica została już przekroczona i karty z poborem 450W+ nie mają przyszłości.

27 minut temu, AUTO6 napisał:

Ciekawi mnie jak ta interpolacja oparta o wektory ruchu dodająca pośrednie klatki na podstawie klatki poprzedzającej i następującej poradzi sobie w grach w momentach gdy jedna scena przechodzi w drugą (np. otwieramy okno ekwipunku). W odróżnieniu od sytuacji gdy mamy dwie klatki z tej samej sceny i algorytm powinien dosyć łatwo wygenerować klatkę pośrednią, tutaj algorytm będzie musiał wygenerować pośrednią klatkę bazując na dwóch zupełnie różnych scenach i czuję że może się mocno pogubić. Jakoś średnio widzę tą technologię gdy przy każdym otwieraniu ekwipunku postaci czy innej zmianie sceny będziemy doświadczać artefaktów. Jak podobne algorytmy generujące klatki pośrednie w TV radzą sobie z przejściami scen w filmach których przecież jest zdecydowanie więcej niż w przypadku gier? Potrafią odczytać, że mamy do czynienia z dwoma różnymi scenami i zamiast klatki pośredniej dodają skopiowaną klatkę poprzedzającą lub następującą? Wiem, że wyraziłem moje wątpliwości słowami laika, ale chyba we w miarę zrozumiały sposób.

Oczywiście, że rozpozna zmianę sceny, to nie jest żadna filozofia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
25 minut temu, Wu70 napisał:

Przecież możecie sobie ustawić 200 czy 300W ale dopiero limit od nvidii by was uradował? :D

yep twekwer biosu od nvidii poproszę.

PL ,napiecia ,mhz na P0 i VRAM.

Mhz na uncore mogą schować

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
27 minut temu, T0TEK napisał:

Ale wymagania też wzrosły, kiedys siedziałeś przy telewizorze 21 cali, jak gra odpaliła na kompie to już się cieszyles, a jak trzymała 30 klatek to był luksus, a far cry miał realistyczną grafikę. No i grało się w 1024x768.

Ale to było ponad 20 lat temu...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 minut temu, zawisztheblack napisał:

 Zła jest taka, że będzie drogo, ale może przez to kolejka będzie krótsza :E:P

No ale jak to przecież kable to kable.. czemu bedzie drożej :rotfl: :E wg większości pclabowej powinno być taniej!! 

 

  • Haha 1
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, maras2574 napisał:

Nic z tych rzeczy, nie tym razem. Obraziłem się na Jensena :rozga::E

A tak serio, póki co nie brakuje mi wydajności ;)

Ja podobnie! Ale prawda jest taka, że to ma być moja radocha, mnie ma być fajnie, itd. więc... się błota nie wypieram.
Teraz - owszem - jestem obrażony z rękoma w krzyż na piersi (!), ale... czekam na testy, zerkam na ceny 4090, zerkam na CENY 3080 (!), zerkam na ruchy i relacje 30xx vs 40xx, po prostu paCZEm se...

Bez napiny. Jak się zrobi fajniej, kto wie? 
Teraz nie oddam 3080 TUFa za 3000 pln, żeby dołożyć jeszcze 7000 pln (!) - a i to może nie wystarczyć (!) - aby dostać hipotetyczne 100% (płacąc 300%).
A jak jeszcze testy wyjdą brutalniejsze i nie będzie nawet 100%, to chyba zupełnie wyjdę z wątku. ;)

 

 

Edytowane przez *** ChOpLaCz ***
  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na filmie Digital Foundry jest 5 sekundowe porównanie RTX 3090 Ti i RTX 4090 w Cyberpunk 2077 w 4K bez użycia DLSS na maksymalnych ustawieniach z Psycho RT.
Policzyłem ilość klatek animacji. RTX 4090 osiąga 38 FPS a RTX 3090 Ti 21,5 FPS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

9728/16384 * 38 = 22.5 FPS =~ 3090 Ti. Czyli zgadza się, 4080 16 GB to stara xx70. Bo do tej pory nowa xx70 = stara x80 Ti / xx90 Ti

Edytowane przez cichy45

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, maras2574 napisał:

Mówisz że będzie jak z Alder Lake ? :) Nie nie, ja tylko się przyglądam :E

Ja też to pamiętam :E

Prawda jest taka,że próg bólu dla większości  to cena jest hamulcem  jeśli takie 4080 16GB kosztowałoby te 4500~~ to nie byłoby  tematu tylko każdy by skakał z radości :Dnawet z wysokim poborem prądu bo  90% tu by zrobiło i tak UV 

  • Like 1
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
36 minut temu, lukadd napisał:

To znaczy zabawa w kręcenie wyników w benchmarkach. Przecież nikt normalny na codzień do grania nie będzie odkręcał limitów na 600W dla kilu % czy nawet ~10% wydajności tylko będzie siedział na optymalnych nastawach po UV. 

Zobaczymy jak to będzie w rzeczywistości w niereferentach. Dlaczego mieliby trzymać kaganiec na 450W, przecież będą walczyli o wydajność, żeby to ich karty lepiej się sprzedawały niz konkurencji. Jak inaczej osiągną odpowiednie wzrosty wydajności, w stosunku do starej generacji? 

RTX3060Ti ma wg Nvidii TDP na poziomie 200W, a sporo modeli w tym mój ma fabrycznie 240-250W. To jest 20-25% więcej niż podaje nvidia, więc RTX4090 te 550W w niereferentach będzie pewnie czymś  często spotykanym.

  • Sad 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, xtn napisał:

Zobaczymy jak to będzie w rzeczywistości w niereferentach. Dlaczego mieliby trzymać kaganiec na 450W, przecież będą walczyli o wydajność, żeby to ich karty lepiej się sprzedawały niz konkurencji. Jak inaczej osiągną odpowiednie wzrosty wydajności, w stosunku do starej generacji? 

RTX3060Ti ma wg Nvidii TDP na poziomie 200W, a sporo modeli w tym mój ma fabrycznie 240-250W. To jest 20-25% więcej niż podaje nvidia, więc RTX4090 te 550W w niereferentach będzie pewnie czymś  często spotykanym.

Dalej beda przelaczniki BIOSu na kartach, takze bedzie to mialo moze jakis wiekszy sens niz w serii 30. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, wincyjognia napisał:

Dalej beda przelaczniki BIOSu na kartach, takze bedzie to mialo moze jakis wiekszy sens niz w serii 30. 

Może i będą ale wyniki będą podawali z poborem na maxa, a nie z ograniczeniem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na powietrzu to będą mieli problem te stock 450w utrzymać, a i tak już słyszę jak to będzie wyło na wentylach :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, SebastianFM napisał:

Na filmie Digital Foundry jest 5 sekundowe porównanie RTX 3090 Ti i RTX 4090 w Cyberpunk 2077 w 4K bez użycia DLSS na maksymalnych ustawieniach z Psycho RT.
Policzyłem ilość klatek animacji. RTX 4090 osiąga 38 FPS a RTX 3090 Ti 21,5 FPS.

Mniej więcej by sie zgadzalo, czyli jak tempo rozwoju sie utrzyma to natywne 4k w psycho dostaniemy w 5090, a ten lepszy overdrive w 6090 ; )

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, lukadd napisał:

Na powietrzu to będą mieli problem te stock 450w utrzymać, a i tak już słyszę jak to będzie wyło na wentylach :E

Też mam pewne obawy ale może radiatory na 4 sloty i długości kart 35+ cos tutaj pomogą. Ogólnie wygląda tak jakby ktos potrafił zmienic prawa fizyki :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...