Skocz do zawartości

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

djtomas

E8400 czy zasłaby do youtube 4K?

Rekomendowane odpowiedzi

Witam,

Mam sprzęt jak w podpisie i chciałbym oglądać filmiki 4K na YouTube.

Czy to mój procesor jest ograniczeniem? Jeżeli tak to czy jakiś inny

pasujący do mojej płyty dałby radę?

Filmy 4k odtwarzane z dysku działają bez problemu.

 

POzdr.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nawet mój pentium jest za słaby a jest szybszy o jakieś 30% od twojego cpu. Do 4K nic na 775 nie będzie wystarczające, ale np taki i5 3350P był by wystarczający. Możesz kupić Q9650 i kręcić lub mod 771 i xeona.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Shadow - zerknij na taktowanie tego E8400. Prawdopodobnie żaden z wymienionych przez Ciebie quadów nie zbliży się do taktowania tego procka.

 

Zanim pójdziemy w wymianę sprzętu może warto popracować nad włączeniem wsparcia dekodowania na karcie graficznej, coś w tym stylu: http://www.webupd8.org/2014/01/enable-hardware-acceleration-in-chrome.html

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ma 2 rdzenie 3ghz, ale taki np Q9650 ma 4 rdzenie 3ghz. Nie liczy się tylko taktowanie ale też ilość rdzeni.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ma 2 rdzenie @4GHz'e. Chodzi o ten konkretny model. Nie odrobiłeś lekcji i nie zernąłeś w sygnaturę :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nawet mój pentium jest za słaby a jest szybszy o jakieś 30% od twojego cpu. Do 4K nic na 775 nie będzie wystarczające, ale np taki i5 3350P był by wystarczający. Możesz kupić Q9650 i kręcić lub mod 771 i xeona.

Celeron g1840 ciągnie każde 4k uhd przy obciążeniu 30-50%. Wystarczy trochę pomyśleć................

 

https://www.youtube.com/watch?v=J0SFcQS3c04

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

mam Xenona E5450 @3,7 i też nie jest wstanie płynnie obrobić 4K

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Xeon jest wstanie pociągnąć płynnie 4k na youtube ale potrzeba odpowiedniej karty. Mam dwa configi i:

 

Clipboard01.jpg

 

Clipboard02.jpg

 

Tam gdzie GTX tam karta bierze na siebie obciążenie i nawet przy e5450 jest ok.

 

Drugi to HD7770 i niestety obciążenie idzie pod niebiosa dla CPU i obraz tnie, gdy GPU się nudzi.

 

Tak czy inaczej nie wiem czy na dwujajowcu coś by z tego było w 4k.

 

Edit:

Filmik z obrazków to:

 

Edit:

A Ty masz Radka + słaby proc więc możesz zapomnieć o płynnym 4k.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam,

Mam sprzęt jak w podpisie i chciałbym oglądać filmiki 4K na YouTube.

Czy to mój procesor jest ograniczeniem? Jeżeli tak to czy jakiś inny

pasujący do mojej płyty dałby radę?

1. Spróbuj na innej przeglądarce (choć zależy jeszcze czy na yt używasz flasha czy html5).

2. Zamiast wymieniać CPU wymień GPU na jakiś nowszy, już wspierający hardwarową akclerację 4k na yt.

 

Nawet mój pentium jest za słaby a jest szybszy o jakieś 30% od twojego cpu. Do 4K nic na 775 nie będzie wystarczające, ale np taki i5 3350P był by wystarczający. Możesz kupić Q9650 i kręcić lub mod 771 i xeona.

Mój Athlon x3 unlocknięty na x4 radzi sobie na yt jeszcze z 1440p, ale przy 2160p (czyli właśnie 4k) już wymięka.

 

Shadow - zerknij na taktowanie tego E8400. Prawdopodobnie żaden z wymienionych przez Ciebie quadów nie zbliży się do taktowania tego procka.

Akurat te kodeki yt dobrze skalują się z ilością rdzeni, więc 4x3GHz będzie zdecydowanie szybsze niż 2x4GHz (co nie znaczy że wystarczające do 4k).

 

Tam gdzie GTX tam karta bierze na siebie obciążenie i nawet przy e5450 jest ok.

 

Drugi to HD7770 i niestety obciążenie idzie pod niebiosa dla CPU i obraz tnie, gdy GPU się nudzi.

Jak widać przy odpowiednio nowym GPU (niekoniecznie szybkim, aby tylko miał odpowiednią "hardware feature") obciążenie CPU oscyluje wokół zera przy odtwarzaniu 4k na yt.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mój 3770k 4,2ghz

 

2dkfy2t.jpg

 

 

:o karta: MSI GTX 750 Ti Gaming 2 GB

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mój 3770k 4,2ghz

 

[img=http://i59.tinypic.com/2dkfy2t.jpg]

 

 

:o

Niech zgadnę karta AMD?

 

Porównywałem parę przykładów na innym forum i tam gdzie ludzie mieli GFy (np. GTX660, 770 czy tak jak mój mini maxwell) widać było, że karta graficzna bierze na siebie liczenie aby odciążyć CPU. Tam gdzie radek zawsze większy narzut na CPU.

 

Myślę że AMD olewa problem, bo mało kto używa 4k (większość i tak siedzi na monitorach FHD), a pozostali mając core i5, core i7 i tak nie zauważą że coś nie tak, bo pomimo bardzo wysokiego narzutu na CPU materiał i tak będzie płynny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale video z dysku to nie problem, ja chcę odtwarzać z YT

Bosze............... to nie robi różnicy. Jedynie co to filmy na Y-T są bardziej skompresowane.

 

Dlaczego celeron g1820 ciągnie bez problemu 4k uhd? Otóż ma w sobie quicksync.

 

Osoby z i7 hsw mogą się chwalić że niby 30% obciąża tymczasem diabeł tkwi w GPU a nie CPU. Najlepszy układ do 4k uhd ma po prostu quicksync. Podczas odtwarzania 4k uhd na celeronie - zestaw pobiera ~40W. Jestem przekonany że na mocarnym gpu i cpu zestaw pobierze grubo powyżej 100-120W.

 

Niech zgadnę karta AMD?

 

Porównywałem parę przykładów na innym forum i tam gdzie ludzie mieli GFy (np. GTX660, 770 czy tak jak mój mini maxwell) widać było, że karta graficzna bierze na siebie liczenie aby odciążyć CPU. Tam gdzie radek zawsze większy narzut na CPU.

 

Myślę że AMD olewa problem, bo mało kto używa 4k (większość i tak siedzi na monitorach FHD), a pozostali mając core i5, core i7 i tak nie zauważą że coś nie tak, bo pomimo bardzo wysokiego narzutu na CPU materiał i tak będzie płynny.

Ciężko stwierdzić. Może po prostu układ odpowiedzialny za kodowanie/dekodowanie video nie jest rozwijany już od dawna i wkładają tą samą architekturę. Też mi się zdaje że w nowych GF są lepsze układy dekodowania co mniej obciążają CPU i są w ogóle wydajniejsze. Nie zmienia to faktu że NIC nie może równać się wydajnością z quicksync. Jak się popatrzy na to że taki celeron za 130PLN G1820/g1840 ma quicksync to jest to super możliwość. Nie ma opcji żeby jakiekolwiek video przycięło niezależnie od bitrate.

 

Mój 3770k 4,2ghz

 

:o karta: MSI GTX 750 Ti Gaming 2 GB

 

Pokaż jeszcze zużycie GPU. Bo to właśnie w głównej mierze GPU bierze na siebie obciążenie. Jak układ kodujący/dekodujący video jest stary/słaby to CPU bierze na siebie wszystko. I gwarantuje że twój 3770k @ 5ghz nie wytrzymałby dekodowania 4k uhd w ogóle bez wspomagania w postaci sprzętowego układu dekodującego. Wystarczy że włożysz starą kartę na pci-e i dostanie zadyszki (choć i pierwsze karty na PCI-E posiadały taki układ ale znacznie starszy).

 

Co starsi z "jakąś wiedzą" będą w stanie zauważyć że układy w GPU co wspomagały dekodowanie video zaczęły pojawiać się ............. w czasach kiedy wychodziły GPU typu radeon 7200 PCI, Riva128 itd. Dlatego jak ktoś mi tu wyskakuje z i7 @ 4,0GHz i twierdzi że to efekt jego wspaniałego CPU to myli się niesamowicie. Dekodowanie video prawie w ogóle nie ma nic wspólnego z CPU. Wystarczy dodać do jakiegokolwiek CPU grafikę z quicksync i 4k uhd będzie działać bez problemu. Także płynność 4k uhd uzyskuje się przez dekodowanie przez sprzętowe kodery/dekodery video w GPU(czy też iGPU) a nie przez szybkie CPU. Właśnie jak CPU wchodzi w kodowanie video to dopiero wtedy zaczynają się schody i jest tym "słabszym" elementem który może spowodować gubienie klatek.

 

AMD ma UVD:

http://en.wikipedia.org/wiki/Unified_Video_Decoder

 

Nvidia ma PureVideo

 

http://www.nvidia.com/content/geforce-gtx/GTX_770_User_Guide.pdf

 

GTX770

NVIDIA PureVideo® HD Technology4

: The combination of highdefinition

video decode acceleration and post-processing that

delivers unprecedented picture clarity, smooth video, accurate

color, and precise image scaling for movies and video.

z Hardware Decode Acceleration: Provides ultra-smooth

playback of H.264, VC-1, WMV, DivX, MPEG-2 and MPEG-4 HD

and SD movies without the need for a dual or quad-core CPU

 

I żeby nie było. Każdy co tutaj się wypowiada jakoby CPU miało magiczną możliwość odtwarzania 4k uhd pokazuje tylko że nie ma ŻADNEJ wiedzy na ten temat. Moc sprzętowych dekoderów video jest niesamowita. Wystarczy zobaczyć jak niszczy integrowany procesor iGPU intela topowe karty graficzne nvidii w kodowaniu video.

 

media.png

mediaespresso.png

 

10_av1.gif

 

Dlatego ludzie, trochę pomyślcie zanim cokolwiek napiszecie. Wiedzę macie porażająco niską. Praktycznie zerową w tym temacie. Wszyscy najeżdżają na to iGPU w intelach a to jest po prostu cudo techniki................ Najlepiej obrazuje różnicę ten ostatni obrazek. Te wyższe słupki to jest wykres CPU wspieranego przez CUDA W GTC460!!!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm... intelowskie cpu+gpu i wygląda to tak:

 

cyWxBXcl.jpg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm... intelowskie cpu+gpu i wygląda to tak:

 

cyWxBXcl.jpg

No to wytłuamacz mi, dlaczego celeron g1820 ma 50% zużycia CPU. Czyli 2x 2,7GHz jest mocniejsze niż 4c/8t 4,2GHz? Nawet nikt tego tzw. "chłopskiego rozumu" nie używa.

 

Po pierwsze, trzeba zainstalować sterownik IRIS wspierający quicksync do intel hd. Po drugie. Trzeba mieć kodeki które wspierają quicksync przy dekodowaniu.

 

MUSI BYĆ URUCHOMIONE SPRZĘTOWE DEKODOWANIE a nie programowe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mój 3770k 4,2ghz

:o karta: MSI GTX 750 Ti Gaming 2 GB

Akurat film zapodany przez Foha ma dość małe wymagania (jak na 4k), nawet mój Athlon x3 bez odblokowania czwartego rdzenia sobie z nim radzi (choć fakt że prawie przy 100%-owym użyciu CPU).

Wystarczy w wyszukiwarce yt wpisać 4k i pierwsze linki prowadzą do filmów 4k już zdecydowanie bardziej wymagających:

https://www.youtube.com/watch?v=iNJdPyoqt8U

 

a pozostali mając core i5, core i7 i tak nie zauważą że coś nie tak, bo pomimo bardzo wysokiego narzutu na CPU materiał i tak będzie płynny.

Wysoko taktowany Phenom x4 lub dowolny Phenom x6 też wystarczy.

 

I gwarantuje że twój 3770k @ 5ghz nie wytrzymałby dekodowania 4k uhd w ogóle bez wspomagania w postaci sprzętowego układu dekodującego.

Oczywiście że by wytrzymał.

 

Co starsi z "jakąś wiedzą" będą w stanie zauważyć że układy w GPU co wspomagały dekodowanie video zaczęły pojawiać się ............. w czasach kiedy wychodziły GPU typu radeon 7200 PCI, Riva128 itd.

Riva 128 jeszcze nie miała żadnego wsparcia hardwarowego dla video, Riva TNT i TNT2 zresztą też. To pojawiło się dopiero w Geforce 256. Ati miało to już w Rage 128. Z tym że w tamtych czasach dotyczyło to głównia dekodowania MPEG-2 (DVD), bo co słabsze procesory sobie z odtwarzaniem filmów DVD nie radziły (mimo że to rodzielczość SD, a nie HD).

 

Dlatego jak ktoś mi tu wyskakuje z i7 @ 4,0GHz i twierdzi że to efekt jego wspaniałego CPU to myli się niesamowicie.

Oczywiście że się nie myli. Wystarczy do danego kompa wstawić kolejno kilka różnych kart graficznych, od takich kilkuletnich po najnowszego Maxwella. I porównać jak na każdej konfiguracji rozkłada się obciążenie CPU i GPU podczas odtwarzania filmu 4k. Dla starych kart obciążenie GPU będzie minimalne, ale film będzie odtwarzany płynnie bo całość obliczeń wziął na siebie CPU.

 

Moc sprzętowych dekoderów video jest niesamowita.

Konkurencja też to ma:

The fifth generation of PureVideo HD, introduced with the GeForce GT 520 (Fermi (microarchitecture)) and also included in the Nvidia GeForce 600/700 (Kepler (microarchitecture)) series GPUs has significantly improved performance when decoding H.264.[10] It is also capable of decoding 2160p 4K Ultra-High Definition (UHD) resolution videos at 3840 × 2160 pixels (doubling the 1080p Full High Definition standard in both the vertical and horizontal dimensions) and, depending on the driver and the used codec, higher resolutions of up to 4032 × 4080 pixels.

The sixth generation of PureVideo HD, introduced with the Maxwell (microarchitecture), e.g. in the GeForce GTX 750/GTX 750 Ti (GM107) and also included in the Nvidia GeForce 900 (Maxwell) series GPUs has significantly improved performance when decoding H.264 and MPEG-2. It is also capable of decoding Digital Cinema Initiatives (DCI) 4K resolution videos at 4096 × 2160 pixels and, depending on the driver and the used codec, higher resolutions of up to 4096 × 4096 pixels.

http://en.wikipedia.org/wiki/Nvidia_PureVideo#The_sixth_generation_PureVideo_HD

 

Wystarczy zobaczyć jak niszczy integrowany procesor iGPU intela topowe karty graficzne nvidii w kodowaniu video.

Tyle że to dotyczy kodowania a nie dekodowania (odtwarzania). Przy odtwarzaniu filmów różnice są juz zdecydowanie mniejsze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tyle że to dotyczy kodowania a nie dekodowania (odtwarzania). Przy odtwarzaniu filmów różnice są juz zdecydowanie mniejsze.

 

Są i tak ogromne. Przy czym do odtwarzania nie jest potrzebna taka moc jak do przetwarzania. Innymi słowy ceflator za 130zł z intel hd + quicksync będzie mocniejszy do dekodowania filmów niż sam i7 bez quicksync.

 

 

Riva 128 jeszcze nie miała żadnego wsparcia hardwarowego dla video, Riva TNT i TNT2 zresztą też. To pojawiło się dopiero w Geforce 256. Ati miało to już w Rage 128. Z tym że w tamtych czasach dotyczyło to głównia dekodowania MPEG-2 (DVD), bo co słabsze procesory sobie z odtwarzaniem filmów DVD nie radziły (mimo że to rodzielczość SD, a nie HD).

http://en.wikipedia.org/wiki/RIVA_128 Ponadto wtedy nie było innych standardów kodowania video (bo to było jakieś 20 lat temu). Sam pamiętam jak s3 virge czy tam trio w momencie wejścia dvd/xvid czy też podobnych standardów niskiej rozdzielczości, nie wyrabiało się a CPU były wtedy słabe. Zainstalowanie rivy128 czy też byle radeona, dawało kosmiczną płynność nie osiągalną dla zestawów bez wspomagania sprzętowego w gpu.

 

The 2D accelerator engine within RIVA 128 is 128 bits wide and also operates at 100 MHz. In this "fast and wide" configuration, as Nvidia referred to it, RIVA 128 performed admirably for GUI acceleration compared to competitors.[2] A 32-bit hardware VESA-compliant SVGA/VGA core was implemented as well. Video acceleration aboard the chip is optimized for MPEG-2 but lacks full acceleration of that standard. Final picture output is routed through an integrated 206 MHz RAMDAC.[1] RIVA 128 had the advantage of being a combination 2D/3D graphics chip, unlike Voodoo Graphics. This meant that the computer did not require a separate 2D card for output outside of 3D applications. It also allowed 3D rendering within a window. The ability to build a system with just one graphics card, and still have it be feature-complete for the time, made RIVA 128 a lower-cost high-performance solution.

 

Bo to były początki instalowania w GPU sprzętowych koderów/dekoderów video. To było sprzętowe wspomaganie CPU a nie pełne odciążenie CPU. A wspomaganie było sprzętowe czyli układ w GPU już wtedy był.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to wytłuamacz mi, dlaczego celeron g1820 ma 50% zużycia CPU. Czyli 2x 2,7GHz jest mocniejsze niż 4c/8t 4,2GHz? Nawet nikt tego tzw. "chłopskiego rozumu" nie używa.

Przecież na tym G1820 był odtwarzany zupełnie inny film niż ten na którym tu testujemy.

 

Są i tak ogromne.

Jak widać po naszych tu testach jednak nie. Na G1820 jest te 50% użycia CPU, Foh na Maxwellu ma 3%.

 

Video acceleration aboard the chip is optimized for MPEG-2 but lacks full acceleration of that standard.

Przy dekodowaniu MPEG-2 dokonywane są cztery typy obliczeń: IDCT, kompensacja ruchu (MC), konwersja kolorów i coś tam jeszcze. Na wydajność wpływ mają przede wszystkim dwa pierwsze. Ati 128 miał hardwarową akcelerację IDCT i MC, Riva 128 tylko konwersję kolorów. I widać to było przy odtwarzaniu filmów DVD, jak się do danego kompa wstawiło kartę z prawdziwą akceleracją MPEG-2 to obciążenie CPU było dużo niższe niż jak się wstawiło Rivę 128 (lub Rivę TNT).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież na tym G1820 był odtwarzany zupełnie inny film niż ten na którym tu testujemy.

 

 

Jak widać po naszych tu testach jednak nie. Na G1820 jest te 50% użycia CPU, Foh na Maxwellu ma 3%.

 

 

Przy dekodowaniu MPEG-2 dokonywane są cztery typy obliczeń: IDCT, kompensacja ruchu (MC), konwersja kolorów i coś tam jeszcze. Na wydajność wpływ mają przede wszystkim dwa pierwsze. Ati 128 miał hardwarową akcelerację IDCT i MC, Riva 128 tylko konwersję kolorów. I widać to było przy odtwarzaniu filmów DVD, jak się do danego kompa wstawiło kartę z prawdziwą akceleracją MPEG-2 to obciążenie CPU było dużo niższe niż jak się wstawiło Rivę 128 (lub Rivę TNT).

Inny film masz rację ale też 4k.

 

Na g1820 jest 50% użycia a Foh testował na maxwellu ................... właśnie inny film.

 

Dalej. Dekodowanie w rivie128 było najprostsze. Nie chce mi się zagłębiać w to co dokładnie robił ten układ ale zawsze mocniejsze były w tym ati. I jeszcze raz podkreślam. To były początki i te układy były rozwijane. Napisałeś że riva128 nie miała nic. Ja pamiętam że miała. Sprawdziłem i okazało się że MA.

 

Dalej. Dekodowanie quicksync ZNACZNIE RÓŻNI SIĘ od dekodowania pure video czy UHD. Nie wiem dokładnie czym bo nie chce mi się szukać ale podczas dekodowania niektóre karty są obciążane do obliczeń przez wbudowany w nie układ i wzrasta pobór mocy. Przy quicksync nie wzrasta pobór prądu.

 

Może inaczej. Kiedyś zrobiłem taki test, oglądanie materiału 1080p w wysokim bitrate na G1840 + intelhd + quicksync oraz g1840 + HD7770. Obciążenie na quicksync było takie że zestaw pobierał ok 35-40W. Przy hd7770 zestaw pobierał w tym samym momencie 65-80W. Dlatego twierdzę że quicksync jest po prostu lepsze.

 

Z maxwellem nie miałem do czynienia ale widziałem kilka testów i JEST DOBRY.

 

 

 

Może inaczej. Proponuję zrobić sobie taki test. Znalazłem dobrej jakości z bardzo dobrym bitrate materiał 4k uhd na szybkim serwerze. Wystarczy ściągnąć z poniższego linku ten materiał, otworzyć i zrobić screena z poziomem obciążenia CPU oraz GPU (a także taktowaniem CPU). Wtedy porównamy który układ jest wydajniejszy. U siebie zrobie testy na hd7770 oraz intel hd z quicksync (g3258).

 

%204K-HD.Club-2013-Taipei%20101%20Fireworks%20Trailer%20(4ksamples.com).mp4"]http://downloads.4ksamples.com/[2160p]%204K-HD.Club-2013-Taipei%20101%20Fireworks%20Trailer%20(4ksamples.com).mp4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1) Do odtwarzania 4k potrzeba kart Maxwell ponieważ tylko one obsługują sprzętowe dekodowanie obrazów 4k.

Kepler/Fermi tego nie umieją.

2) Kluczowa sprawa to przeglądarka - na Chromie, 4k działa najlepiej.

3) Powyższy filmik zajmuje 1,2GB, a "ściąga się go" - przez zapisanie elementu docelowego na dysku twardym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ponadto wtedy nie było innych standardów kodowania video (bo to było jakieś 20 lat temu). Sam pamiętam jak s3 virge czy tam trio w momencie wejścia dvd/xvid czy też podobnych standardów niskiej rozdzielczości, nie wyrabiało się a CPU były wtedy słabe.

To pewnie równiez pamiętasz że karty typu S3 Trio (lub konkurencyjne Ati Mach) miały gniazdo do podłączania akceleratora MPEG-1 (tak, MPEG-1 a nie MPEG-2). Więc oczywiste że Riva 128 jako nowsza od nich miała więcej funkcji video. Co do Virge to miał więcej funkcji niż Trio, ale oczywiście mniej niż Riva 128.

 

Zainstalowanie rivy128 czy też byle radeona, dawało kosmiczną płynność nie osiągalną dla zestawów bez wspomagania sprzętowego w gpu.

A jak tą Rivę 128 zastąpiłeś S3 Savage to było jeszcze lepiej (tak jak Rage 128 miał pełne wsparcie dla DVD).

 

Inny film masz rację ale też 4k.

4k innemu 4k nie równe (zwłaszcza że film odtwarzany na tym celku to nie był wogóle yt).

 

Na g1820 jest 50% użycia a Foh testował na maxwellu ................... właśnie inny film.

Tyle że ten film z celka był "łatwiejszy", a i tak obciążał tego celka dużo bardziej niż film Foha jego CPU.

 

Dalej. Dekodowanie w rivie128 było najprostsze. Nie chce mi się zagłębiać w to co dokładnie robił ten układ ale zawsze mocniejsze były w tym ati. I jeszcze raz podkreślam. To były początki i te układy były rozwijane. Napisałeś że riva128 nie miała nic. Ja pamiętam że miała. Sprawdziłem i okazało się że MA.

Napisałem że Riva 128 miała m.in. konwersję kolorów. Zresztą już Virge miał więcej funkcji video niż Trio.

 

Dalej. Dekodowanie quicksync ZNACZNIE RÓŻNI SIĘ od dekodowania pure video czy UHD. Nie wiem dokładnie czym bo nie chce mi się szukać ale podczas dekodowania niektóre karty są obciążane do obliczeń przez wbudowany w nie układ i wzrasta pobór mocy. Przy quicksync nie wzrasta pobór prądu.

 

Może inaczej. Kiedyś zrobiłem taki test, oglądanie materiału 1080p w wysokim bitrate na G1840 + intelhd + quicksync oraz g1840 + HD7770. Obciążenie na quicksync było takie że zestaw pobierał ok 35-40W. Przy hd7770 zestaw pobierał w tym samym momencie 65-80W. Dlatego twierdzę że quicksync jest po prostu lepsze.

Nvidia ma juz odpowiednik QS montowany w Maxwellach - NVENC. R7770 jeszcze tego nie miał, a że był dośc prądożernym chipem to i przy jego użyciu pobór mocy musiał być zauważalnie większy.

 

Może inaczej. Proponuję zrobić sobie taki test. Znalazłem dobrej jakości z bardzo dobrym bitrate materiał 4k uhd na szybkim serwerze. Wystarczy ściągnąć z poniższego linku ten materiał, otworzyć i zrobić screena z poziomem obciążenia CPU oraz GPU (a także taktowaniem CPU). Wtedy porównamy który układ jest wydajniejszy. U siebie zrobie testy na hd7770 oraz intel hd z quicksync (g3258).

Tyle że temat jest n/t filmów 4k na youtube. Ale nawet jakby zrobić test na tym samplu (1200 MB...) to i tak wyniki byłyby nieporównywalne bo każdy używa innego playera, innych jego ustawień, a nawet innego systemu operacyjnego (kodeki na Windows 64 bit są szybsze niż 32 bit). Dlatego najlepszym benchmarkiem jest test na yt (choć tu też trzeba ustalić na jakiej przeglądarce, bo różne przeglądarki w różnym stopniu supportują hardwarowo odtwarzanie filmów).

 

Tu jeszcze jedna sprawa. Obciążenie GPU może być nawet niemałe, ale widać że karta przechodzi w oszczędny tryb (znacznie obniżona częstotliwość pracy). Więc te 40% użycia GPU to w rzeczywistości kilka % pełnej mocy karty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • ASUS jeszcze piszczy jak go wyłączysz. w standby jest okej, ale po wyłączeniu wyje
    • Obejrzałem tylko dla walorów Sydney Sweeney. Komedia romantyczna jak z szablonu. Ten motyw był grany wiele razy. Słaba chemia pomiędzy bohaterami, a rodzinka dość denerwująca. Najlepszy był klon Haalanda.
    • Tylko najtansze wersje maja zablokowane aktualizacje. https://www.rtings.com/monitor/reviews/dell/alienware-aw3225qf  
    • Ja tam wychodzę z założenia, żeby trochę dołożyć do mobo i nie kupować tych najtańszych, jak ktoś siedzi trochę dłużej na podstawce, żeby poniżej jak zajdzie potrzeba móc tam wsadzić coś naprawdę mocnego, mimo że na ten moment kupujemy coś pokroju 7500F. Nie raz widziałem, że ktoś na słabszej płycie, która była tylko 150-200zł tańsza od dużo lepszej, po latach wsadził coś mocniejszego z większą ilością rdzeni i nagle sekcja zamiast 50 stopni ma ponad 80. Więc jak już ktoś się przenosi z AM4 na AM4 to niech aż tak bardzo nie oszczędza na tej płycie, bo później sobie tam wsadzi jakiegoś 8800X3D i nie będzie miał żadnych problemów.  Sam też jak Ty kupiłem 4 lata temu MSI Gaming Plus z tym, że X570 i był to jeden z tańszych X570 z sekcją pewnie gorszą niż wypasione B550 i dałem za nią równo 725zł, ale miała już ALC1220. Siedziałem tam do niedawna na starym Ryzenie 3700X i też mnie trochę kusiło przejście na AM5. Ale do mojego grania stwierdziłem, że wykrzesam jeszcze co się da z AM4, pewnie mnie co niektórzy zjecie, ale kupiłem 5800X3D chyba niecałe dwa tygodnie temu. Na starego 3700X już jest chętny za 450zł na wtorek po świętach, więc potraktujmy to, że dopłata to 750zł. Temperatury na sekcji podczas Cinebenchu mam w okolicach 49-50 stopni, w grach to nawet nie mówię, a widziałem jak niektórzy na płytach 200zł tańszych mieli ponad 80 i jestem zadowolony. Tak więc jak na pewno nie ma co dzisiaj polecać komuś "martwej" podstawki jak ktoś składa zestaw od nowa, ale nie do końca za wszelką cenę trzeba od razu iść w AM5, gdy komuś zależy żeby tanio zrobić upgrade samego procka, no i wszystko zalezy ile ta dopłata wyniesie. Ten 5800X3D w rozdzielczości i fpsach jakich gram starczy mi jeszcze na dość dług, mimo, że ma dwa lata jest naprawdę spoko i dopiero jak mi zacznie brakować mocy ze strony CPU zmienię na AM5 i jakiegoś dobrego X3D. Na ten moment przesiadka z dopłatą 750zł moim zdaniem całkiem w porządku, patrząc na ile zyskałem w grach.
    • Ja się dziwie tym młodym PiSiorom, co dostali posadki w ministerstwach. Ja rozumiem, że jak się kradnie to tak aby nikt nie mógł nas połączyć z tym faktem. Oni podpisywali różne dokumenty swoim nazwiskiem, łamali własne regulaminu/ustawy itd. Przecież te wałki z tym funduszem są tak oczywiste, że głowa mała. Taki Woś czy ten śmieszny Harry Potter z MF byli tylko pionkami w grze.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...