Skocz do zawartości
Spl97

Socket AM5/Zen 4 - wątek zbiorczy

Rekomendowane odpowiedzi

59 minut temu, Minciu napisał:

Ale ten drugi random ma jednak nieco więcej subów :P Jeśli to cos zmienia.. 

Linus Tech Tips
15,3 mln subskrybentów

Tylko dalej problemy są tam gdzie pisałem a nie wszędzie gdzie popadnie, w dowolnym teście.. Gry online i 4K z lekka kuleje ;) Ja gram w 4K w FPSy po sieci.. dla tego pisałem wcześniej że Intel to raczej dobry wybór pod takie zastosowania:

A porady w stylu multiplayer ble, lepsze single to od razu możecie sobie podarować ;) Każdy gra co lubi. Mi zabijanie botów już dawno mi się przejadło.

Przy okazji testy inteli z ramem 6000 vs rysio z ramem 6000 mnie nie interesują. Nawet w najmniejszym stopniu.

Możesz sobie robić na intelu nawet ram 7k , masz testy tomcuga na 7200 i to niewiele zmienia bo wydajności jest i tak bardzo zbliżona i przeplatana w zależności od gry. Oba proce to topka i w zależności od gry radzą sobie różnie. 

Puste Mhz na intelu niestety od pewnego progu niewiele wnoszą. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Minciu nadal mnie nie zniechęciłeś i planuję wymianę 13700K na 7800X3D :D

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

chciałbym zobaczyć wydajność 7xxx 3d w tej miejscówce 

na 5800x3d wydajność spada drastycznie 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@fakeeus Testy zweryfikują czy wydajnościowo taka zmiana ma w ogóle sens ? Perf/wat na pewno na plus.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
38 minut temu, fakeeus napisał:

@Minciu nadal mnie nie zniechęciłeś i planuję wymianę 13700K na 7800X3D :D

Możesz wymieniać. Ale jakiś rewelacji się nie spodziewaj. Na plus to płyta, jak kupisz jakiś fajny Celownik od Asusa albo najlepiej dwuslotowa dimm to powinna długo cieszyć. Tak na wszelki wypadek, jakby nic nie dający ram miał okazję znacznie przyspieszyć z kolejnymi generacjami ryszardow. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ktoś coś wie na temat niedostępności 7800X3D w Polsce czy ja się niepokoję niepotrzebnie w wyniku kiepskiego żartu?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
26 minut temu, Ronson napisał:

Ktoś coś wie na temat niedostępności 7800X3D

2-3 Tygodnie temu pod jednym z artykułów było jedno zadanie że procków może nie być w dniu premiery. Później chciałem wrzucić tutaj to info, ale po przeszukaniu wszystkiego co mogłem nic takiego nie znalazłem więc raczej bez obaw - premiera powinna być na czas :) 

Edytowane przez karsone

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolega w temacie The Last of Us napisał, ze zestaw podczas grania mu wciąga 780W z czego 13900k 300W i oled 150-180W.
Ale mnie zad zapiekł jak zobaczyłem te cyferki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
26 minut temu, Keken napisał:

13900k 300W

No intel to odleciał z tym poborem papu :D

Edytowane przez karsone

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Żeby w grze tyle wciągnąć, trzeba być niezłym kierownikiem. W prime pewnie zasilacz pali XD

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To niech sobie wejdzie do biosa i ustawi limity takie jakie Intel przewidzial ... A nie buja wyobraznia producenta plyty glownej ...

Jak co kolejna premiere Intela wszyscy na tych plytach dali maxa do pieca. Oczywiście profil AIO czy jak to zwal by default...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W grach żeby wydusić 300 wat to musiał coś doklikać ;) Może undervolta zrobił tylko zapomniał plusa na minus przestawić. 
Albo odpalił jakiś Auto Fast 6GHz OC mode czy coś w ten deseń? W jego rękach nawet Rysio 3D siorbałby ponad 150 wat XD

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 godziny temu, RozQ napisał:

chciałbym zobaczyć wydajność 7xxx 3d w tej miejscówce 

na 5800x3d wydajność spada drastycznie 

Pozostaje Ci wierzyć na słowo :E

Dramy jakoś tu nie widzę oprócz niskiego wykorzystania GPU ale i rozdzielczość  nieco niższa...

 

 

                        

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mniejsza odpalałem RT którego w ich wersji gry nie ma ?

bez jest spoko ale z w 3440x1440 gpu usage na poziomie 50% i spadki fps do 50 w tamtej miejscówce 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Pobieżnie film oglądałem ale chyba najmniej widziałem 68FPS.

Nie wiem o której miejscówce piszesz...

Na  i9  w 3440x1440  też pewnie nie będzie 100% GPU load

Widocznie RTX 4900 jest za słaby do RT w 4K :E

Musisz kupić Ti jak wyjdzie :]

Edytowane przez Roberto78
  • Haha 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tutaj grafa nie ma nic do gadania bo się nudzi więc nie wiem po co docinki o dokupieniu wersji TI?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O ile wiem to RT ''liczy'' GPU ( głównie)  więc nie wyrabia GPU to, że się ''nudzi'' w tej rozdzielczości  nic nie znaczy po prostu cześć GPU odpowiedzialna za RT  nie wyrabia  i tyle.

Tu mocniejszy CPU  pewnie nic nie zmieni

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RT zwiększa też wymagania od strony procesora.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RT mnie nigdy nie przekona jeśli nie zmniejszy performance hitu. Tak samo jak nie przekonują mnie detale Ultra w większości gier które pożerają fps a niewiele wnoszą.
Jeśli miałbym mieć wydajności w nadmiarze to nadal poszedłbym w większy monitor z większą rozdzielczością i nadal wysokim odświeżaniem zamiast RT.
Ale ja to tylko ja :)
 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Roberto78 napisał:

O ile wiem to RT ''liczy'' GPU ( głównie)  więc nie wyrabia GPU to, że się ''nudzi'' w tej rozdzielczości  nic nie znaczy po prostu cześć GPU odpowiedzialna za RT  nie wyrabia  i tyle.

Tu mocniejszy CPU  pewnie nic nie zmieni

CPU i RAM przeważnie w pupę dostaje ostro z RT. Nie tylko GPU. 

Albo kesz pomoże, albo zostaje czekać do wyższych zegarów ram z kolejnymi ryśkami.

 

2 godziny temu, RozQ napisał:

Tutaj grafa nie ma nic do gadania bo się nudzi więc nie wiem po co docinki o dokupieniu wersji TI?

 

4080 z tego co mówisz też by było niedokarmione. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, Minciu napisał:

CPU i RAM przeważnie w pupę dostaje ostro z RT. Nie tylko GPU. 

Albo kesz pomoże, albo zostaje czekać do wyższych zegarów ram z kolejnymi ryśkami.

 

4080 z tego co mówisz też by było niedokarmione. 

Być może :E

Tylko RT ''zabija'' każde GPU kwestia tylko rozdzielczości  oglądałem filmy z tej gry z RT i wszyscy posiłkowali się DLSS...

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
6 godzin temu, Roberto78 napisał:

Być może :E

Tylko RT ''zabija'' każde GPU kwestia tylko rozdzielczości  oglądałem filmy z tej gry z RT i wszyscy posiłkowali się DLSS...

4080 w wqhd 

4090 w 4K

I masz zamułę od strony proca i ramu w popsutych grach ;) Dokładnie taka jak kilka postów wcześniej opisaną. I z miesiąca na miesiąc dochodzą takie popsute gierki, których działanie boostuje najlepiej wysoki zegar Ramu.

I nie musisz mi tłumaczyć, że w 8k to jednak GPU by zdechło XD Być może, ale wyżej masz dość pospolity przypadek z UWQHD zapewne 100Hz+ i nędzny FPS..  jeszcze nie 4k ale też już nie WQHD czy FHD.

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlatego porównam wydajność bo wymianie platformy imo w tamtej lokacji klęka cpu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Czy uważacie, że podział na modele z X i bez X w tej generacji jest już mega sztuczny i AMD powinno się z tego wycofać? 
IMO wersje bez X są znacznie lepszym wyborem dla większości konsumentów i pokazują prawdziwą siłę architektury. Wydajność modeli z X jest mało warta w stosunku do podniesionych limitów mocy.
Raczej AMD jest tego świadome oferując tryb ECO. Jedyny plus jest taki, że procesory w obu wersjach kosztują praktycznie tyle samo.

Dla mnie to jest dziwne, że Intel i AMD ostro gonią za "pustymi" megahercami i wynikami w syntetykach zamiast dobrać optymalnie perf/wat. W końcu chwalą się sloganem power efficiency, więc dlaczego to robią?
Jestem przekonany, że gdyby konsument był świadomy różnic to nie chciałby płacić za to OC, bo jak to inaczej nazwać.
https://www.anandtech.com/show/17641/lighter-touch-cpu-power-scaling-13900k-7950x
Intel odleciał grubo - coś pomiędzy 125W a 250W byłoby optymalne dla tego procesora.
Swoją drogą AMD znowu skaluje się lepiej przy niskim zużyciu energii a Intel przy wyższym.

Edytowane przez KaBaSZo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyniki syntetyczne = sprzedaż.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...