Skocz do zawartości
Spl97

Socket AM5/Zen 4 - wątek zbiorczy

Rekomendowane odpowiedzi

2x 32gb ;)

53 minuty temu, RemiKo napisał:

Ze wstępnych testów Dual Ranków, mogę potwierdzić zależności wydajnościowe widoczne na wykresach od Hardware Unboxed:

 

Roznice sa tak male, ze az nie warte zmiany w kwesti wydajnosci pod gry. Na 3D cpu roznice beda juz pewnie zerowe skoro tutaj sa tak skromne.

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Phoenix. Przyznaję rację co do procków z 3D. Mnie nadal nieco nakręca fakt, że te Dual Ranki się dopiero przy 5600 zaczynają, a już są szybsze.

Te moduły spokojnie mogą polecieć nawet na 6800MHz, czyli biorąc max przy 1:1 jako 6400MHz to wtedy dopiero pokażą pazur :)

...

Są nawet normalnie sprzedawane 6800MHz 64GB:

https://www.gskill.com/product/165/374/1681884065/F5-6800J3445G32GX2-TZ5RK

https://www.ceneo.pl/154975695

...

Jeżeli komuś udałoby się dorwać Dual Ranki 64GB właśnie w okolicach 600zł, czyli tyle ile dałem za moje, to myślę że warto :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A miałem brać adie dualrank wczoraj, jednak sobie odpuściłem. Chinskie wynalazki z dobrym oc... Ostatecznie by mnie wyszły poniżej 600zł po wszystkich kuponach. Ale się zgapiłem, dziś kupony przepadły :( . 

W dualrankach nadal bym szedł w 6400cl30 ;) 

Edytowane przez novi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@RemiKoJak bede zmienial na Zen5 bez 3D to wtedy dla zabawy sie zastanowie nad DR ale jesli bede czekal do 3D to temat odpuszcze :D Pobawiac sie za mala kase wiadomo fajnie jak trafiles za dobra kase te DR ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
39 minut temu, Phoenix. napisał:

2x 32gb ;)

A to takie buty ale 4x16 przykładowo tez się nada w takim razie :] 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak ale z gory obcinasz sobie max predkosc wiec nie ma to zadnego sensu na 4banki robic sobie pod gorke.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pany 🙂

Co jest że najnowszy ZenTimings 1.3 nie odczytuje wszystkich parametrów, a mianowicie wszystko po prawej strony od góry ?? MCLK, FCLK, UCLK, VSOC, CLDO. Nie ogarniam o co biega...

Edytowane przez sniper76

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na asrocku przestało odczytywać chyba vddp, vddg nie czyta nadal, a reszta jak w starym 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

U mnie byl ogolnie problem z odpaleniem na Gene

Uruchom jako administrator...

I wszystko dziala

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie proce "padaki", tylko gry słabo wykorzystują więcej niż 4 czy 6 wątków. W tym prawdziwy problem. Wkrótce może 48 wątków w mainstreamie, a gry prawdopodobnie wykorzystają 6...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Patrzcie na lows!

064e16de9deaf6b6bccfb1402346b6d8.png
 

Prawie +20% względem 6000 cl30 36-36. Tylko czy potem Buldzoid nie przyznał, że  z tymi jego timingami nie da się na dłuższą metę i nawet on się poddał i przestał kombinować, jak ma potem co kilka miesięcy musieć szukać czemu coś straciło stabilność?

Co ciekawe kanał HU bywa profesjonalny, ale tutaj to się ośmieszyli. W tym momencie nadal pierdzielą głupoty, że gra lubi przepustowość. Żadna gra nigdy nie lubiła przepustowości i to się nie zmieni. Jakby tak było, to wydajność od DDR3 by się potroiła przy pod 4x większej. 

Za to czas dostępu się liczył zawsze bardzo, tylko nie zawsze były karty wystarczająco szybkie i testujący wystarczająco kumaci, żeby rozumieć czemu powinni testować w 480p (wtedy, dziś 720-1080p wystarczy na 4090tce, przynajmniej bez RT)

I tutaj też 5200MT/s = 110fps

6000MT/s = 86

Aha. No faktycznie Spiderman wymaga przepustowości :szczerbaty:

 

W każdym razie szokująca różnica i daje do myślenia w temacie odstawania AMD od Inteli u niektórych. Pamiętacie te testy gdzie nagle Intel nie wiadomo czemu odjechał 7800x3d o aż 35% na przykład mimo zbliżonych parametrów RAM? To może być przyczyna. 

Jak ktoś bardziej obeznany w  ustawianiu timingów/subtimingów się czegoś związanego z tym tematem dowie, to proszę o wpis tutaj.

Edytowane przez Ronson

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyniki procesorów są w dużej mierze zależne od:

Miejsca testowego, doboru gier i ewentualnych ustawien platformy.

Są miejsca na mapach gdzie intel odlatuje i są takie gdzie amd odlatuje. Kwestia testera, gdzie robił pomiar fps. Ciekawe, może dziś porównam 6000cl26 vs 6400cl30 w paru grach z benchmarkiem.  Na tym cpu jeszcze ani razu nie miałem 6000mhz ustawione :E.  

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, Send1N napisał:

To co przy ddr5 większość 2x16 jest SR zamiast DR? :E 

No tak - kostki się podwoiły w porównaniu z DDR4. Więc 4x16 to jak 4x8 w AM4 na DDR4.

Swoją drogą ciekawe jak to na intelu wygląda bo tam kontroler ogarnia jedne i drugie pamięci
Może @tomcug by się chciał pobawić i zobaczyć jak to wygląda na obu platformach

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Ronson napisał:

Tylko czy potem Buldzoid nie przyznał, że  z tymi jego timingami nie da się na dłuższą metę i nawet on się poddał i przestał kombinować, jak ma potem co kilka miesięcy musieć szukać czemu coś straciło stabilność?

Guzik prawda, żaden problem śmigać na zoptymalizowanych dalszych rzędach.

3 minuty temu, michaelius33 napisał:

Może @tomcug by się chciał pobawić i zobaczyć jak to wygląda na obu platformach

Ja nie dam rady, za dużo pilniejszych tematów w kolejce ;)

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

2x24gb w ddr5 też jest single rank, tak samo jak 2x16 :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale Microny 24 GB się nieźle kręcą, a 16 GB padaka :lol2: Taki żarcik :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

2x24 hynix mdie leci ładnie też na 8000mhz i wyżej.  Mdie v2 to jest czy jakoś tak, ale za to z bardzo nędznym trfc ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rdzeni oraz wątków będzie coraz więcej, jak widać na załączonym obrazku. Jednak czy oprogramowanie z nich dobrze skorzysta to osobna sprawa. Ale faktycznie timingi DRAMu nie pozostają bez znaczenia i wpływu na 1% Low, Ronson z pewnością ma w tym rację.

image.png

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla tweakerow.

Dziś troszkę chciałem się pobawić ramem, i odkryłem że u mnie podbijanie vsoc powyżej 1.2v psuje latency w aida.  Przypadkiem zredukowałem vddio z 1.3v do 1.15v, wyniki w aida się ciut poprawiły o0. Ciekawe zjawisko. W trybie awaryjnym mam okolice 59.3ns na aktualnym nastawię. Vsoc aktualnie 1.15v spod biosu, daje okolice 1.13v pod windowsem, wyniki aida są powtarzalne i optymalne jak na mój zasyfiony system. Patrząc jaki mam zapas napięć, 6600mhz musi wskoczyć stabilnie, nie ma żadnego ale. 

Edytowane przez novi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja obstawiam, że 8/16 to takie nowe 4/8 będzie i zostanie z nami na lata. Więcej raczej tylko jako śmieciordzenie by system działał na nich w tle. W każdym razie do domu i grania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

32GB RAMu raczej starczy do gier w bardzo wysokich ustawieniach do 2029 moim zdaniem. Albo i 2030. 
Zakładam

2028 - nowe konsole

2030 - koniec wydawania gier na pastgen, czyli XsS/XsX/PS5. 

Ale 8GB do kompa biurowego zacznie przeszkadzać wcześniej. Jak większość ludzi w telefonach zacznie mieć 12-16, to i strony internetowe zaczną więcej używać marnować. 

Edytowane przez Ronson

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe czy zredukowanie napięć pozwoli z powrotem wbić Co na -35-40 ;) . 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 minuty temu, Ronson napisał:

32GB RAMu raczej starczy do gier w bardzo wysokich ustawieniach do 2029 moim zdaniem. Albo i 2030. 
Zakładam

2028 - nowe konsole

2030 - koniec wydawania gier na pastgen, czyli XsS/XsX/PS5. 

Ale 8GB do kompa biurowego zacznie przeszkadzać wcześniej. Jak większość ludzi w telefonach zacznie mieć 12-16, to i strony internetowe zaczną więcej używać marnować. 

8GB to nawet na macu czy linuksie ledwo daje radę teraz.

 

Ale poszukałem sobie apropo tych single rank vs dual rank i znalazłem info, że moduły DDR5 8GB używają połowę kostek bo nie ma wersji o odpowiednio małej pojemności w produkcji) czyli jak ktoś ma 2x8 w ddr5 to ma dwie połówki single rank.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Ronson napisał:

8GB do kompa biurowego zacznie przeszkadzać wcześniej. Jak większość ludzi w telefonach zacznie mieć 12-16, to i strony internetowe zaczną więcej używać marnować

8 GB niestety już może przeszkadzać, gdyż przeglądarki, rozmaite strony www i różne inne programy marnują RAM okropnie

kolega z PSP (32 MB) w 2006 roku korzystał z neta przez Wi-Fi, gdzie sprawdzał informacje dotyczące gier, a strony z reguły działały ok i gry były już 3D, niektóre nawet z graniem on-line

2 godziny temu, michaelius33 napisał:

Ja obstawiam, że 8/16 to takie nowe 4/8 będzie i zostanie z nami na lata. Więcej raczej tylko jako śmieciordzenie by system działał na nich w tle. W każdym razie do domu i grania.

może jeśli o przeciętnego użytkownika chodzi ale proce ogólnie będą mieć coraz więcej rdzeni i szczególnie rdzenie przeznaczone specjalnie do SI, co już widać w laptopowych SoC AMD i Intela (Meteor Lake i dalsze), słyszałem że Windows 12 ma podobno wymagać minimum 40 teraops wydajności do SI żeby prawidłowo działać

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Thimedes napisał:

słyszałem że Windows 12 ma podobno wymagać minimum 40 teraops wydajności do SI żeby prawidłowo działać

Na ten moment nic niewarte plotki. Microsoft sam nie wie co chce dalej robić z Windowsem a co dopiero zewnętrzne źródła :E 
Miała być już 12tka w następnym roku, teraz sie mówi że jednak 2025. W11 to nadal jeden wielki bajzel pozlepianego kodu i interfejsu z 20 lat Windowsa, sektoru biznesowego nadal w ogóle nie liznął i króluje W10 a tu już ma 12tka wychodzić?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   1 użytkownik

  • Tematy

  • Odpowiedzi

    • Wykonałem test sterowników z myślą o @Kelero oraz aby przekonać się jaki wpływ na wydajność w testach mają nieoptymalnie dobrane sterowniki. Całość odbędzie się na przykładzie nieco słabszej karty: Galaxy GeForce 8600 GTS 512MB Platforma cały czas ta sama co we wcześniejszych wpisach. Pędzel jak zwykle znów przydatny przy tego typu kartach ... Będę porównywał sterowniki ForceWare 169.21 do ForceWare 197.45. Pierwsze są dobre do starszych serii kart, m.in. serii 7000 oraz starszych tytułów gier, natomiast drugie są dobre do kart z serii 8000. Oba sterowniki wspierają jednak obie te serie, więc dzisiaj nastąpi ich porównanie na w.w. karcie graficznej. Wyniki wrzucę jeden pod drugim, najpierw starsze, a później te z wyższym numerkiem. Testy były wykonane jedynie w benchmarkach syntetycznych. Wszystkie ustawienia w sterownikach, BIOSie, sprzęcie i taktowaniach były identyczne. Jedyna różnica to wersja zainstalowanych sterowników. Stary 3DMark od razu ucieszył się z bardziej odpowiednich dla niego sterowników. Procesor nie jest tak "blokowany", dlatego i fps'y przez niego generowane w testach najbardziej procesorowych są wyższe. Stricte graficzny test Game 4 Nature nie wykazał zupełnie żadnych różnic, zgodnie z przewidywaniami. ... Jednakże już w teście skalującym się głównie wydajnością karty graficznej obserwujemy odwrócenie się wyników, gdzie nowsze sterowniki są po prostu dużo lepiej dopracowane dla tej serii kart. Tym razem test najbardziej procesorowy (Wings of Fury) nie wykazał różnic pomiędzy sterownikami, a reszta testów wyraźnie korzysta z nowszych sterowników. ... Im nowsza wersja 3DMark'a, tym różnica na korzyść nowszych sterowników większa. Dla serii 8000 aż się same proszą ... Identycznie sytuacja ma się w '06, gdzie tylko test procesora stoi w miejscu. Specjalnie sprawdzałem to parę razy, bo osobiście zaskoczyła mnie aż taka różnica w całej reszcie podtestów. ... Jednakże aby nie było tak kolorowo z nowszymi sterownikami, to okazało się, że mają one sztucznie zablokowaną możliwość zmiany taktowania tego modelu karty graficznej. Suwaczki mogłem przesuwać w obojętnie jaką stronę, ale po zastosowaniu ustawień one i tak wracały do stanu początkowego. Nowsze sterowniki pokazywały również komunikat o braku podpiętego dodatkowego zasilania do karty i poinformowały mnie, że z tego powodu karta będzie pracowała na "bezpiecznych taktowaniach" Ze mną jednak nie ma tak łatwo i "magicznie" okazało się, że na tych starszych sterownikach możliwość zmiany taktowania była normalnie obecna, więc wziąłem się do pracy To głównie dlatego zainstalowałem tę wersję sterowników, a ten obecny test wyszedł tak jakby przy okazji Tym samym starsze sterowniki wyprzedziły nowsze, bo umożliwiały tę zmianę I takie mniej więcej właśnie są "cyrki" ze sterownikami do kart graficznych z tamtego okresu Jak będę miał chęci oraz możliwości, to przeprowadzę podobne testy, ale na serii 7000, zaopatrując się również w trzeci sterownik ForceWare o numerze 307.83, czyli najnowszy możliwy dla tej serii kart pod WinXP. Sam jestem ciekaw efektów/wyników  ... __________ @Kelero Tak przy okazji, to przypomniało mi się jeszcze, że do Test Drive Unlimited i Athlon'ów 64 X2 zalecało się instalację AMD Dual-Core Optimizer 1.1.4: https://www.instalki.pl/download/programy/windows/narzedzia/testowanie-i-diagnostyka/amd-dual-core-optimizer/ Ta gra po prostu nie została stworzona z myślą o procesorach wielordzeniowych i wielu się właśnie skarżyło na jej kiepskie działanie. Ogólnie TDU jest pod tym względem naprawdę kapryśne i tak naprawdę najlepiej byłoby złożyć osobny sprzęt tylko pod tę grę 😜 Hmm, może to obczaję również u siebie i zobaczę, czy czasem wyłączenie jednego rdzenia (z poziomu Windows'a) nie załatwiłoby całkowicie tego tematu mulenia tego tytułu gry. Bez żadnych optimizerów, kombinowania oraz podkręcania.   Poza tym, jeżeli chcesz, to zostawiam Ci również namiary na te "nowsze" sterowniki, abyś sam mógł u siebie przetestować: http://us.download.nvidia.com/Windows/197.45/197.45_desktop_winxp_32bit_international_whql.exe Zostawiam je dlatego, bo w przypadku tych starszych (169.21) różni się nieco ten panel sterowana Nvidia, o którym wspominałeś że Ci odpowiada. Jest w nim nieco więcej opcji, ale nie wszystko może Ci podejść __________ @Setnik Kurcze, taki mobile to proc marzenie  Nieco drogi, ale marzenie dostępne jeszcze od ręki https://allegro.pl/oferta/nowy-athlon-xp-2-8-s462-axma2800fkt4c-fv-10732596208 Mój najlepszy Barton XP robi 2300MHz przy domyślnym napięciu 1.65v, co mi absolutnie wystarcza ... Odnoszę jednak wrażenie, że możemy mówić o tych innych Mobile'ach, bo takie na s.754 też istniały, ale obecnie modele z 1MB cache'u też już sporo kosztują  https://allegro.pl/oferta/amd-mobile-athlon-64-3200-amn3200bix5ar-9362966908 https://allegro.pl/oferta/amd-mobile-athlon-64-3200-ama3200bex5ar-10745095916 Nigdy wcześniej jakoś nie myślałem o zakupie takiego procka, nawet poniekąd ze względu na wyższy proces technologiczny niż ten, który już wtedy posiadałem.
    • Temat do rozważenia. Chciałem wziąć piekarnik i mikrofalę z tej samej linii, żeby wyglądały tak samo. Wtedy nie rzucałaby się tak w oczy zamontowana nad piekarnikiem.
    • U mnie krzywa jest idealnie prosta, nawet o 1mhz sie nie zmienia, dzisiaj juz 3 dzien takze wreszcie mam pelny sukces. Praktycznie 0 straty na wydajnosci, 2700mhz/950mv na sztywno i nie sa to jakies spektakularne zyski w poborze energii bo to tylko 30w ale kultura pracy sie poprawila i temperatury spadly o okolo 5 stopni takze jestem w pelni zadowolony. Pytanie czy przy nastepnej aktualizacji sterownika problem nie powroci.
    • Trochę na wyrost to stwierdzenie o rozbrajaniu systemu. Porównaj sobie jakość obrazu podczas ruchu chyba, że dla ciebie liczy się tylko FPS.
    • Może po prostu włącz wyświetlanie FPS i sprawdź. 😁 RTX 4070 Ti Super w teście PurePC ma 47 FPS w 4K na najwyższych ustawieniach. https://www.purepc.pl/test-wydajnosci-kart-graficznych-ghost-of-tsushima-pc-dobra-optymalizacja-i-piekna-grafika-samuraj-nie-dokonal-seppuku?page=0,11 Ja grałem tylko trochę, sprawdziłem na początku gry po pierwszej bitwie i na RTX 4070 Ti miałem w tej lokacji 51 FPS.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...