Skocz do zawartości
Tombycz

Intel Alder Lake/ Raptor Lake/ Meteor Lake/ Arrow Lake/ Lunar Lake/ Panther Lake/ Nova Lake - 14 generacja

Rekomendowane odpowiedzi

Napisano (edytowane)
W dniu 27.03.2024 o 19:43, Wu70 napisał:

Ale to przecież wiadomo od dawna ;)

Nie o to chodzi. Chodzi o to czy jest to faktycznie HX czego 100% pewności mieć nie można.

 

Edycja:

https://wccftech-com.translate.goog/intel-xeon-granite-rapids-sp-es-cpu-leak-80-cores-160-threads-lots-of-cache-350w-tdp/?_x_tr_sl=en&_x_tr_tl=pl&_x_tr_hl=pl&_x_tr_pto=sc

Intel-Granite-Rapids-SP-Xeon-CPU-ES-Leak

CPU-Z błędnie odczytuje ilość rdzeni, wątków i pojemność L3.

29_intel_granite_rapids_i_sierra_forest_

GraniteRapids w procesie Intel 3:

Każdy kafelek obliczeniowy ma fizycznie 42(40 aktywnych) rdzenie RedwoodCove/84 wątki z L2 84MB(2 MB na rdzeń) + L3 168MB(4MB na rdzeń). L2+L3 252MB.

 

GraniteRapids-SP z 2 aktywnymi kafelkami obliczeniowymi (LGA4677)

Fizycznie 84(80 aktywnych) rdzenie RedwoodCove/168 wątków z L2 168MB + L3 336MB. L2+L3 504MB

 

GraniteRapids-AP z 3 aktywnymi kafelkami obliczeniowymi (LGA7529)

Fizycznie 126(120 aktywnych, L2 240MB + L3 480MB) rdzeni RedwoodCove/252 wątki z L2 252MB + L3 504MB. L2+L3 756MB.

 

Teoretycznie GraniteRapids-AP mógłby dostać 4 kafelki obliczeniowe ponieważ wersja SP ma już 3 kafelki(jeden nieaktywny).

Fizycznie 168(160 aktywne) rdzeni RedwoodCove z L2 336MB + L3 672 MB. L2+L3 1008MB.

 

GraniteRapids-SP na LGA4677.

Intel-Xeon-Granite-Rapids-Package-In-Han

 

 

 

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rdzenie P w ARL mają mieć 3MB L2 ( 50% więcej niż w RPL)

Tyle samo L3 (36MB) 

Konfiguracja 8+16 bez HT

 

Bez 512MB L4 Adamantine to się nie obejdzie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ciekawe czy to prawda czy tylko Prima aprilis. Jeśli prawda to ciekawy jestem co na to LionCove ;)

 

@Smogsmok

Ilość cache i rdzeni, brak HT nic nie mówią dopóki nie wiemy ile wnosi IPC LionCove i Skymont.

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystkie portale sa zawalone dzis fejkami wiec nie bralbym tego przecieku na powaznie ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Od paru dni mam 13700K, w końcu problemy z platformą X99 skłoniły mnie do zmiany, choć walczyłem dzielnie ;-)

Patrząc jak działa ten procesor nasuwa mi się pytanie dlaczego Intel tak go zaprojektował. Rdzenie E nie są takie złe, ale wydają się nieprzystosowane do tego, do czego je projektowano. Mają całkiem dobre IPC, ale przecież i tak nie będą na nich chodziły główne wątki gier. Ich celem jest raczej poprawa wydajności wielowątkowej (na wat i na mm2) i tutaj lepszym wyborem wydawałyby się rdzenie z obsługą HT i AVX-512, nawet kosztem IPC. Coś bardziej w stylu Larrabee/Xeon Phi w każdym razie.

Macie jakieś pomysły dlaczego tak to wygląda? Albo dlaczego nie mam racji czepiając się? Ja chyba skłaniałbym się do wersji, że Intel po prostu dał najlepsze "atomowe" rdzenie jakie aktualnie miał, bez większej filozofii. Ale z drugiej strony o "procesorach heterogenicznych" gadał od dobrej dekady i teraz już od trzech generacji ładuje te same, nieoptymalne wg mnie rdzenie...

Ok, jak wspominałem nie jest tak źle i same wielkie rdzenie Golden Cove nie miałyby większych szans na rywalizację wielowątkową z AMD (a w konfiguracji z rdzeniami E daje radę), ale jednak nie mogę oprzeć się wrażeniu, że potencjał pomysłu jest marnowany.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Potencjał z małymi rdzeniami jest ale dopiero w przyszłości jak ogarną poprawnie działanie i wykorzystanie tego. Intel chyba ma kiepskie zasoby do tworzenia nowych procesorów. Tyle lat klepali skylake pod różnymi nazwami, że zapomnieli jak to jest robić coś nowego.

AMD podobno w  nowych procesorach też ma dać małe rdzenie.

Z intelem jest o tyle śmieszna sprawa, że słupki wyglądają ładnie. Rzeczywistość gorzej. Napięcie PL1, PL2. maksymalne.
Przez kilkadziesiąt sekund może działać z wysokim napięciem później się zmniejsza wraz z taktowaniem.

Intel jedzie na renomie wypracowanej przez lata ale w grach czy zastosowaniach profesjonalnych są daleko w tyle za amd.

Intel potrzebuje 3x więcej papu żeby wypluć podobną ilość klatek co ryzeny.

Intela można wybrać do grania i streamowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

U mnie to się nawet wywalał na stockowych ustawieniach (Boost do 54x i PL253W), mnóstwo czasu na tych straciłem obwiniając na początku pamięci 🙄Dałem offset -2x i jest ok. Mam nadzieję, że bo poprawie montażu chłodzenia (obecnie ma trochę protezę, choć imho powinno być ok) problem zniknie.

Ale wracając to tematu - tak, coś w typu AMD Zen 4c wygląda rozsądniej.

Sam pomysł łączenia wydajnych, dużych rdzeni pod gry i aplikacje małowątkowe z duża liczba słabszych, prostszych rdzeni pod multi-core performance jest jak najbardziej ok. Tylko w wykonaniu Intela te małe rdzenie mają całkiem dobrą wydajność 1-wątkową i mocno przeciętną wydajność wielowątkową (choćby przez brak HT). Dochodzi jeszcze kwestia balansu między INT a FP.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na jeden 1P wchodzi 4E to teraz będziesz wiedział po co wrzucili E-core ;)

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ale ja to wiem. Tyle, że mogłoby pewnie wejść i 6-8 E-cores (albo 4 ośmiowątkowe o lepszej sumarycznej wydajności w MT) gdyby nie przeznaczyli tylu tranzystorów na osiągnięcie IPC na poziomie Haswella/Skylake'a (chyba nawet bliżej SKL), która jest temu procesorowi do niczego nie potrzebna (bo od tego ma rdzenie P) ;-) Takie IPC to przecież spore osiągnięcie, gdyby pojawił się trzeci gracz oferujący procesor na takim poziomie to przy odpowiedniej polityce cenowej mógłby odnieść sukces. A tutaj się to "marnuje".

EDIT
Hipotetycznie może być wprawdzie tak, że jest to tak super efektywna architektura, że niemal zawsze wykorzystuje w pełni zasoby rdzenia i HT nie miałoby w jej przypadku sensu. I że przy słabszym IPC poleciałaby na szyje wydajność na wat. Jeśli tak jest to chętnie się dowiem, po prostu z tego co wiem o współczesnej architekturze procesorów wydaje mi się to mało prawdopodobne. To tego zadania pasowałoby coś odwrotnego np. w stylu rdzeni komprocesorów Xeon Phi.

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Odnośnie działania gier to jest tylko wasze teoretyzowanie. Zacznijcie od sprawdzenia jak wyłączenie HT, wyłączenie wszystkich rdzeni E i części rdzeni P, np. zostawienie tylko 6 lub 4 rdzeni P bez HT wpływa na wydajność. Gry po prostu nie są w stanie (pisząc w największym skrócie) efektywnie wykorzystać dużej ilości rdzeni, ilość FPS w grach nie zwiększa się liniowo z ilością rdzeni powyżej pewnej wartości. Część gier ma nawet celowo ustalony limit do 10 lub 16 równolegle działających wątków. Ogólnie to nie ma znaczenia w przypadku gier czy dodatkowe rdzenie to rdzenie E czy zamiast tego byłoby o 4 więcej rdzeni P.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale chyba nikt tak nie twierdzi... 8 rdzeni P w kontekście gier "starcza do wszystkiego". Z HT lub bez HT - wszystko jedno (przy takiej ilości mocnych rdzeni HT jest raczej zbędne, ale bez błędów software'owych nie powinno też przeszkadzać).

Mnie chodzi raczej o to, że zamiast 8-16 rdzeni E mógłby dać w podobnym budżecie tranzystorów np. 32-48 prostszych rdzeni z poczwórnym HT (znanym z Xeonów Phi) by dopalić wydajność w (prawie) wszystkim innym poza grami ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czemu ty się tak upierasz przy tym HT? Nie masz racji twierdząc, że lepsza byłaby mniejsza ilość rdzeni E za to z HT.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ten problem faktycznie istnieje z silnikami UE. 

Miałem od początku posiadając GEN 13. Jest proste rozwiązanie, ograniczenie mocy. Płyty ustawiają w tych procach nolimit, ładowanie pewnych elementów w UE wyciąga z procka nieraz dużo ponad ustawione limity. Mi nawet pokazywało w peaku 340 W.  Nie pomagało nic, zabawy z napięciami raz pomagały raz nie. 

Wcześniej procki Intela miały seryjny kaganiec zgodny z tym co producent podawał i problemów nie było. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

To nie jest problem z UE tylko z tym, że procesor dostaje zbyt niskie napięcie.

Kompilowanie shaderów jest uruchamiane w wątkach obciążających w pełni wszystkie rdzenie, nie tylko w UE.

Na forum Steam o Horizon Forbidden West PC też kilka osób pisało, że wywalało im błąd i oficjalna odpowiedź twórców portu PC była taka, żeby zgodnie z zaleceniami Intel'a obniżyć maksymalne taktowanie o 1.

Ja nie mam tego problemu, wręcz przeciwnie, mogę jeszcze obniżyć Offset o 0,05 V. Z drugiej strony nie testowałem na wyższym mnożniku niż 56 i wysokim poborze prądu, ponieważ mam chłodzenie, które nie odprowadzi ciepła powyżej 250 W.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.04.2024 o 07:19, Keken napisał:

Z intelem jest o tyle śmieszna sprawa, że słupki wyglądają ładnie.

Recenzenci też nie są bez winy. Ciężko znaleźć test, gdzie procesory byłyby ustawione bez jakiegokolwiek OC (czyli z limitami zgodnie ze spec i pamięciami max jakie obsługuje dany CPU, czyli np. DDR5 5600 MT/s dla i5 14600K). Wówczas słupki by nie były takie piękne (szczególnie przy pełnym obciążeniu powyżej minuty).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

problemem jest to, że nie da się nawet dobrze przetestować proca, który zrzuca losowo zegary w syntetykach. Jak widać coś przeoczono ;-) Im bardziej max specyfikacja jest rozmyta tym gorszy syf bedzie wypływał :D

No ale nawet na forum coraz cześciej słyszy się nie testować. Dupa stable, pyrkać, obserwować :D 

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Specyfikacja nie tyle jest rozmyta, co ... skomplikowana. Dawniej ("Pentium 100" czy inny Pentium 60, lata '90) sprawa była bardzo prosta - nie było PowerLimitów, było stałe taktowanie, no po prostu prostota jak budowa cepa.

Dzisiaj natomiast parametry pracy procesorów (te standardowe) są po prostu skomplikowane (PL1, PL2, TAU, cała tabela dobieranych taktowań i napięć przy danych taktowaniach, w ogóle wiele rdzeni).

No i oczywiście do tego dochodzi NIE trzymanie się wszystkich producentów płyt głównych specyfikacji na ustawieniach domyślnych.

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 godzin temu, SebastianFM napisał:

tylko z tym, że procesor dostaje zbyt niskie napięcie.

Długo bawiłem się prockiem. Napięcia ruszałem każde i gry na UE stwarzały te problemy. W żadnej grze nie widziałem peak poboru 250 - 260 W oprócz gier na EU gdzie wywalało ponad 340 W. 

Ustawiłem sobie te 280 W i nie mam z tym najmniejszego problemu. Proc automatycznie delikatnie zrzuca taktowanie, nic na wydajności się nie odczuje, a nie ma problemu z wyrzuceniem błędu. 

Nawet prockolubny CP2077 podczas gry nie wali więcej jak 140 - 160 W - więc nie ma mowy o żadnym ograniczeniu.

Nie wiem czyja decyzja, Intela czy producentów płyt, że stosują odblokowane Powerlimity jak default - ale to największy błąd tej serii. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Sądzę, że raczej producentów płyt, a Intel ma to w poważaniu.

ps. nie wszystkie płyty mają limityOFF domyślnie - na ASRock B760M PRO RS/D4 spotkałem się z należycie ustawionymi domyślnie limitami

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeszcze mając 9900K z default TDP było blokowane na specyfikacji procka podanego przez Intela. Fakt że ówczesna płyta Gigabyte mocno dowalała volty na dzień dobry i trzeba było ręcznie szukać, ale to już ustawienia do bardziej zaawansowanych osób. 

Teraz procki mają zdjęte limity, a nie ma co mówić taki 13900K ma 24 rdzenie. Wiem niby 16 to bieda rdzenie, ale CPU Z może wydzielić test na rdzenie P i E i według CPU wydajności rdzeni E są na poziomie rdzeni z Core I7 6700 a 7700k (w zależności od taktowania).  W zdjętym kagańcu peak poboru energii jest olbrzymi. Temu myślę że z default płyty powinny ustawiać pobory energii zgodnie ze specyfikacją procka. 253 W to w sam raz żeby te procki były stabilne pod full load i w miarę chłodne (bo 100 stopni pojawia się przy poborze 290 - 300 W) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale problem UE nie ma nic wspólnego z limitem mocy. Czy masz 220W czy 320W i tak wywali. 

Męczyłem się z tematem od 13900K. Juz wtedy bezpośrednio serwis Nvidia mnie uświadomił, że problemem jest procesor. Bo wywalało zawsze błąd pamięci przy shader w Fortnite. 

W tej chwili mam w domu 14900K i ona musi działać na +0,030V, na KS w ustawieniach jako K musi mieć +0,040V. Wszystko poniżej wywali się na jednej z wielu gier na UE po zainstalowaniu nowych sterów nvidia i robieniu na nowo shader. 

Pisałem tu o tym już rok temu niemal, to wtedy wielcy znawcy mnie wyśmiali. Teraz wielcy znawcy już zaczynają się odzywać jak o problemie jest głośno i potwierdził sam Intel 🙃🙃🙃

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...