Skocz do zawartości
Gość sir.walazz

AMD RYZEN 3000 - temat zbiorczy

Rekomendowane odpowiedzi

Fajnie że w temacie o Ryzen 3000 tak zażarcie dyskutujecie o Buldożerach, wcale nie zrobi się z niego taki śmietnik jak z oryginalnego " Tematu o Zen" :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie rozumiem czemu jedno słowo "udostępnione" ewentualnie "dedykowane" miałoby skreślać "anty-HT?

 

Po raz kolejny pytam jak wyobrażasz sobie technologie "anty-HT" jak nie moduł mogący pracowac jako dwa lub więcej rdzeni i w razie potrzeby pracujący jako jeden rdzeń?

Podaj inny pomysł albo przyjmij ze to jest właśnie to i nie bredź wiecej :)

Bredzisz dalej. Nawet w slajdzie, który wcześniej sam wrzuciłeś jak byk stoi "When only one thread is active, it has full acess to all shared resources". No to Ci dopowiedziałem innym slajdem, czym są te współdzielone zasoby - front-end oraz FPU. I to ta dwójka jest w 100% do dyspozycji pojedynczego wątku, który się jednak wykonuje na dedykowanym bloku INT. Jednym, nie dwóch naraz. Jeżeli masz dowód, że jest inaczej, to go wrzuć. Ale przeinaczanie słów producenta nie jest dowodem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja nie wiem, gdzie Ty tu widzisz "anty-HT". Cała debata o liczbę rdzeni wynika z tego, że w momencie, jak wykonują się dwa wątki, to muszą one współzawodniczyć o dostęp do współdzielonej jednostki FPU, co w mniejszym lub większym stopniu wpływa na wydajność (zresztą sam front-end też jest współdzielony). CMT to nie jest żadne "anty-HT" i Bulldozer nigdy nie był projektowany pod łączenie rdzeni do pracy nad pojedynczym wątkiem. Cała idea za CMT to chęć sporego podbicia wydajności wielowątkowej przy niewielkim wzroście liczby tranzystorów. Idea zresztą dość kulawa, bo SMT jest po prostu lepsze, dzięki temu, że nie poświęca mocy pojedynczego wątku. A ta ostatnia w Bulldozerach była poświęcona, bo "rdzenie" (bloki INT) miały mało jednostek wykonawczych i oczywiście nie mogły się połączyć w jeden, aby wykonywać ten sam wątek. "Anty-HT" to bajeczka bez możliwości rzeczywistej realizacji, bo to byłoby po prostu piekielnie trudne, o ile w ogóle możliwe, a zysk wydajnościowy wątpliwy. Zresztą, ja w tym podejściu nie widzę żadnego sensu. Przecież to żaden problem zrobić jeden rdzeń, gdzie dopakujemy kilka razy tyle jednostek wykonawczych co obecnie. Problemem jest front-end, który musi je nakarmić. Nawet zakładając 100% przewidywanie skoków, idealnie działające prefetch, itd., pewnej bariery się nie przeskoczy, bo zawsze jest tak, że instrukcje są jakoś od siebie zależne i nie można ich wszystkich puścić naraz. Cała sztuka polega na tym, aby zrobić to jak najlepiej i żadne "anty-HT" nie jest do tego potrzebne.

Edytowane przez tomcug

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie rozumiem czemu jedno słowo "udostępnione" ewentualnie "dedykowane" miałoby skreślać "anty-HT?

 

Po raz kolejny pytam jak wyobrażasz sobie technologie "anty-HT" jak nie moduł mogący pracowac jako dwa lub więcej rdzeni i w razie potrzeby pracujący jako jeden rdzeń?

Podaj inny pomysł albo przyjmij ze to jest właśnie to i nie bredź wiecej :)

 

p.s. "CMT is a simpler but similar design philosophy to SMT; both designs try to utilize execution units efficiently; in either method, when two threads compete for some execution pipelines, there is a loss in performance in one or more of the threads. Due to dedicated integer cores, the Bulldozer family modules performed roughly like a dual core dual thread processor during sections of code that were either wholly integer or a mix of integer and floating point; yet, due to the SMT use of the shared floating point pipelines, the module would perform similarly to a single core dual thread SMT processor (SMT2) for a pair of threads saturated with floating point instructions. (Both of these last two comparisons make the assumption that the comparison processor possesses and equally wide and capable execution core, integer-wise and floating-point wise, respectively.)"

https://en.wikipedia.org/wiki/Bulldozer_(microarchitecture)#Desktop

 

I nalezy pamiętac ze to jest zupełnie nowa architektura a nie ewolucja. Pewnie głównie dlatego głownie nie udana, stworzyć coś tak skomplikowanego od zera jest bardzo trudne. Pewnie w kolejnych krokach ta "uniwersalność" polegajaca na mozliwości przejścia z trybu dwurdzeniowego na jednordzeniowy by się poprawiała. Choć sam pomysł by wiele potoków łaczyło swoje siły okazał się już w załozeniu błedny bo tak jak limituje nas w czestotliwościach krzem (i malejacy proces przestaje pomagać) tak we wzroscie IPC blokuje nas przewidywanie rozgałezień i to z tej przyczyny nie mozna dodawac kolejnych potoków w procku, bo "przewidujemy" za słabo. (Intel wciąz zdecydowanie lepiej niż AMD i to widac w trudnym kodzie jak gry)

Anty-HT miało działać na zasadzie iż dwa lub więcej niezależnych rdzeni obliczeniowych przetwarzały by strumień instrukcji w ramach pojedynczego wątku.

 

Moduł Buldożer to właściwie rdzeń obliczeniowy z dwoma blokami Integer zależnymi od pojedynczego Front-endu i z pojedynczym blokiem FPU. Anty-HT nigdy nie miało działać na Module Buldożer ponieważ nie ma możliwości by dwa osobne bloki Integer z osobnym schedulerem(dyspozytorem) jak i osobnym L1 Danych mogły przetważac pojedynczy wątek. Moduł Buldożer zachowywał się jak dwa rdzenie gdy obliczał więcej niż jeden wątek ale pojedynczy wątek miał dostęp tylko do jednego bloku Integer i wówczas moduł zachowywał się jak pojedynczy rdzeń.

 

SMT(HT) dotyczyło tylko bloku FPU z dwiema jednostkami 128bit które mogły przetwarzać 2x128bit dla wielowątkowości lub 1x256bit da pojedynczego wątku.

 

 

Moim skromnym zdaniem z mojej perspektywy Moduł Buldożer nie był przełomem tylko innym podejściem do tworzenia rdzeni i sporym pójściem na łatwiznę. Nie chcę teraz wnikać czemu AMD nie mogło wówczas zaprojektować pojedynczego szerokiego bloku Integer a poszło na skruty tworząc wąski i zarazem prostszy blok Integer powielając go w obrębie rdzenia nazywając to dziwactwo modułem lub dwoma rdzeniami.

 

O ile w wielowątkowości(2x(2ALU, 2AGU)=4ALU, 4AGU) można powiedzieć że to się sprawdzało to pojedynczy wątek ma dostęp tylko do pojedynczego bloku Integer czyli zaledwie do połowy zasobów ALU(2ALU, 2AGU) w module i to m.in z tego powodu pojedynczy wątek Buldożera ma bardzo niskie IPC.

 

Pamiętam dyskusję czy 4-drożny dekoder x86 w Module Bulldozer to nie były w rzeczywistości dwa, 2-drożne dekodery x86.

 

Rdzeń Jaguar miał 2-drożny dekoder x86, 2ALU, 2AGU i FPU 128bit ;)

 

Szeroki pojedynczy blok Integer w rdzeniu takim jak np. Zen/Zen2(4ALU, 2AGU), Skylake(4ALU, 3AGU) lub Sunny Cove(4ALU, 4AGU) jest o wiele bardziej efektywny i gwarantuje wyższe IPC dla pojedynczego wątku ponieważ pojedynczy strumień instrukcji ma dostęp do wszystkich ALU czy AGU a gdy nie jest w stanie sporzytkować dużej ilości jednostek wykonawczych, SMT może obciążyć wolne zasoby drugim wątkiem.

 

Moim zdaniem Anty-HT(Anty-SMT) to fikcja ponieważ ciężko jest nakłonić jednostki wykonawcze w obrębie pojedynczego rdzenia by wszystkie liczyły pojedynczy wątek-inżynierowie przy projektowaniu obwodów logiki rdzenia muszą się nieźle napocić by większość jednostek wykonawczych liczyła ST, więc jakim cudem osobne rdzenie miały by tego dokonać? :)

 

Uważam że powrotu do Modułów typu Bulldozer nie będzie i zamiast dwóch bloków Integer np po 4ALU, 2AGU prędzej zobaczymy w przyszłości rdzenie z coraz to szerszym blokiem Integer np. 6ALU, 3AGU; 8ALU, 4AGU; 10ALU, 5AGU itd. z 4-8 drożnym SMT.

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Nie chcę teraz wnikać czemu AMD nie mogło wówczas zaprojektować pojedynczego szerokiego bloku Integer a poszło na skruty tworząc wąski i zarazem prostszy blok Integer powielając go w obrębie rdzenia nazywając to dziwactwo modułem lub dwoma rdzeniami.

Pewnie motywacja AMD była jak teraz. Rynek serwerowy gdzie dobra wielowątkowa wydajność INT jest bardziej ważna. Buldek to był tylko odprysk dla plebsu. Podobnie jest z EPYC -> Ryzen.

Taki IBM Power 8/9 również stawiały na wydajność głównie w INT (tryby SMT4/SMT8).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pojedynczy rdzeń obliczeniowy POWER8 ma bardzo szeroki blok Integer gdzie w pojedynczym wątku jest wydajniejszy od POWER7 o 60%. Power 9 ma pojedynczy wątek szybszy od POWER8 i również szeroki blok Integer.

Choć z drugiej strony POWER9 bardziej przypomina moduł Bulldozer niż szeroki rdzeń POWER8.

 

Wciąż nie jestem pewny czy połączone części POWER9, 4SMT w 8SMT mogą liczyć pojedynczy wątek

 

IBM informuje że mogą to być układy 12 rdzeniowe 96(8 wątków na rdzeń) wątków lub 24 rdzeniowe 96 wątków(4 wątki na rdzeń).

Bardzo dziwaczna konstrukcja przypominająca Buldożera pod pewnymi względami.

 

Edit:

Na forum Annandtec...

Jest przeciek z testu Icelake(Sunny Cove) 4rdzenie/8wątków zrzutem z CPU-Z. L1-D 48KB 12-Way i L2 512KB.

Z pierwszych szacunków wychodzi że IPC wyższe od Skylake o 5-10% a z uwzględnieniem AVX to 15-20%.

 

CO prawda to tylko Geekbench ale układ działał podobno z zegarem 2.7GHz

 

Single Core: 3799

Multi Core: 12348

Geekbench Icelake

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problemem jest tylko przewidywanie skoków. To że instrukcje są zalezne to oznacza ze powinny być wykonywane jedna pop drugiej, ale w prockach Intela w rzeczywistosci wykonywane są ze 4 równocześnie, własnie dzieki przewidywaniu skoków. Jeśli ktoś zaprojektuje lepszą logike tego przewidywania to reszta jest już prosta, wystarczy poszerzyć inne interfejsy, dodac potoków wykonawczych. Niestety to nic nie da bo nikt nie umie zrobic lepszego przewidywania niż zaprojektowano w Skylake. Zenny sa pod tym względem wyraźnie słabsze i dlatego przegrywaja w grach.

Poziom trudnosci z przewidywanie rosnie pewnie logarytmicznie albo jeszcze gorzej i stad ściana przy której IPC staneło.

Sunny Cove ma poprawione algorytmy przewidywania skoków i rozgałęzień, to samo tyczy się Zen2 a niemal pewny jestem że Zen5 i Golden Cove przyniosą dalsze ulepszenia.

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

5-10% wzrostu IPC względem Skylake to jednak wynik trochę rozczarowujący

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z drugiej strony Sunny Cove miał być w 2017 roku a zaliczył poślizg przez 10nm.

 

Poza tym trzeba poczekać na oficjalne i bardziej miarodajne testy.

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@AMDK11

nie wydaje mi się żeby intel miał gotową tą architekturę w 2017, jak by tak było to przerzucił by ją do 14nm nawet jak by układ miał 6/8 rdzenie. A jeśli czekają na 10nm to znaczy że architektura jest tak samo w powijakach jak proces.

Edytowane przez Markiz88

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z drugiej strony Sunny Cove miał być w 2017 roku a zaliczył poślizg przez 10nm.

 

Coś ci się chyba pomyliło. W 2017 miał być CannonLake w 10nm, który zaliczył poślizg i do dzisiaj się nie ukazał. Ale to nie jest nowa architektura SunnyCove, tylko jest to nadal SkyLake przeniesiony do 10nm.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@darkonza

trochę mylisz pojęcia w mojej ocenie, amd dogoniła intela nie dlatego że intel ma problemy z logiką (przewidywanie skoków, rozgałęzień itp) tylko przez lata olewał rozwój tej logiki. A druga sprawa po wydaniu buldozera panowie w amd prawdopodobnie stwierdzili ze trzeba zmienić kompletnie podejście do niej, dlatego stworzyli ją na nową (nie ulepszali) i stąd taki a nie inny efekt. Wiadomo algorytmy nie tworzy się na nowo, ale je udoskonala natomiast sposobów ich realizacji może być wiele.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość sir.walazz

Nie nie nie nie. Wszyscy sie mylicie.

 

Nie ma czegos takiego jak idealny CPU. Nie ma czegos takiego jak idealna przelomowa architektura. Jakby bylo mozliwe zrobienie skoku IPC o 40% to zrobilby to juz teraz intel by zakopac AMD. Jakby AMD mialo cos takiego to by zrobilo to by pokoroic rynek intela.

 

Dlaczego tak sie nie dzieje? Bo obecna technologia jest u kresu rozwoju. Dlatego dokladaja rdzeni. Trzeba by bylo jakiegos przelomowego wynalazku zeby zegary przebily 5-6 GHz na stock. A tego nie ma. Dlatego intel jak i amd dokladaj rdzeni. Moga tu cos poprawic, tam usprawnic. Ale czasy gdy kolejna generacja procesorow robila roznice juz minely. Teraz to grzanie kotletow, wciskanie kitu. Komercja pelna geba. Nawet specjalnie ograniczaja kompatybilnosc podstawek zeby na chipsetach zarabiac (intel przede wszystkim). Najbardziej u kresu jest proces technologiczny ktorego juz prawie w ogole nie da sie zmniejszyc. Dlatego rozwazania na temat wzrostu ipc sa ........ malo przelomowe. Lepiej miec te 2 rdzenie wiecej np. wzrost z 6 na 8 niz powiekszenie ipc o 10% w 6 rdzeniach. I to jest trend obecny.

 

 

Wiec czekamy na wiecej rdzeni w mniejszej cenie. A te chiplety to super opcja. Beda mogli produkowac rdzenie jak parówki. Dodajac do nich bułkę w postaci kontrolera w wiekszym wymiarze technologicznym. Bo po co komu kontroler w 7nm?

 

@darkonza

trochę mylisz pojęcia w mojej ocenie, amd dogoniła intela nie dlatego że intel ma problemy z logiką (przewidywanie skoków, rozgałęzień itp) tylko przez lata olewał rozwój tej logiki. A druga sprawa po wydaniu buldozera panowie w amd prawdopodobnie stwierdzili ze trzeba zmienić kompletnie podejście do niej, dlatego stworzyli ją na nową (nie ulepszali) i stąd taki a nie inny efekt. Wiadomo algorytmy nie tworzy się na nowo, ale je udoskonala natomiast sposobów ich realizacji może być wiele.

 

AMD dogonilo intela bo:

1. Zegar w zegar, rdzen w rdzen już nie ma różnicy 1:2 (FX?) a 0,8-1

2. Cena jest niższa przy wyzszej ilosci rdzeni = wydajnosc ogolna na korzysc AMD w tej samej cenie

3. Podstawki AMD ktore obsluguja procesory z ok 4-5 lat produkcji a nie jak u intela max 2 lat (a co najsmieszniejsze u intela jedna platforma daje opcjena jedna architekture i jej ...........refresh pfffffffffff)

4. Chipsety AMD oferuja znacznie wiecej, gdyby nie AMD to RAID bylby dalej tylko na plytach intela od 400zl wzwyz.

 

Sa dwa parametry ktore sie licza.

 

PRICE / PERFORMANCE

i

PERFORMANCE / WAT

Edytowane przez sir.walazz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś ci się chyba pomyliło. W 2017 miał być CannonLake w 10nm, który zaliczył poślizg i do dzisiaj się nie ukazał. Ale to nie jest nowa architektura SunnyCove, tylko jest to nadal SkyLake przeniesiony do 10nm.

Tak to prawda, mój błąd. CannonLake to Skylake przeniesiony do 10nm i miałby premierę w 2017 roku gdyby nie problemy z tymże procesem technologicznym więc logiczne że się nie pojawił, zamiast tego tylko kolejne rewizje Skylake w 14nm + weięcej rdzeni. To wszystko co Intel z powodu problemów z 10nm mógł zrobić.

 

Zen 2 na pewno ma poprawiony bo ma co poprawiać, tam jest dużo do zrobienia, ale Sunny Cove wątpie, od szóstej geenracji ciągle to samo mimo ze prawie zawsze były plotki iż IPC w końcu wzrośnie.

Przy okazji, własnie ta "ściana" z taktowaniem oraz przewidywaniem skoków (i w efekcie z IPC) pozwoliła AMD gonić Intela, bo ten mimo ogromnych nakładów na R&D nie był w stanie uciekac już tak szybko jak wcześniej. To sie okazało za trudne.

Nawet na slajdach Intela jest że w Sunny Cove zostały poprawione algorytmy przewidywania skoków i rozgałęzień. Przecież od czasów Phenoma(K10) czyli 2007 roku do 2017 roku(Zen) czyli 10 lat AMD nie miało czym konkurować z Intelem więc przed czym miał uciekać? Przed samym sobą? Korzystał z tej sytuacji i doił $ ile się da nie wysilając się zbytnio.

Twierdzisz że IPC dobiło do ściany a moim zdaniem jesteś w błędzie ponieważ patrzysz na obecną sytuację i myślisz że ta tendencja się utrzyma gdzie za rok lub dwa wszystko może się zmienić. Cała ta sytuacja jest spowodowana problemami Intela z 10 nanometrowym procesem technologicznym na który projektowany był Sunny Cove(IceLake).

Skylake miał premierę w sierpniu 2015 natomiast nad Sunny Cove prace musiały już trwać a nawet mogły być na zaawansowanym etapie. Gdyby nie problemy z 10nm to wyszedł by zgodnie z planem po Cannon Lake. To właśnie przez 10nm Intel jakiś czas temu postanowił że będzie projektował mikroarchitekturę rdzeni i skalował do różnych procesów technologicznych gdyby w przyszłości problem z procesem technologicznym się powtórzył.

 

Nie nie nie nie. Wszyscy sie mylicie.

 

Nie ma czegos takiego jak idealny CPU. Nie ma czegos takiego jak idealna przelomowa architektura. Jakby bylo mozliwe zrobienie skoku IPC o 40% to zrobilby to juz teraz intel by zakopac AMD. Jakby AMD mialo cos takiego to by zrobilo to by pokoroic rynek intela.

Przy projektowaniu mikroarchitektury zawsze idzie się na pewne kompromisy między zyskami w wydajności a ilością tranzystorów które trzeba dodać by to uzyskać czyli skomplikowaniem co wiąże się z nakładem pracy która pochłania dużo czasu. Czasami lepiej małymi krokami dopracowywać architekturę i wypuszczać ją co dwa lata niż dokonywać większych zmian i wypuszczać co 4-5 lat. Zresztą nie mając konkurencji Intel niskim nakładem maksymalizował zyski i doił miliardy.

 

 

Dlaczego tak sie nie dzieje? Bo obecna technologia jest u kresu rozwoju. Dlatego dokladaja rdzeni. Trzeba by bylo jakiegos przelomowego wynalazku zeby zegary przebily 5-6 GHz na stock. A tego nie ma. Dlatego intel jak i amd dokladaj rdzeni. Moga tu cos poprawic, tam usprawnic. Ale czasy gdy kolejna generacja procesorow robila roznice juz minely. Teraz to grzanie kotletow, wciskanie kitu. Komercja pelna geba. Nawet specjalnie ograniczaja kompatybilnosc podstawek zeby na chipsetach zarabiac (intel przede wszystkim). Najbardziej u kresu jest proces technologiczny ktorego juz prawie w ogole nie da sie zmniejszyc. Dlatego rozwazania na temat wzrostu ipc sa ........ malo przelomowe. Lepiej miec te 2 rdzenie wiecej np. wzrost z 6 na 8 niz powiekszenie ipc o 10% w 6 rdzeniach. I to jest trend obecny.

Zauważ że dokładają rdzeni głównie na platformy typu AM4 i LGA1xxx, czyli tam gdzie Intel nie mając konkurencji serwował max 4 rdzenie a że AMD wypuściło 8 rdzeni na AM4 to na ruch Intela nie trzeba było długo czekać. Dokładanie rdzeni to zwiększanie wydajności po najniższej linii oporu gdzie ograniczeniem jest tylko proces technologiczny. Myślisz że z Zen5 przyniesie 32 rdzenie na gniazdo pokroju AM4? Szczerze wątpię, o ile w Threadripper, EPYC i Xeonie tam ma to sens i rdzeni nigdy za wiele to moim zdaniem na AM4 i LGA1xxx nie zobaczysz więcej jak 12-16 rdzeni. IPC nie ma granicy i będzie wyższe w Sunny Cove jak i Zen5 czy Golden Cove. Intel opracowuje przełomową mikroarchitekturę na 2022 rok i na pewno AMD też pracuje nad czymś co zastąpi Zen5 także pożyjemy zobaczymy.

 

AMD dogonilo intela bo:

1. Zegar w zegar, rdzen w rdzen już nie ma różnicy 1:2 (FX?) a 0,8-1

2. Cena jest niższa przy wyzszej ilosci rdzeni = wydajnosc ogolna na korzysc AMD w tej samej cenie

3. Podstawki AMD ktore obsluguja procesory z ok 4-5 lat produkcji a nie jak u intela max 2 lat (a co najsmieszniejsze u intela jedna platforma daje opcjena jedna architekture i jej ...........refresh pfffffffffff)

4. Chipsety AMD oferuja znacznie wiecej, gdyby nie AMD to RAID bylby dalej tylko na plytach intela od 400zl wzwyz.

 

Sa dwa parametry ktore sie licza.

 

PRICE / PERFORMANCE

i

PERFORMANCE / WAT

 

AMD dogoniło Intela przez to że Intel nie był zagrożony, do tego problemy z 10nm i gdyby nie te problemy, Sunny Cove już dawno był by w sprzedaży a teraz była by przymiarka do Willow Cove, który ma przynieść kolejny etap przeprojektowania podsystemu pamięci cache.

Potem już Golden Cove z kolejnym wzrostem IPC względem Sunny Cove.

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ktoś tu wieszczył, że nie będzie wsparcia dla płyt z b350, już jest:

post-591817-15537693371995_thumb.jpg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@AMDK11

 

Nie wiem czy zwróciłeś uwagę, ale temat jest poświęcony Ryzenom z seriii 3xxx, a nie Sunny Cove czy jakimkolwiek innym układom, które Intel wyda lub planuje wydać.

Więc jeżeli chcesz o nich pisać, to z łaski swojej przenieść się do działu Intela, gdyż Twoje zachowanie trudno jest zinterpretować inaczej niż jako trolling.

 

Btw, już nie mówiąc o trollowatym nicku w przypadku ewidentnego wielbiciela Intela.

Edytowane przez rainy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sprostuję tylko to że według Wikichip Sunny Cove(IceLake) miał zastąpić Palm Cove(Cannonlake czyli Skylake z poprawkami w 10nm który miał być w 2016r) pod koniec 2017 roku czyli mikroarchitektóra Sunny Cove jest gotowa od kilku lat.

 

 

@rainy

Niech Ci będzie że jestem trolem do kwadratu :)

Co do tego że mój nick jest trolowaty to nie zgodzę się ponieważ zakładałem konto za czasów gdy czekałem na następcę K10(Phenom) i nie zmienię tylko dla tego że komuś to nie pasuje.

Tak w gwoli ścisłości nie utożsamiam się z żadną z korporacji. Za Intelem jestem od czasu wypuszczenia przez AMD Bulldozera (FX).

 

Fakt, temat za bardzo poszedł innym kierunku. Od teraz jeśli będę pisał to tylko o Zen2.

 

Cały czas poluję na zdjęcie struktury rdzeni(Zen2) układu Matisse. Ciekawe kiedy wycieknie do sieci.

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po Sandy bridge gdy zdobył olbrzymią przewagę i uiciekał nadal, nic mu nie przeszkadzało wtedy tym że AMD nie goni.

 

 

 

Problemy z 10nm nie maja zupełnie nic do rzeczy, bo IPC można zwiększać tak samo w 14nm jak i w 10nm.

 

p.s. z Tego co mi sie obiło o uszy to skutecznośc przewidywania w Intelach wynosiła coś w okolicach 99%, więc teoretyczni3 wydaje sie że dołożyć potoków i nawet jak skutecznośc spadnie do np. 75% i tak będzie sie do przodu, ale tak nie jest, wszystko się rozlatuje.

Sam proces technologiczny nie ma nic do IPC poza tym że Icelake(SunnyCove) był ściśle projektowany pod 10nm i problem z tym procesem spowodował poślizg.

Gdyby nie to Icelake na rdzeniach Sunny Cove był by pod koniec 2017 roku.

 

Skuteczność predykcji Intela wynosi 98-99% tyle że każdy ułamek % poprawy skuteczności tej logiki powoduje znaczny wzrost wydajności.

 

Co prawda to tylko spekulacje ale podobno dodanie potoków pobocznych może dać spory wzrost wydajności. Gdy przewidywanie okaże się błędne potok musi zostać wstrzymany i wyczyszczony wówczas potok poboczny może wykonywać inną część kodu podczas przeładowywania potoku.

Z tych spekulacji co do potoku pobocznego to może on dać na wstępie ok 30%. Na pewno trwają prace nad nowymi mechanizmami/algorytmami które w przyszłości podbiją IPC.

Bezczynność jednostek wykonawczych w trakcie oczekiwania na dane to większość czasu także jest co poprawiać m.in we front-endzie by zwiększyć czas ich użycia.

Sporym hamulcem są także przestarzałe tryby adresowania w x86-64 i gdyby ich się pozbyć też sporo by to dało.

Uważam że teraz nie ma co wyrokować ponieważ obecna sytuacja niczego nie przesądza i trzeba poczekać na Zen2, Sunny Cove, Zen5, Golden Cove i następne co przyniosą a oficjalnie te mikroarchitektury mają przynieść wzrost IPC.

 

Czas pokaże czy jesteśmy u granic IPC.

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli skutecznośc wzrośnie z 98 na 99% to wydajność wzrosnie o około 1%, czyli w zasadzie nic. Właśnie dlatego mówie o ścianie, skutecznosc przewidywania jest prawie doskonała i jej poprawa niewiele wnosi.

Można poprawiac szybkośc pamięci L1 czy tam jej wielkość tylko to tez da kosmetycznną poprawę.

Duży skok dałoby dołożenie kolejnego potoku tak by w kazdym cyklu zegara proc liczył jedną wiecej instrukcję, gdyby zachowac skutecznosc predykcji na obecnym poziomie to by dało ze 20% wzrostu IPC - czyli ogromnny skok, ale nikt nie umie opracowac skutecznej predykcji dla jednego potoku więcej, od wielu lat.

Dlatego Intel stoi przy "ścianie IPC", a AMD w szybkim tempem się do ściany zbliża.

Moim zdaniem jesteśmy już na to za głupi by tą ściane przekroczyć.

Pies nigdy nie zaprojektuje latarki bo jest psem i jego sufit mozliwosci jest za nisko.

Nasz "sufit" jest w okolicach obecnej "ściany IPC" :)

Wydaje mi sie ze dopiero jakieś algorytmy SI zaprojektują w przyszłosci jakas lepsza predykcję tak jak dziś odkrywają nowe posuniecia w szachach:

https://www.wykop.pl/wpis/33521131/niesamowita-partia-od-leela-chess-zero-przechodzi-/

czy ucza nas od nowa strategi gry w "Go".

1% poprawy predykcji rozgałęzień nie jest równe 1% wzrostu wydajności rdzenia :)

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Nareszcie

@AMDK11

 

Nie wiem czy zwróciłeś uwagę, ale temat jest poświęcony Ryzenom z seriii 3xxx, a nie Sunny Cove czy jakimkolwiek innym układom, które Intel wyda lub planuje wydać.

Więc jeżeli chcesz o nich pisać, to z łaski swojej przenieść się do działu Intela, gdyż Twoje zachowanie trudno jest zinterpretować inaczej niż jako trolling.

 

Btw, już nie mówiąc o trollowatym nicku w przypadku ewidentnego wielbiciela Intela.

Akurat Kolega AMDK11 nie trolluje, tylko stara sie prostowac bzdury wypisywane przez Walaza.

A nie widze nic zdroznego w poruwnywaniu tutaj obu architektur.

I zeby nie bylo, Asus wypuscil juz nowe biosy dla rog-ow x370 i b350. Czyli jest nadzieja na przyszlosc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Up

Przydały by się jakieś konkretne wyliczenia ile wydajność by wzrosła gdyby poprawić skuteczność predyktora do blisko 100%. Wychodzi więc na to by dodać kolejne potoki wykonawcze, czyli dekodery x86 trzeba konkretnie rozbudować predyktor a w tym bufory i cache m.in L0 by więcej przewidywać.

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przydałoby się info o Zen2 A nie teoretyczne projektowanie procow.

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe ile w Zen2 wzrośnie IPC poza AVX. Póki co cisza i brak zdjęcia struktury rdzeni, wszędzie tylko Zeppelin(Zen).

Edytowane przez AMDK11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość sir.walazz

Ceny Ryżów powoli spadają. Np. R3 1200 za 270 PLN jest a R7 1700 nawet i za 599 :o

 

Czyli idzie wiosna i GEN 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kusi żeby zmienić platformę już teraz a nie czekać zważywszy że wszystko tanieje z dnia na dzień. W tym momencie R5 2600 + porządna płyta + 16GB RAM to jest jakieś 1500 zł

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Wiem co czujesz 🙂.Ja przy nim prawie pada z kompa wyrwałem.A ile było Pi.....e nie gram to nie zliczysz 😄.Ale najważniejsze że się udało.I masz satysfakcję bo to jeden z najtrudniejszych soulsowych bossow https://ebd.cda.pl/620x368/15092229f8 Patrz to
    • Więc wytłumacz mi jakim cudem bez mierzenia wystarczy odpalić gówno kalibrator HDR WINDOWS i zobaczyć w jakim trybie pokazuje detal na 1000 nit, a w jakim na 570. Potem to samo zrobić w dowolnej grze z kalibracja HDR. I w każdym innym ustawieniu niż HDR + APL HIGH, ustawienie gry na 1080 nit prześwietla obraz. Więc w swoim ustawieniu masz niby 1000 nit z uciętymi w opór detalami. Faktycznie, genialna sprawa A jak ustawisz detale na 570 to on nie ma prawa zaświecić 1000 bo właśnie to ograniczyłeś w ustawieniach.  Ale żeby nie było, zjem i odpalę grę I będę srogo zdziwiony jak nie ujrze przepalonych jasności. 
    • Przy każdej zmianie traci się na tym, że kupuje się nową kartę, a sprzedaje używaną, dlatego częste zmiany są niekorzystne finansowo, chyba że się zmienia używaną na używaną.
    • Intel kompletnie tutaj nie ma sensu raz że to do gier, a dwa że jeszcze do 1440p. Powinieneś skupić się na wydajności GPU i bić po RTX 4070 Ti Super - tutaj możesz trzymać się RTX ale CPU spokojnie brałbym 7500F bo to będzie idealne najlepsze połączenie. Za 7100 zł masz właśnie taki zestaw https://proline.pl/koszyk/2878bd11 a celując w maksa to przy dopłacie za 7500 zł z 7900 XTX https://proline.pl/koszyk/316e8335 
    • 14700F nigdy bym nie brał bo to totalny crap. Dostaniesz zawyżone napięcie, to ten CPU będzie siorbał niesamowicie dużo papu i nic z tym nie zrobisz. Do tego kompletnie nic nie wiesz jakie podzespoły otrzymasz. Druga sprawa, połączenie i7 + RTX 4070S jest dalekie od opłacalnej wydajności w zestawie do gier. Za 9200 zł na gotowo masz https://proline.pl/koszyk/35ad9d7d z Ryzen 7 7700 i RTX 4080 Super albo możesz dać i https://proline.pl/koszyk/8f26d0eb 7800X3D + RX 7900 XTX Office w jakiej wersji? 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...