Skocz do zawartości

AMDK11

Forumowicze
  • Liczba zawartości

    531
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez AMDK11


  1. Skąd ta informacja? Według np. tabelek Agnera Foga podstawowe operacje na wektorach leciały z przepustowością 0,5 (dwie instrukcje na cykl).

     

    Pamiętam że z pdf h15 Bulldozer tak wynikało że 256bit był realizowany w dwóch cyklach. Co do Agnera Foga to on twierdzi że Zen przetwarza 5 instrukcji x86 na takt a Skylake 4 instrukcje x86 podczas gdy Skylake ma 5 dekoderów a Zen 4.

     

    Oficjalnie AMD i Intel twierdzą że 4 instrukcje x86 na takt.


  2. Architektura "sera szwajcarskiego" powstała w USA czy w Izraelu ?

     

    Każda mikroarchitektura ma algorytmy i mechanizmy w których z czasem można znaleźć furtkę z samej mechaniki działania. To tylko kwestia czasu jak ktoś w Zen znajdzie furtki również wynikające z mechaniki działania.


  3. Nie siedziałem z nimi, więc nie wiem, co oni już mają. :E Skoro mówią, że zaczęli pracę w 2015 roku, to raczej trudno by im było się wyrobić na 2017. W przeciekach z tego spotkania jest masa fajnych informacji. Intel Haifa ma np. mieć ból dupy o to, jak prace nad procesem 10 nm przeprowadził Intel Oregon, a że ci ostatni dali ciała, to ich praca nad nowymi archi została przez niebieskich zakończona na Haswellu/Broadwellu. I dlatego każda kolejna archi ma być już z Izraela. Mniejsza z tym, coś tam pewnie Intel musi mieć, ale nie sądzę, by mógł z tego nawet skorzystać. Bo obecnie wyglądają tak, jakby się obudzili z ręką w nocniku.

     

    Cykl projektowy to około 2 lata i jeśli zaczęli w 2015 to w 2017 był gotowy. Nie twierdze że gotowy projekt mikroarchitektury to gotowy procesor a właściwie od procesu technologicznego zależy możliwość realizacji takiego projektu.

     

     

    Jeśli wszystkie projekty mikroarhchitektur mają być popełniane w Intel Haifa to może oznaczać większe wzrosty IPC z generacji na generacje.

     

     

    tomcug

    Ja nie wiem czy cokolwiek w Module Bulldozer i pochodnych nie było mizerią :E Blok FPU to była porażka, 2x128bit realizowane było w więcej nawet niż dwa cykle zegarowe podczas gdy 2x256bit np. w Haswell w jednym cyklu :) Wiadomo że nowe instrukcje dadzą kopa FX względem K10 Phenom który tych instrukcji nie posiada.

     

    K10 na tle K8 też szału nie robił bo AMD zamiast zaprojektować FPU 128bit od podstaw co dało by większą wydajność to niestety poszli na łatwiznę i zdublowali większość logiki a w tym rejestrów 64bit z FPU K8 Athloon64 doklejając obok. Dopiero w Zen FPU jest mniej więcej jak być powinno.

     

     

    Natomiast Intel w rdzeniach osobnego bloku FPU nie ma a za to są ALU rozbudowane o logikę i rejestry FPU czyli takie jak to nazywam FPALU ;)


  4. Projektował - "Kaby lake" :P

    Gdyby miał wtedy Sunny Cove, wypuściłby go podtrzymując swoje tick-tock.

    Sunny Cove w 14nm w epoce maks 4/8 miał sens. Skoro skylake 8/16 daje sie schłodzić sunny cove 4/8 tez by sią dał.

    Dopiero dziś nie ma sensu bo mamy epokę 8/16 a za chwilę 12/24 i tu już sunny Cove 4/8 w 14nm sensu nie ma.

     

    Projekty w szufladzie to ma moze Nvidia bo oni od razu odpowiadaja na raedony 5700, Intel potrzebował prawie dwoch lat by zrobic cos tak prostego jak dołozenie 4 rdzeni i zrobienie 8/16 - nawet tego nie mieli w szufladzie!

     

    Kaby lake to rdzenie Skylake który pprojektowany był w okolicach 2011-2012 roku więc tylko dodali rdzenie.

    Projekt SunnyCove był gotowy i miał pojawić się w 2017 w 10nm.

    AMD ma od dłuższego czasu gotowy projekt Zen3 a teraz pracują nad Zen4 który jest na etape zaawansowanym i są przymiarki do Zen5, więc czemu nie zastosują Zen3 zamiast Zen2? Może AMD chce zarobić na Zen2? Korporacje są od dojenia kasy a nie robienia ludziom dobrze.

     

    Intel ma kilka zespołów projektowych i cały czas pracują nad nowymi rdzeniami a nie wiadomo czy 4 rdzenie SunnyCove mogły być w 14nm i nie wiadomo czy nie byłoby problemów. SunnyCove projektowany był pod 10nm i w tym procesie miał spełniać konkretne założenia.

     

    Dla kontrastu dodam że Haswell projektowany był w 2009-2010 r. pierwsza działająca próbka 2011 r. premiera 13 czerwca 2013 r.

     

     

    To niżej to info z wtorku - Intel zaprosił garstkę redaktorów do Izraela i tam mówili o Sunny Cove i 10 nm. Czyli wypadałoby raczej na rok 2015.

    No to niech prace nad Sunny Cove ruszyły w 2014 więc w 2016 projekt był ukończony i pierwotnie Icelake miał mieć premierę w 10nm pod koniec 2017 roku. Wiec WillowCove z jest już gotowy a i całkiem możliwe że GoldenCove również a teraz trwają prace nad następną mikroarchitektórą.

     

     

     

    Nawt jakby Intel mógł dać 4 rdzenie SunnyCove w 14nm to zajmowały by dużo większą powierzchnię niż pochodne Skylake w 14nm i było by mniej chipów z wafla. 10nm miało zapewnić dużo więcej chipów opartych na SunnyCove. Poza tym nie tylko o ilość układów z wafla chodzi, większy rdzeń projektuje się pod mniejszy proces technologiczny by skrócić krytyczną długość ścieżki w samym rdzeniu x86 a jak wiadomo rdzeń Sunny Cove zajmowałby dużo większą powierzchnię niż pochodne Skylake.


  5. To fakt,lecz trzeba się cofnąć do 2011 roku,do momentu premiery FX.FX to naprawdę była hybryda dzisiejszych Ryzenów kompletnie nieprzystosowana do ówczesnego rynku.Dlatego Intel ze swoimi Sandy Bridge i Ivy Bridge miażdżył FX do takiego stopnia,że nawet Vishera niewiele pomogła

    I te szuflady pełne pomysłów :E

     

     

    FX na mikroarchitekturze Bulldozer i pochodnych był kiepski w czasie premiery jak jest i teraz. pojedynczy moduł(1M/2T) w pojedynczym wątku ma IPC pomiędzy K8(Athlon64) a K10(Phenom) z tym że bliżej K8, natomiast dwa klastry CMT w module czyli dwa wątki miały tak niskie IPC że Haswell z wyłączonym SMT jechał go jak chciał a po włączeniu SMT to był pogrom. Natomiast w grach 4 moduły/8 wątkó Bulldozer/Piledriver są wolniejsze od Phenoma II X6 który z kolei jest porównywalny z i7 Nehalem 4C/8T.

     

     

    Co do szuflad Intela pełnych pomysłów to projekt rdzenia x86 SunnyCove jest z lat 2013-2014 a premierę maił mieć pod koniec 2017 roku. Myślisz że po 2014 Intel nie projektował kolejnych rdzeni? Osobiście uważam że Intel ma ukończone projekty WillowCove i GoldenCove a teraz jest w trakcie nowego projektu. To że Intel nie ma póki co procesu technologicznego w którym mógłby zrealizować projekty nowych rdzeni x86 nie znaczy że te projekty nie są gotowe i nie czekają na sensowny proces technologiczny.


  6. Dlatego porównywanie procków przy tych samych taktach nie ma sensu.

     

    Inna długość potoku to i inne maksymalne zegary.

    Długi potok miały już p4 i skończyło się to jak wszyscy wiemy.

     

     

    Co z tego że mój Haswell-e ma nawet w miarę ipc jak kawa bije go czasem o 1 ghz na budziku

    Ma sens porównywanie różnych architektur a w szczególności różnych implementacji x86 przy tych samych taktach ponieważ pokazuje to która mikroarchitektura jest bardziej zaawansowana. Im mikroarchitektura ma wyższe IPC tym rdzeń jest bardziej skomplikowany i wykonuje więcej instrukcji równolegle jak i przetwarza równolegle więcej danych.


  7. Uwzględniając przy tym fakt że FX'y długość potoku wykonawczego miały na poziomie autostrady międzystanowej to nie dziwne :E

    Bulldozer musiał mieć potok wydłużony ze względu na niską wydajność pojedynczego wątku a i w wielowątkowości nie błyszczał. Na pojedynczy wątek przypadały tylko 2 ALU a do tego koszmarnie niska przepustowość L1, L2 i L3 szczególnie w trybie zapisu. Dodatkowo FPU to kolejna słaba strona tej miktoarchitektóry gdzie 2x128bit było przetwarzane w nawet więcej niż dwóch cyklach zamiast w jednym. Ogólnie pojedynczy wątek ma IPC gdzieś pomiędzy K8 Athlon64 a K10 Phenom. Tak niską efektywność miktoarchitektóry nie można było nadrobić inaczej jak wysokimi taktami. To tylko główne bolączki FX.

     

    Możliwe że nie mieli wtedy zbytnio jak zaprojektować godnego następcy K10 więc łatwiej było od podstaw opracować Bulldozera z kiepską mikroarchitekurą niż przebudować i rozbudować K10 co mogło być trudniejsze. Pamiętam że ówcześnie AMD przechodziło kryzys jeśli chodzi o inżynierów i być może BD był tego skutkiem niejako projektowany naprędce by mieć co kolwiek.


  8. Ale co Ci to da? Ma sens przy porównywaniu postępu danej firmy/rozwoju architektury ale porównywać dwa zupełnie inne podejścia do budowy i to jeszcze produkowane w innych procesach? Co z tego że firma X będzie miała efektywniejszą skoro będzie miała sporo niższy zegar albo więcej prądu pobierać i w ostateczności jej produkty będą gorsze? To brzmi jak jakaś sekta zegara z czasów minionych.

    Ma sens ponieważ obie mikroarchitektóry przetwarzają te same rozkazy/instrukcje x86 tyle że za pomocą różnych algorytmów i rozwiązań sprzętowych. Może Ciebie nie interesuje porównanie IPC ale jesteśmy na forum technologicznym i dyskutujemy tutaj o szczegółach mikrosrchitektór więc czemu nie porównać wydajności obu implementacji x86 zegar w zegar jeśli są i tacy których to interesuje w tym także i mnie?

     

    Prędzej czy później takie testy również bedą.


  9. No zaprezentowany to co innego niż gotowy.

    Zen też był zaprezentowany dużo wcześniej niż był gotowy.

    Piszę to bo jestem pewien ze Intel ściga się z AMD jak moze i gdyby miał coś wcześniej natychmiast by to wdrożył.

    Widac to również po rozpaczliwych ruchach na rynku serwerowym i po chipach o TDP 400W

    Intel nie ma lepszego procesu niż 14nm wiec robi to co robi, do czasu i jestem pewny że ta sytuacja długo nie potrwa.

     

    Nie mów że do czasu wypuszczenia Zen(2017 r) Intel ścigał się z AMD :)

     

    Gdzie ja napisałem że próbka to już w 100% gotowy produkt? Napisałem tylko tyle że miktoarchitektóry procesorów Intel miał opracowane znacznie wcześniej(SunnyCove jako projekt Intel ma od dawna i tylko czeka na 10 nm) niż pojawiły się na rynku i to nawet w czasie gdy AMD jako konkurent nie istniał.

     

    Co prawda to trochę inna sytuacja ale podobnie było za czasów Pentiuma 4 i Athlona64. Intel wtedy zapowiedział Conroe(Core2) z IPC wyższym od Athlona64(K8) o 25% i nikt w to zbyt nie wierzył do czasu premiery w 2006 ;)


  10. Otóż to :) Intel miał konkretne założenia co do mikroarchitektury SunnyCove w 10nm i mieli nadzieję że problemy z tym procesem w końcu zostaną rozwiązane.

     

    Może właśnie za to bły prezes Intela Brian Krzanich został wywalony a wiedząc co go czeka odsprzedał swoje akcje ;)


  11. Tak właśnie myślę, dlatego TSMC przeskalowuje do 7nm zarówno chipy z telefonów jak i z procesorów, bez róznicy.

    Jeśli Intel skalował archi do 10nm to tym łatwiej mu zrobić to samo archi w większym procesie - to jest łatwiejsze zamiast trudniejsze :)

     

     

    Nie wnikajaąc we wcześniejsze, zarówno Intel jak i wikichips podaje 2019 i 2020 dla tych wymienionych.

    Skąd wziąłeś te daty w takim razie?

     

    Tyle że te przeskalowania dla TSMC jest w harmonogramie ponieważ produkuje układy dla wielu. Dla Intela 10nm dla IceLake było priorytetem i liczyli że w każdej chwili może być przełom. Jak już wspomniałem Skylake jest na tyle dobry że nie musieli przenosić SunnyCove do 14nm cały czas licząc na poprawę 10nm. Co do SunnyCove w 14nm jeszcze nic nie jest przesądzone z drugiej strony Intel pokazywał próbkę Icelake-SP na rdzeniach SunnyCove w 10nm.

     

    Obecny plan Intela:

    SunnyCove premiera 2019r

    WillowCove premiera 2020r

    GoldenCove premiera 2021r

     

     

    Wikichip:

    Sunny Cove został pierwotnie zaprezentowany przez Intel na dzień architektury w 2018 roku. Intel pierwotnie zamierzał, aby Sunny Cove zastąpił Palm Cove pod koniec 2017 roku, co miało być pierwszym rdzeniem opartym na 10 nm i właściwym następcą Skylake . Przedłużone opóźnienia i problemy z procesem 10 nm doprowadziły do ​​powstania wielu improwizowanych pochodnych Skylake, w tym Kaby Lake , Coffee Lake i Comet Lake . Ze względów praktycznych Palm Cove został pominięty, a Intel trafił bezpośrednio do Sunny Cove. Sunny Cove ma zadebiutować w połowie 2019 roku.

     

    EN

    Sunny Cove was originally unveiled by Intel at their 2018 architecture day. Intel originally intended for Sunny Cove to succeed Palm Cove in late 2017 which was it was intended to be the first 10 nm-based core and the proper successor to Skylake. Prolong delays and problems with their 10 nm process and resulted in a number of improvised derivatives of Skylake including Kaby Lake, Coffee Lake, and Comet Lake. For all practical purposes, Palm Cove has been skipped and Intel has gone directly to Sunny Cove. Sunny Cove is expected to debut in mid-2019.

     

    PalmCove to Skylake w 10nm i miał mieć pierwotnie premierę pod koniec 2016 r. w czasach gdy obowiązywał jeszcze Tick-Tock Intela.

     

     

    Edit:

     

    SunnyCove był projektowany przez ten sam izraelski zespół projektowy który popełnił Conroe(Core2) :)


  12. Ok, wiec problemem jest zrobić 8 rdzeni Sunny Cove w 14nm, ale spokojnie mogli robić 4 rdzenie w 14nm (mogliby gdyby mieli gotowy projekt), ale tego nie zrobili a w zamian zaczęli doklejać rdzenie. Wniosek jest prosty, Sunny Cove jest gotowy dopiero od teraz zresztą tak podaje i Intel i źródła w necie.

     

    Obwody logiczne rdzenia SunnyCove były optymalizowane pod 10nm a Intel cały czas walczył z okiełznaniem tego procesu technologicznego w dodatku nie miał konkurencji a i7 na LGA11xx to były maksymalnie 4 rdzenie, ale AMD wydało dla ludu 8 rdzeni a teraz 12 rdzeni i tu jest prtoblem tym większy że z 10nm nadal jest słabo. Wcale bym się nie zdziwił gdyby Intel od samego początku planował na LGA11xx max 4 rdzenie SunnyCove. Inżynierowie przez ten czas prowadzili prace nad nowymi procesorami a z 10nm jak Intel sobie nie poradził tak dalej jest w powijakach.

     

     

    Myślisz że przeskalowanie mikroarchitektury która była optymalizowana pod konkretny proces technologiczny to takie pstryk? Intel cały czas miał nadzieję na to że nastąpi przełom w 10nm a przeprojektowanie do obecnego procesu pociągło by wiele zmian. Zresztą póki co Skylake wystarcza. W kolejnych mikroarchitekturach CPU będzie brane pod uwagę skalowanie do różnych procesów.

     

    Edit:

    IceLake na rdzeniach SunnyCove pierwotnie planowany był na końcówkę 2017 roku.

     

    Conroe(Core 2) projektowany 2003-2004 r. premiera 26 lipca 2006 r.

    Nehalem(pierwszy Core i) projektowany 2005-2006 r. premiera sierpień 2008 r.

    Sandy Bridge projektowany 2007-2008 r. premiera 13 września 2010 r.

    Haswell projektowany 2009-2010 r. pierwsza działająca próbka 2011 r. premiera 13 czerwca 2013 r.

    Skylake projektowany 2011-2012 r. premiera 5 sierpnia 2015 r.

    SunnyCove projektowany 2013-1014 r. pierwotnie planowana premiera na koniec 2017 r. obecnie planowany na 2019 r.

    WillowCove(SunnyCove z zmodyfikowanym cachem) planowany na 2020 r.

    GoldenCove projektowany 2015-2016 r. planowana premiera na 2021 r.

    OceanCove(raczej GoldenCove w niższym procesie + usprawnienia) planowany na 2022 r.

    Next Generation Core projektowany 2017-1018 r.

    obecnie następca NGC jest projektowany 2019-2020 r.


  13. Odpowiedź jest bardzo prosta, im większy wzrost IPC tym większy rozrost rdzenia pod względem ilości tranzystorów a za tym skomplikowania obwodów logicznych. Mikro-architektury projektuje się pod konkretny proces technologiczny by zrekompensować dodanie tranzystorów, przynajmniej do tej pory tak było bo jakiś czas temu Intel oświadczył że nowe mikro-architektury będzie skalował do różnych procesów na wypadek gdyby problemy znów się powtórzyły tak jak z 10nm. Rdzeń SunnyCove składa się z dużo większej ilości tranzystorów niż rdzeń Skylake.

     

     

    Popatrz, Haswell był projektowany w latach 2009-2010. Pierwsza działająca próbka została pokazana na Intel Developer Forum w 2011 roku a premiera 4 czerwca 2013 roku :)

    Conroe(Core2) projektowany w latach 2003-2004, premiera 27 lipca 2006.

     

     

    Edit:

     

    Myślisz że przez te kilka lat inżynierowie w Intelu nic nie robili i tylko czekali w stagnacji jak będzie 10nm mając na uwadze że Intel ma co najmniej dwa zespoły projektowe które równolegle cały czas prowadzą prace na nowymi mikro-architekturami? :D


  14. Moje przypuszczenia odnośnie opracowywania mikroarchitektur przez Intela w dwu letnim cyklu projektowym:

    Conroe(Core 2) projektowany 2003-2004 r. premiera 26 lipca 2006 r.

    Nehalem(pierwszy Core i) projektowany 2005-2006 r. premiera sierpień 2008 r.

    Sandy Bridge projektowany 2007-2008 r. premiera 13 września 2010 r.

    Haswell projektowany 2009-2010 r. pierwsza działająca próbka 2011 r. premiera 13 czerwca 2013 r.

    Skylake projektowany 2011-2012 r. premiera 5 sierpnia 2015 r.

    SunnyCove projektowany 2013-1014 r. pierwotnie planowana premiera na koniec 2017 r.

    GoldenCove projektowany 2015-2016 r.

     

    Celowo pominąłem WillowCove ponieważ według Intela jest to rozwinięcie SunnyCove z zmodyfikowanym podsystemem cacheu, dopiero GoldenCove wprowadza wzrost IPC i wydajność pojedynczego wątku tak jak SunnyCove.

     

    Wychodziło by na to że SunnyCove jest gotowy od dawna. Mało tego, WillowCove i GoldenCove także są gotowe a od 2017 roku, kiedy to Intel ogłosił nabór inżynierów wygląda na to że do projektu który zastąpi GoldenCove. Większość myślała że tym nowym projektem będzie SunnyCove podczas gdy prawdopodobnie będzie to OceanCove. Pytanie tylko na jakim jest etapie projektowania.

    Taka ciekawostka z mojej strony odnośnie pełnych szuflad gotowych rozwiązań lub ich braku :)

     

    Edit:

    Pytano głównego inżyniera Intela o to czy to już koniec wzrostów IPC, odpowiedzią na to było że wzrost IPC w SunnyCove to dopiero początek :)


  15. Intel oficjalnie deklaruje że rdzeń Sunny Cove ma średnio 18% wyższe IPC od Skylake.

     

    Nowe szczegóły:

    Rdzeń Sunny Cove

    Cache L1 Data: 48KB 12-Way

    Cache L2: 512KB 8-Way

    uop cache: 2.25K uops

    OoO Window: 352

    L2 TLB: 2048(4K)

    In-Flight Loads: 128

    In-Flight Stores: 72

     

    Rdzeń Skylake

    Cache L1 Data: 32KB 8-Way

    Cache L2: 256KB 4-Way

    uop cache: 1.5K uops

    OoO Window: 225

    L2 TLB: 1536

    In-Flight Loads: 72

    In-Flight Stores: 56

     

    Rdzeń Haswell

    Cache L1 Data: 32KB 8-Way

    Cache L2: 256KB 8-Way

    uop cache: 1.5K uops

    OoO Window: 182

    L2 TLB: 1024

    In-Flight Loads: 72

    In-Flight Stores: 42

     

    Rdzeń Zen/Zen+

    Cache L1:Data: 32KB 8-Way

    Cache L2: 512KB 8-Way

    uop cache: 2K uops

    OoO Window: 192

    L2 TLB: 1536

    In-Flight Loads: 72

    In-Flight Stores: 44


  16. Płytę pod i7 5820k kupowałem za ok 800zł (fakt podstawowy model Msi x58 sli plus).

    Miałeś zapewne na myśli X99, ponieważ X58 był pod LGA1366 a i7 5820K jest na LGA2011-r3.


  17. https://cdn.wccftech.com/wp-content/uploads/2019/05/AMD-Ryzen-9-16-core-4.2-GHz-740x416.jpg

     

    Nie kojarzę innego proca z 16MB L3. Dziwne jakby akurat L1i odczytał błędnie. Poza tym jeśli CPU-Z odczytuje pojemność cache testując opóźnienia to właściwie nie ma możliwości, żeby odczytał źle.

    Też mnie to zdziwiło że według zrzutu z CPU-Z rdzeń Zen2 ma L1-I 32KB 8-Way(Zen/Zen+ 64KB 4-Way) co tym bardziej upodabniało by rdzeń AMD do rdzeni Intela a tym samym większe zmiany w mikroarchitekturze niż myślałem.

     

    Potwierdzeniem na przeprojektowany cache L1-I byłoby zdjęcie struktury rdzeni Matisse(Zen2).


  18. Przecież te luki były od ok 10 lat a część nawet przeszło 20 lat i jakoś nikt tego nie odczuł. Jeśli ktoś myśli że takie korporacje jak Intel czy AMD są niezależne to czas się obudzić z bajek wpajanych nam od dziecka. USA(ktokolwiek za nimi nie stoi) trzyma łapę nad tymi strategicznymi z punktu USA korporacjami. Luki w mikro układach były są i będą zawsze i nie ważne czy to x86(Intel i AMD), ARM czy POWER(IBM). Ja już lata temu domyślałem się że tak jest ale oczywiście ludziom jak nie powiedzą w TV to niemożliwe jest by tak było i są to tylko "teorie spiskowe". W końcu media o tym trąbią to teraz ludzie wielce zdziwieni :D

     

    Założę się że gdyby nagle media zaczęły twierdzić że jednak żadnych luk ne ma i nigdy nie było to 99% ludzi odetchnęła by z ulgą bo przecież tak w "TV" mówili :E

     

     

    Śmiać mi się chce z tych wojen internetowych bo AMD bezpieczniejsze a to właśnie IBM, AMD, Intel jak i NVidia są z USA. Kraju który pcha się gdzie tylko może, nawet wywołując konflikty jeśli ma w tym interes siejąc propagandę dobrego wuja sama.

     

     

    Przypomnę że projekty jak i produkcja układów są ściśle tajne i nikt nie wyda ich pełnych dokumentacji do wglądu dla publiki, poza okrojoną częścią dla programistów. W układach można implementować różne funkcje o których nie prędko się dowiemy lub nawet nigdy.

     

    Czemu AMD nie wykupiło NVidii? Odpowiedź jest bardzo prosta, ponieważ NVidia tak samo jak AMD należy do USA. ATI było Kanadyjskie i przez to że AMD je wykupiło, od tego momentu pod szyldem AMD należy do USA :) Także całe te konkurowanie między Intel-AMD i NVidia-AMD to pic na wodę.

    Wszystko po to by USA trzymało kontrolę nad CPU i GPU.

     

    Jak myślicie czemu te całe m.in Cyrixy, Nexgeny poszły się paść? Ponieważ by mieć gwarancję że wszystkie x86 będą miały pewne tajne super bonusy nie można było pozwolić na swobodę w implementacji x86 w dodatku bez szpiegowskich modółów w logice CPU więc trzeba było zniszczyć konkurencję a zostawić jednego konkurenta atrapę by nikt się nie czepiał tak jak to dzisiaj ładnie widać. Analogicznie jest tak samo z NVidia i AMD(część dawnego ATI).

     

    W sumie mamy CPU x86(Intel i AMD) z USA które jest na całym świecie w komputerach osobistych jak i serwerach. Układy GPU(NVidia, AMD i Intel) z USA również na całym świecie. Nawet procesory IBM POWER także jest z USA choć to nisza. Wszystko pozostałe jest niszą nisz. Oczywiście ARM jest z Anglii ale systemy instalacji podsłuchowej Echelon zostały założone we współpracy głównie przez USA i Anglie.

     

    CPU z USA to IBM, Intel, SUN(ORACLE) i AMD.

     

    Pamiętacie nieistniejącego już DEC(procesor Alpha64)? Również USA.

     

    To przez to Rosja i Chiny chcą tworzyć własne procesory, ale czy aby na pewno? Czy to że Chiny chcą produować własne CPU na bazie Zen od AMD nie jest wejściem z deszczu pod rynnę?

     

    Jeśli ktoś myśli że to tylko przypadki to niech dalej śni niedźwiedzim snem zimowym ;)


  19. To że nie wiemy jak zwiększać IPC nie znaczy że nie trwają prace przez zespoły inżynierów Intel/AMD nad nowymi technikami/algorytmami predyktorów które na to pozwolą a obecny bum na wielordzeniowe procesory w końcu przeminie ;) Według tego filmu pojedynczy wątek(IPC) dostanie potężnego kopa! A według mnie rdzeń będzie mógł dysponować dużą ilością jednostek wykonawczych jak i SMT na których przetwarzany będzie pojedynczy wątek dzięki przewidywaniu rozgałęzień i skoków opartemu na AI :)

     

     

    Pamiętam stary artykuł sprzed 2010 roku w którym autor poruszał różne problemy architektury CPU i że wielordzeniowość to rozwiązanie tymczasowe, przyszłością jest jeden potężny rdzeń zawierający potężną ilość różnych specjalizowanych jednostek wykonawczych. Taki rdzeń może wykonywać pojedynczy wątek na wszystkich jednostkach wykonawczych dzięki schedulerowi z predyktorem opartym na sztucznej inteligencji jak i wiele wątków SMT. Co najlepsze programy jednowątkowe wcale nie będą wymagały przepisania :)

     

     

    Artykuł prawdopodobnie znikł(został usunięty?) ponieważ już wielokrotnie go szukałem a tytuł "nowy król"? czy coś w ten deseń. Przynajmniej podobnie brzmiący a był w nim render takiego hipotetycznego rdzenia i grafiki rdzenia które sugerowały że lepiej jest dodawać potoki i jednostki wykonawcze w obrębie pojedynczego rdzenia niż kolejne rdzenie przez to że komunikacja w obrębie jednostek wykonawczych tego samego rdzenia jest nieporównywalnie szybsza niż po między osobnymi rdzeniami.

     

     

    Na przykład lepiej jest umieścić 8 dekoderów i 8ALU w jednym rdzeniu niż w dwóch osobnych z których każdy dysponuje 4 dekoderami i 4ALU. Idąc dalej lepiej jest umieścić 16 dekoderów i 16ALU w jednym rdzeniu niż w 4 osobnych rdzeniach(po 4 dekodery i 4ALU).


  20. Masz złe wspomnienia, czy po prostu Twój wewnętrzny fascynat jest zawiedziony, że nie wynaleziono jakiejś nowej super-hiper technologii? :E

    Żadne zawiedzenie ani fascynat, po prostu jest to dowód na to jak korporacje zachwalają coś w danym czasie kiedy innym razem marketingowo po czymś jechali :)

     

    W czym jest lepsze rozwiązanie z kontrolerem RAM w osobnym układzie I/O względem z tego znanego z Zen 1? ;)

    Przecież rdzenie x86 z jednego układu i tak komunikują się z kontrolerem RAM drugiego układu za pomocą IF :)


  21. HBM nie ma nic do tego ponieważ kontroler HBM znajduje się w GPU a chiplet I/O to defakto mostek północny tyle że pod IHSem CPU i pośredniczy między rdzeniami a pamięcią RAM.

     

    Żadne ułożenie ścieżek nie spowodują że opóźnienia do ram będą na tak niskim poziomie jak kontroler w tym samym układzie krzemowym co rdzenie x86.

×
×
  • Dodaj nową pozycję...