Skocz do zawartości

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

krzywymax

Intel Larrabee GPU

Rekomendowane odpowiedzi

Jako, że nie znalazłem w wyszukiwarce podobnego tematu, postanowiłem założyć temat o nowym dziecku Intela, który może porządnie wstrząsnąć światem grafiki komputerowej i położyć na łopatki takie firmy jak Nvidia, czy AMD-ATI.

 

Przedstawiam Wam technologię Intel Larrabee GPU.

 

 

 

Firma Intel już od jakiegoś czasu „przebąkiwała” o wejściu na rynek niezintegorowanych, wydajnych procesorów graficzny. Jakiś czas temu gigant procesorów wykupił firmę Havok, która jak wiadomo napisała świetne SDK, które odpowiada za interakcję różnych obiektów w czasie rzeczywistym. Silnik ten został użyty w ponad 150 produkcjach komputerowych. Większość z nich należy do gatunku gier typu FPS. Havok został również wykorzystany przy produkcji trylogii Matrix. Kilka dni temu korporacja kupiła kolejną firmę, która zajmuje się tworzeniem oprogramowania dla programów graficznych. Firmą tą jest Neoptica, która została założona przez byłych pracowników firmy Nvidia oraz Sony. Firma ta była bardzo zaangażowana w rozwój technologii GPGPU, oraz pisaniem oprogramowania do grafiki interaktywnej (np. gry).

 

 

Przed kontynuacją chciałbym wyjaśnić co to właściwie jest GPGPU.

 

GPGPU (General-purpose computing on graphics processing units) jest to technologia pozwalająca na użycie procesorów kart graficznych (GPU) do zadań, które były powierzone tradycyjnym procesorom (CPU). Jak wiadomo technologicznie np. G80 Nvidii jest o wiele bardziej zaawansowanym procesorem niż zwykły procesor np. Intela czy AMD. W technologii GPGPU u Nvidii programowalne jednostki pixel/vertex shader są odpowiednio zaprogramowane do wykonywania odpowiednich funkcji/rozkazów. Przykładem takiego GPGPU jest Nvidia Tesla, która składa się z maksimum czterech, lekko zmodernizowanych kart 8800GTX. Maksymalna wydajność takiej maszyny to 2 Teraflopy. Aby odpowiednio zaprogramować taką maszynę, Nvidia wypuściła specjalne oprogramowanie o nazwie CUDA.

 

 

Nvidia Tesla:

 

 

62556410f349bc08.jpg

 

 

0fcda5514e6ca1cd.jpg

 

 

 

Wracając do projektu Larrabee.

 

 

Larrabee różni się technologicznie i zasadą działania od obecnie nam znanych GPU firm Nvidii, czy ATI. Larrabee używa zmodyfikowanych, znanych nam instrukcji x86 z CPU dla swoich programowalnych shaderów, zamiast tradycyjnych używanych jednostek teksturujących w dzisiejszych jednostkach shader. Użycie takiego sposobu działana powoduje wzrost wydajności oraz sprawia, że takie jednostki są o wiele bardziej fleksybne w zaprogramowaniu przez odpowiednie API. Nowy układ Intela został również zaprojektowany do pracy jako GPGPU, w celu zwielokrotnienia swojej wydajności.

 

Charakterystyka produktu wygląda następująco:

 

- rozmiar rdzenia: 49,5mm x 49,5mm

- proces technologiczny: 45nm

- szybkość pracy rdzenia: 1.7-2.5GHz

- ilość rdzeni w chipie: 24

- pamięć video: GDDR5 512MB-2GB

- ilość jednostek shader: minimum 256 przy poborze mocy 225W (Tu prawdopodobnie ostatecznie będzie o wiele mniej - ok. 150W)

- całkowita wydajność GPU: 1,7 - 2,5 TFLOP'a

 

W 2010 roku procest technologiczny: 32nm i 48 rdzeni w chipie.

 

Dla porównania: G80 (czyli 8800GTX) osiąga wydajność około 520 GFLOP'a, czyli ponad 3 razy mniej niż Larrabee.

 

Architektura mikroprocesora Larrabee będzie się prawdopodobnie opierać na zmodyfikowanej architekturze Pentium MMX.

 

 

Pamięci GDDR5, które będą użyte w kartach Larrabee:

 

9568eceb0f8474b3.jpg

 

 

Larrabee GPU:

 

 

1444dcaa36db314a.gif

 

 

Tak zwany Texture Sampler będzie odpowiedzialny za budowanie sceny 3d. GPU będzie wyposażony w dwie takie jednostki, które będą ulokowane między rdzeniami a kontrolerem pamięci.

 

Tekstur Sampler działa w następujący sposób:

 

- ładuje tekstury z pamięci

- filtruje je w celu dodania np. wygładzania anizotropowego, czy antialiasingu

- ostatecznie nakłada cienie oraz inne efekty

 

 

 

Jednostki teksturujące pixel/vertex shader ulokowane są w każdym z rdzeni. Każdy rdzeń będzie miał 32KB cache L1 dla instrukcji i danych oraz 256KB L2 dla swoich potrzeb na zasadzie odczytu/zapisu dla siebie oraz tylko do odczytu dla innych rdzeni. Wszystkie komponenty GPU będą połączone ze sobą za pomocą 512bitowego pierścieniowego kontrolera pamięci.

 

Larrabee będzie posiadać również bardzo ważny zestaw nowych instukcji zwanych Advanced Vector Extensions, którę będą miał za zadanie przetwatrzać całe wektory danych, a nie tylko ich część.

 

Prawdopodobny Layout karty:

 

2a071d3f1cbfeef1.jpg

 

Jak widzimy interface połączeniowy to PCI Express 2.0 – i tylko na takich płytach Larrabee będzie działać. Karta będzie posiadać dwa złącza zasilające. Prawdopodobnie zintegrowany będzie również kodek audio, czyli karta będzie kompatybilna z technologią HD. Za wysyłanie obrazu odpowiadać będą dwa złącza DVI z HDCP i jedno złącze HDMI oraz moduł VIVO, mozliwe, że do czasu sprzedaży karty będą miały również złącze Display Port. Intel chce również wdrożyć do swojego produktu technologię Turbo Memory aby jeszcze zwiększyć wydajność. Karta prawdopodobnie będzie posiadać dwuslotowy system chłodzenia.

 

Na ostatnim IDF firma pokazała specjalnie przygotowaną wersję dema Quake 4 aby pokazać co potrafi ich nowy produkt. Właśnie wtedy Intel pokazał swoją technologię renderowania sceny 3d o nazwie real-time ray tracing. RTRT jest technologią oświetlenia 3d, w której każdy obiekt w scenie 3d oświetlany jest zarówno przez światło emitowane bezpośrednio ze źródła światła, jak i przez światło odbite od innych obiektów na scenie (w przeciwieństwie do oświetlenia lokalnego, gdzie obiekty oświetlane są wyłącznie bezpośrednio przez źródło światła). Stosowanie RTRT pozwala uzyskać niesamowity stopień realizmu sceny 3d, praktycznie bez utraty wydajności. NA tegorocznym IFD 2008 Intel pokazał odświeżone, i jeszcze bardziej atrakcyjne Tech Dema opisujące Larrabee (Particle Demo i Physics Demo).

 

Intel potwierdził, że architektura Larrabee będzie się opierać na linii PENTIUM 75 (rdzeń P54C) z 1994 roku. Każdy z 32 rdzeni będzie wykonany w 45 nm wymiarze technologicznym oraz będzie pracować z prędkością 2GHz. Wydajność układu będzie oscylowała w granicach 2 Teraflopów.

 

Zdjęcie wafla z prototypami układów Intel Larrabee GPU:

 

8a55e5c08c55e1b5.jpg

 

Quake 4:

 

3f561275cd3d88d5.jpg

 

Intel Real-Time Ray Tracing Demo Video:

 

http://pl.youtube.com/watch?v=blfxI1cVOzU

 

http://youtube.com/watch?v=hIdvJONFOVU&feature=related

 

Nehalem particle demo - IDF 2008:

 

http://pl.youtube.com/watch?v=LP5Pp-Z5gQg

 

Quake 4 raytraced - IDF 2008:

 

http://pl.youtube.com/watch?v=2qzpl3XE6zs&...feature=related

 

Intel zapowiedział, że pierwsze egzemplarze testowe kart graficznych ukażą się pod koniec 2008 roku.

Do produkcji ma wejść w 2009 roku - – jak będzie? – zobaczymy, ale trzymamy kciuki. ;)

 

W miarę ukazywania się nowych informacji o Larrabee, będę uzupełniał temat o nowości. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niedługo postawie sobie koło domu elektrownie jądrową :)

TA karta to może być niesamowity potwór

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko żeby nie spaprali tego jak i740. No i zapotrzebowanie na energię chorendalne może być.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

żeby nie było tak że kompa było trzeba podłączać pod siłę :E:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli te doniesienia (na razie Intel nie przedstawił oficjalnie projektu, ani niczego nie zapowiadał) się potwierdzą, to jak to jeden z serwisów określił - ATI/AMD i NVIDIA mogą mieć spore problemy. Z tego co czytałem na początku nie było pewne w jakim kierunku ten projekt ma podąrzyć: CPU czy GPU.

 

Na prawdę liczę, że na rynku GPU (czy jak to się bedzie wprzyszłości nazywało :E;) ) pojawi się kolejny gracz.

 

 

Pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Intel zapowiedział, że pierwsze egzemplarze kart graficznych ukażą się pod koniec 2008 roku – jak będzie? – zobaczymy, ale trzymamy kciuki. :D

 

W miarę ukazywania się nowych informacji o Larrabee, będę uzupełniał temat o nowości. ;)

Raczysz mi wspomniec skad to info, bo raczej o minimum rok pozniej bedzie realny masowe intro. Na koniec roku przyszlego na IDFie zaproponuja medialne demo, tak jak to bylo z Nehalemem w tym roku i tym calym RTRT odpalanym na CPU, a w 2010 rozejdzie sie po rynku. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Raczysz mi wspomniec skad to info, bo raczej o minimum rok pozniej bedzie realny masowe intro. Na koniec roku przyszlego na IDFie zaproponuja medialne demo, tak jak to bylo z Nehalemem w tym roku i tym calym RTRT odpalanym na CPU, a w 2010 rozejdzie sie po rynku. ;)

 

 

...The word is that Larrabee, Intel’s first discrete graphics processor, will show its face in late 2008 and not in the middle of 2008, as many have believed...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm... a to ciekawe bardzo :) :) :) zobaczymy co z tego wyniknie...

 

to ja się podniecam GF88 a tu Intel takiego potworka szykuje ??? No, no... mam nadzieję, że na prototypie się nie skończy ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapowiada sie goraco :D Ale nie zapominajmy, ze pod koniec 2008 roku bedziemy mieli juz duzo wydajniejsze karty =]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
...The word is that Larrabee, Intel’s first discrete graphics processor, will show its face in late 2008 and not in the middle of 2008, as many have believed...

Ok podales info zebrane z tego roku, glownie okolic lata, ale tez byly dane o projektowanym czasie np. w takich artykułach, sorka ze po eng.:

Justin Rattner, Intel's CTO, also noted that Larrabee will be their "first tera-scale processor" and that it is aimed at a 2010 release, or possibly 2009 if things go especially smoothly.

DALEJ

Odnosnie demo Q4, maly zonk:

Daniel’s Quake IV demonstration required no video card interaction from the GPU, and instead only used the video card to send the image to the monitor. This is because Daniel’s demo system had eight x86 cores, a configuration that is destined to become mainstream in a few years. And, because the ray-tracing algorithm scales so well with CPU cores, it doesn’t need the assistance of the GPU in order to get the same performance. - pic na wode fotomontaz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To wszystko to jak narazie spekulacje, ale pewne jest jedno, że Intel wkroczy na rynek wydajnych procesorów graficznych. A podąża bardzo dobrą drogą... ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nieoficjalne źródło, które powołuje się na Intel'a mówi, że Larrabe ma być 16 razy szybszy od obecnego najszybszego układu jakim jest 8800GTX/Ultra (G80).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Nieoficjalne źródło, które powołuje się na Intel'a mówi, że Larrabe ma być 16 razy szybszy od obecnego najszybszego układu jakim jest 8800GTX/Ultra (G80).

EEEEE.... SZKODA ZE DOPIERO ZA ROK BO wtedy juz raczej nei bede gral regularnie ;[

 

ciekawe jaka bedzie cena ;] ( jezeli wogole bedzie ;] )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

PCi-E 2.0 + 150W +75W = :E

 

już podziękowałem ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
PCi-E 2.0 + 150W +75W = :E

 

już podziękowałem ;)

 

Pamiętaj, że to wszystko jednak spekulacje, niektóre bardziej, niektóre mniej - z tym poborem mocy to pewnie będzie zupełnie inaczej - oczywiście na korzyść :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

16 x szybsza niz GTX!! to przygotujmy sie ze niedlugo bedziemy grac w Elder scrols lub kolejnego nfs`a w fotorealistycznej grafice;d

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość EvilKillaruna

Narazie jest to bardziej ciekawostka niż atak 'technologii zza rogu'. Przyklasnę jeśli się doczekam i będę mógł sobie ich kartę zaaplikować do obecnego kompa zamiast kupować nową blachę.

Intel kiedyś produkował karty graficzne za czasów Celka 300, skupił się potem na integralach do lapów, ale któż wie.. może doszli do wniosku że teraz czas przyatakować wyższy rynek? :E

 

Ciekawi mnie czy można będzie przekierować ich GPGPU do zadań czysto obliczeniowych koniecznych przy codziennej pracy.. powiedzmy przy skomplikowanych efektach 2D na dużych obiektach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

takie było założenie... oni dążą do unifikacji gpu z cpu więc to jest bardzo prawdopodobne

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Właśnie wtedy Intel pokazał swoją technologię renderowania sceny 3d o nazwie real-time ray tracing.

Taa, to dziwne, że mój wygaszacz też ma odbijanie innych obiektów sceny w realtime-ie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Taa, to dziwne, że mój wygaszacz też ma odbijanie innych obiektów sceny w realtime-ie

 

Wygaszacz... a skomplikowane sceny 3d pełne shaderów, cieni i tekstur w wysokiej rozdzielczości to zupełnie coś innego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Nieoficjalne źródło, które powołuje się na Intel'a mówi, że Larrabe ma być 16 razy szybszy od obecnego najszybszego układu jakim jest 8800GTX/Ultra (G80).
Az ciezko uwierzyc :o

Ciekawy jestem ile bedzie kosztowal?? :hmm:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Właśnie cena ma być "konkurencyjna" w stosunku do Nvidii i ATI (AMD).

Pamiętajmy, że Intel ma tą technologię - poprostu przebudowuje już produkty, które kiedyś były sprzedawane + doświadczenie = super produkt :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Wygaszacz... a skomplikowane sceny 3d pełne shaderów, cieni i tekstur w wysokiej rozdzielczości to zupełnie coś innego.

No wiesz.... Ten wygaszacz działa na 1280x1024, wiec wcale tak łatwo nie jest.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Właśnie cena ma być "konkurencyjna" w stosunku do Nvidii i ATI (AMD).

Pamiętajmy, że Intel ma tą technologię - poprostu przebudowuje już produkty, które kiedyś były sprzedawane + doświadczenie = super produkt :)

no to powodzenia im zycze. ale na koniec 2008 roku to imho mozesz oczekiwac jakis sensownych prezentacji w pp, a nie gotowca. 2010 i to bardzo optymistycznie.

swoja droga nie ma to jak "kasowac" konkurencje marketingowym belkotem, no ale w tym to faktycznie intel ma super doswiadczenie. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...