Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

RoXall

Hydra 100 - SLi & CF skalowanie ~100%.

Rekomendowane odpowiedzi

Z racji tego, że nie doszukałem się na Pclabie podobnego tematu, zakładam nowy o dziecku firmy Lucid, chipie, który może zrewolucjonizować świat grafiki komputerowej (i nie tylko).

Przedstawiam Wam technologię Hydra 100.

441ff30a9b0d8726.jpg

Lucid, to firma, która jakiś czas temu zapowiadała przygotowanie nowej technologii zapewniającej niemal stuprocentowe skalowanie się multi GPU. Pewnie nikt by o tym nie wspomniał, gdyby nie fakt, że Intel wyłożył 50 milionów dolarów na badania nad tą technologią dla Lucida. Na IDF firma ta zaprezentowała działający układ Hydra 100 (jeszcze w wersji Alpha), który zrobił na oglądających go duże wrażenie.

Obecne technologie SLI i CrossFire bazują na bardzo prostych algorytmach rozkładania pracy pomiędzy układy GPU. Tryb AFR czyli naprzemienne renderowanie klatek przez GPU0 i GPU1 teoretycznie powinien być wydajny, w praktyce okazuje się, że wiele silników graficznych jest bardzo opornych na tą metodę. Drugi tryb to SFR polegający na podzieleniu jednej klatki między dwa GPU. W praktyce SFR jest jednak sporo mniej wydajny niż AFR, choć zapewnia lepszą kompatybilność. Wszystkie inne stosowane w SLI/CF metody są różnymi wariantami tych dwóch podstawowych.

Jak działa SLI/CF każdy zapewne miał okazję się przekonać. Rezultaty są nieprzewidywalne i oferują skalowalność od 0% do 90% (najczęściej są to wartości poniżej 50%). Znane są też przypadki gdy tryb SLI/CF powoduje kłopoty i w efekcie wydajność jest niższa niż na jednej karcie.

 

I tutaj wchodzi Lucid z Hydrą 100, rozwiązaniem niemal doskonałym. Jest to układ, który w systemie widziany jest jako urządzenie PCI-e. Jego zadanie nie jest łatwe. Hydra 100 najpierw przechwytuje kod przeznaczony dla GPU, a na dziś potrafi obsłużyć API DirectX 9, 10, 10.1 oraz OpenGL. Następnie, przy użyciu skomplikowanych i opatentowanych przez Lucid algorytmów rozbija scenę tak, aby na każdym z dostępnych GPU nie było wąskich gardeł. Następnie odpowiednio zoptymalizowany kod przesyła do renderingu do API i GPU, a następnie odbiera wyniki z GPU i montuje całą klatkę. Przy okazji zbiera informacje o szybkości renderowania przez poszczególne GPU i wykorzystuje je do optymalizowania kolejnych klatek.

 

958af493b3653b52.jpg

 

Hydra 100 ma przełącznik na 48 linii PCI-E, z czego 16 wykorzystuje dla siebie, pozostałe może rozdysponować dla kart graficznych w trybie x16/x16 lub x8/x8/x8/x8. Układ pracuje z każdym GPU, warunkiem jest jednak to aby dane GPU używały tego samego sterownika. Co ciekawe, mogą to być kompletnie różne GPU tej samej firmy np. GeForce 9800GTX + GeForce 8600GT itd. Hydrze to nie przeszkadza, podzieli kod tak aby obciążyć w 100% obie karty.

Hydra 100 jest niewielkim chipem, który pobiera niecałe 5W i do pracy nie wymaga radiatora ! Lucid widzi zastosowanie Hydry 100 w dwóch przypadkach.

- na płycie głównej

- na kartach multi GPU np. Radeon HD 4870X2

Zamontowanie Hydry 100 na płycie głównej daje duże możliwości. To nie tylko ogromne zwiększenie wydajności wielu kart graficznych pracujących w multi GPU ale także możliwość pracy dowolnych kart na dowolnym chipsecie, na przykład SLI na chipsetach Intela i AMD !

Hydra to także duża ulga dla piszących sterowniki pod multi GPU. Nie potrzebne będą już specjalne profile i tu widać dlaczego Intel wyłożył na to pieniądze (Larabee będzie kartą multigpu o bardzo wielu rdzeniach).

 

Na IDF pokazywano Hydrę 100 w akcji z dwoma kartami GeForce GTX 260 w grach Unreal Tournament 3 i Crysis (40-60 FPS). Gry pracowały w 1920x1200, według relacji świadków chodziły bardzo płynnie i robiły spore wrażenie na oglądających. Nie było też żadnych efektów opóźnień pomiędzy ruchem myszką i klawiaturą, a renderowanym obrazem.

 

Finalna wersja Hydry 100 będzie gotowa w pierwszym kwartale 2009 roku. Podobno jeden z większych tajwańskich producentów płyt głównych już zainteresował się możliwością montowania tego układu na swoich płytach głównych.

 

893db08b398adff1.jpg

 

Na razie trudno ocenić jak dobra jest Hydra 100. Jeśli w finalnym produkcie potwierdzą się obecne zapowiedzi o doskonałym skalowaniu dowolnych multi GPU to czeka nas prawdziwa rewolucja.

 

f2f86990e3b243d5.jpg

 

 

Hydra w akcji!

Tutaj widzimy Hydrę w działaniu. Ukazany mamy podział pracy, który wyznacza Hydra, na dwie karty graficzne. Lewy monitor ukazuję pracę pierwszego GPU i analogicznie drugi monitor - drugiego GPU.(Czarne pola świadczą o tym, że nad danym obszarem obrazu pracuje sąsiedni GPU.

8d9ad41b54282456.jpg

 

11aba8e64b768476.jpg

 

 

Lucid twierdzi, że Hydra może rozwiązać wiele problemów nieodłącznie związanych z multi-GPU renderingiem. Przede wszystkim uzyskujemy lepsze skalowanie. Test widziała na żywo załoga z zagranicznego portalu. Na ich dwóch kartach GeForce 9800 GT. uruchomiony został Crysis w 1920x1200 w trybie DX9, ze wszystkimi szczegółami. Wyświetlany obraz zawierał się przez cały czas w przedziale 45-60 klatek na sekundę. To znacznie lepszy wynik niż przy skalowaniu SLI.

Hydra ma szansę w przyszłości sprawić, że zapomnimy o rozwiązaniach typu CrossFire czy SLI. Mowa tutaj o układzie, który znajdował się będzie pomiędzy kartami graficznymi a procesorem. Jego zadanie polegać ma na optymalizacji przesyłu danych we wszystkich kierunkach (CPU<->GPU i GPU<->GPU) celem maksymalizacji wydajności.

Innymi słowy: jeśli masz GeForce GTX 280 oraz GeForce 8800GT, Hydra może po prostu bardziej obciążyć GTX 280, jednocześnie obciążając i w 100% 8800GT, rozkładając obciążenie równomiernie co do możliwości układów z jakimi współpracuje. Jest to możliwe na wszystkich kartach zgodnych z DX10,1-DX10,1; DX10-DX10; DX9-DX9. Oczywiście, nie można używać jednocześnie kart od ATI i NVIDII, ponieważ system Windows nie może mieć zainstalowanych na raz zarówno sterowników od ATI i NVDII.

Tylko system stanowi więc barierę do połączenia dwóch układów od różnych producentów (ATI & NVDII)

 

Próbki Hydry już istnieją i planowo zobaczymy to rozwiązanie w produktach w pierwszej połowie roku 2009. Ten chip może być zamontowany na płytach głównych, kartach graficznych ale nie wykluczone też, że jako osobna karta pci-e (To by dało możliwość łączenia na obecnych płytach głównych za pośrednictwem hydry kart dostępnych w danej chwili). Hydra nie musi wiedzieć, jakie karty graficzne masz zainstalowane, więc powinna wspierać przyszły sprzęt. Taka technologia powinna jeszcze bardziej nakręcać sprzedaż kart graficznych, w końcu jeśli przy drugiej karcie wzrost jest bliski 100% to więcej ludzi się tym zainteresuje. Z drugiej strony nietrudno sobie wyobrazić, że NVIDII może się ten pomysł nie spodobać (konkurencja dla ich chipsetów z SLI) - jeśli będą chcieli to mogą wprowadzić do sterowników jakieś blokady w przypadku wykrycia Hydry.

Istnieje też obawa o dostępność chipu. Faktem jest, że intel wyłożył 50 milionów dolarów dla Lucid na to przedsięwzięcie. Larrabee ma być układem multi-GPU i hydra znajduje w nim jak najbardziej swoje miejsce. Nie dobra sytuacja nastałaby gdyby to intel wykupił prawo patentu na ów produkt i montując go na płytach z własnym chipem zablokował możliwość współpracy z kartami od ati czy nvdii.

 

 

Podsumowanie:

Póki co zapowiada się rewelacyjnie. Kiedy Hydra wejdzie w standard zostaniemy uwolnieni raz na zawsze od rozwiązań platform SLI/CF. Wszystko ruszy na jednej i tej samej płycie z Hydrą. Tym samym skończą się problemy ze sterownikami multigpu. Pojawi się ogromna ilość możliwych kombinacji kart graficznych i co najważniejsze, we wszystko płynnie zagramy w takiej rozdzielczości z max jakością w jakiej będziemy chcieli (lub na jaką będzie nas stać). Pozostaje tylko obawa jak na to zareagują programiści (po co optymalizować kod, skoro użytkownik może kupić drugą kartę graficzna i mocniejszy zasilacz).

Pierwszy ustawiam się w kolejce po płytę z hydrą (oczywiście w celu przetestowania ;D)

 

 

Na koniec pozwoliłem sobie przytoczyć co ciekawsze wypowiedzi niektórych internautów:

Pet_BB:

"Tylko dlaczego dopiero dzisiaj ktoś się za to wziął ? Zapytajcie dowolnego programisty grafiki, a powie wam, że już wiele lat temu to było najlepsze rozwiązanie i wszyscy zastanawiali się dlaczego ATI i Nvidia zrobiły to inaczej - gorzej. Prawdopodobnie chodziło tu o zysk. Za duży skok technologii. Ludzie mogliby połączyć kartę starą z nową i zamiast kupić 2, 3, 4 nowe - a to strata. Pewnie planowali po paru latach wprowadzić dopiero to jako nowość i wymusić znowu wymianę płyt i kart. I chyba się uda. Teraz Lucid. Tylko ci mają mało czasu bo z tego co się mówi to przecież za chwilę taka sama obsługa wielu GPU będzie dostępna w DirectX11.

Aha. Nvidia i AMD spokojnie mogą to wprowadzić w nowych sterownikach. Nie potrzeba żadnego dodatkowego chipa lub karty do tego. Lucid prawdopodobnie tak kombinuje bo chcą zarobić kasę na tych chipach. Nie zdziwiłbym się nawet gdyby w ten sposób już dzisiaj Geforce lub Redeony renderowały obraz w niektórych tytułach."

 

 

 

NetCop:

"DX11 wprowadzi obsługę multigpu ale dla kodu napisanego tylko pod DX11 i nikt dziś nie wie jak to będzie działać. Gry natywne pod DX11 nie zobaczymy przez conajmniej 3 lata jak nie dłużej (do dziś nie ma żadnej gry napisanej pod DX10). Hydra ma podobno zadziałać z każdym API (DX9 już jest gotowe, opracowują wsprarcie pod DX10 i 10.1, będzie pod DX11).

 

Trudno powiedzieć co się stanie, gdy Hydra wyjdzie na rynek i zadziała jak obiecują. Może faktycznie zwiększy się sprzedaż grafik, a może rynek high-end padnie na ryj z racji tego, że lepsze wyniki uzyska się kupując dwie karty tańsze niż jedną droższą.

Chipsety SLI umarły, nie mają licencji na QPI. Teoretycznie, blokując tak świetnie działającą hydrę kierują klientów w stronę Radeonów. Według mnie takie posunięcie przyniosłoby tylko straty."

 

 

 

Dinaeel:

"Cały czas zapominacie o trzecim graczu na rynku GPU, wspomnianym zresztą w newsie. Co tam ATI i NV - Intel i jego wielordzeniowy GPU dostanie największego kopa przy wykorzystaniu tej technologii. Lepsze skalowanie w obliczaniu = większa ogólna wydajność całego multiGPU. Intel i jego Larabee + Hydra może być wyznacznikiem dla inżynierów konkurencji. Dotychczasowe rozwiązania okażą się ślepą uliczką z której trzeba będzie zawrócić jak najszybciej. A to przy całym procesie produkcyjnym układów graficznych może mocno zachwiać tym rynkiem. Już teraz konstrukcje są oparte na dużej ilości wyspecjalizowanych jednostek, pewne grupy procesorów również podążają tą ścieżką. I jak zwykle czas pokaże kto wybrał dobrze. Swoją drogą Intel by nie inwestował w coś w czym nie widzi własnej korzyści.

 

A co do zaimplementowania algorytmów Hydry w formie sterownika - to rozwiązanie mogło by się nie sprawdzić przez: A- prawa autorskie, B- zbyt wolne przeliczanie ich przez CPU ( co wyspecjalizowany układ to jednak wyspecjalizowany układ ;) ). Ewentualnie zostaje zrzucenie tych obliczeń na shadery za pomocą technologii typu CUDA."

 

 

 

NetCop:

"Ten chip może być naprawdę potrzebny jeśli pracjemy z kartami, które mają niewiedzieć o istnieniu takiego mechanizmu. Tak jak piszą to on pośredniczy w każdej operacji pomiędzy sterownikiem karty a kartą. Ale steruje wszystkim CPU komputera na takiej samej zasadzie jak napisałem wcześniej.

W przeciwnym razie musieliby napisać wrappera na DirectX i OpenGL a podmiana plików systemowych to raczej kiepskie rozwiązanie na dłuższą metę. Świetnym rozwiązaniem i nie gorszym jest implementacja w sterownikach ale przecież nie mają wglądu i możliwości zmiany sterowników Nvidii lub AMD.

DirectX11 to przyszłość ale zawsze najlepiej jest jeśli gra jest pisana pod multi-gpu. Jeśli coś takiego jest w DirectX11 to wtedy dopiero każda gra będzie perfekcyjnie działać. Bo nawet ta Hydra będzie mieć problemy z niektórymi aplikacjami. Będą to podobnie napisane aplikacje, które sprawiają problemy Crossfire i SLI.

 

Larabee będzie musiał używać podobnie prostej techniki bo inaczej na ruch myszki w grze miałbyś odpowiedź po sekundzie ;)

Co do praw autorskich i patentów to nie przesadzałbym bo to zbyt banalne i dawno znane rozwiązanie. Natomiast być może będą chcieli opatentować samą metodę łączenia różnych kart za pomocą oddzielnego chipu. I może inne rzeczy o których na razie nic nie wiadomo. Za $50mln to mogą sobie mnóstwo bzdetów opatentować. W skorumpowanym systemie patentowym wszystko jest możliwe.

Jakie konkretnie obliczenia chciałbyś przenieść na Cuda bo nie wyobrażam sobie co tu jest takiego wielkiego do liczenia?"

 

 

 

Dinaeel:

"Przynajmniej 3 lata na gry i czyste DX11 w nich. To dość długofalowa strategia by musiała być ;) W tym czasie kolejne wersje DX zdążą wyskoczyć z Puszki Pandory M$. Nowe API u producentów gier nie przyjmuje się tak dobrze jak by tego chcieli M$ i producenci kart. A ile to można oglądać dema techniczne.

 

Co do logarytmów / sterowników / CUDA

Coś chyba stoi na przeszkodzie skoro od czasów VooDoo i łączenia ich w celu zwiększenia wydajności producenci nie wprowadzili równie wydajnego rozwiązania. Może to tylko lenistwo, może to chęć zysku, może nieudolność programistów. Jednak nie wprowadzili. A z tą sekundą bym nie przesadzał. Natomiast setnej sekundy też nie zauważysz.

 

Co do samego CUDA to lepiej poświęcić czas 1 czy 2 shaderów niż CPU które najczęściej stanowią wąskie gardło, również z braku odpowiednich optymalizacji. Może porównanie nie będzie adekwatne jednak kiedyś wyciskano z CPU ostatnie soki przy pomocy odpowiednio napisanego programu, obecnie wyciska się co się da z programu (gra, narzędzia) za pomocą kolejnych MHz"

 

 

 

Pet_BB:

"Ale przecież np. w symulatorach lotu, które mają po kilkadziesiąt GPU właśnie tą techniką się generuje obraz. Po prostu nie ma innego wyjścia. Najprostsza metoda jest najlepsza. To samo inne przemysłowe rozwiązanie i automaty do gier z wieloma GPU a nawet niektóre platformy wizualizacyjne składające się z wielu pecetów połączonych w sieć. Zresztą nie chcę się kłócić. Jestem przeciwnikiem wszelkich patentów i już nie mogę czytać jak ktoś opatentował 2 sklejone paluszki(do jedzenia) albo tak jak tutaj wysłanie "narysuj grupę trójkątów" na zmianę do każdego GPU. A Nvidia i AMD na pewno mają takie rozwiązanie gotowe od dawna. Czemu nie wdrożyli to nie wiadomo. Może i jest jakiś problem z którego sobie nie zdaję spawy.

 

Napisałem o sekundzie opóźnienia dlatego, że jeśli jest np. 48 rdzeni gpu i obraz generuje się 48fps metodą AFR to wychodzi dokładnie 1 sekunda czasu reakcji na ruch myszą."

 

 

Łukasz G <RoXall>, Sobota, 30 sierpnia 2008, 18:00

Zródła:

http://www.in4.pl

http://www.extremetech.com

http://www.tomshardware.co.uk

http://www.anandtech.com

http://www.news.cnet.com

 

c.d. nastąpi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
I tutaj wchodzi Lucid z Hydrą 100, rozwiązaniem niemal doskonałym.

osobiscie blado to widze. dodatkowy sprzet, stery, oprogramowanie. to nie bedzie dzialac o wiele lepiej od obecnncyh rozwiazan.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Oczywiście, nie można używać jednocześnie kart od ATI i NVIDII, ponieważ system Windows nie może mieć zainstalowanych na raz zarówno sterowników od ATI i NVDII.

Tylko system stanowi więc barierę do połączenia dwóch układów od różnych producentów (ATI & NVDII)

 

A "CrosSli", które 'wynalazł' assassin? Jakoś mu udało się odpalić system ze sterami do ATI i NVIDII :), czyli może z hydrą jednak możnaby renderować obraz przy pomocy dwóch różnych kart ;).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
A "CrosSli", które 'wynalazł' assassin? Jakoś mu udało się odpalić system ze sterami do ATI i NVIDII :), czyli może z hydrą jednak możnaby renderować obraz przy pomocy dwóch różnych kart ;).

To dwa odrębne tematy są.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
A "CrosSli", które 'wynalazł' assassin? Jakoś mu udało się odpalić system ze sterami do ATI i NVIDII :), czyli może z hydrą jednak możnaby renderować obraz przy pomocy dwóch różnych kart ;).

Tu chodzilo chyba o viste.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
A "CrosSli", które 'wynalazł' assassin? Jakoś mu udało się odpalić system ze sterami do ATI i NVIDII :), czyli może z hydrą jednak możnaby renderować obraz przy pomocy dwóch różnych kart ;).

mylisz pojecia. gdzie w wspomnianym rozwiazaniu masz wspolprace dwoch GPU na poziomie 3D? na jednym masz "zlecone" przez API render, a na drugim, przes physx obliczenia fizyki. dokladnie tak samo jak polaczenie karty dzwiekowej i karty graficznej. problem o ktorym mowa, to to, ze obecne API nie jest w stanie "obsluzyc" na poziomie 3D dwoch roznych sterownikow.

 

dlatego tez uwazam, ze hydra nie ma szans na przebice. jezeli cos nie zostanie "zaszyte" w systemie operacyjnym, to zawszse beda z tym problemy. dx11 dopiero bedzie takim rozwiazaniem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale nie było w przypadku assasina tak, że miał sterowniki od ati i od nv (musial miec je zeby miec physx) i moze jakimis kombinacjami daloby sie ;). Może wyjdą jakieś nieoficjalne stery pod tę hydrę aby móc coś takiego wspierać, grunt ktoś kto troche pogrzebie w sterach i sie na tym lepiej zna ;).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Ale nie było w przypadku assasina tak, że miał sterowniki od ati i od nv (musial miec je zeby miec physx) i moze jakimis kombinacjami daloby sie ;).

ale nie ma i nie bylo nigdy problemu, aby zainstalowac rozne stery w systemie. problem jest, aby oba sterowniki dzialy na poziomie hardware 3D. gra odwoluje sie do warstwy API (directX, ogl), API odwoluje sie do sprzetu przez jego sterownik. na dzien dzisiejszy nie ma mozliwosci, aby bylo to robione na poziomie odwolan, do dwoch roznych sterownikow, z poziomu API. wlasnie dx11 ma zdaje sie to wprowadzic. hydra zas ma siedziec pomiedzy sterownikiem, a karta graficzna i rozkladac obciazenie. problem w tym, ze najpierw trzeba ja tego nauczyc, a jak widac na przykladzie SLI/CF nie jest to proste

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja stawiam ze będzie niezły czysty marketing. Bo jakoś nie wierzę w full wydajności między dwowami grafike.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na papierze wyglada to wspaniale , cudnie , swietnie , przelomowo ale tak samo bylo z Phenomem. Pozyjemy , zobaczymy.

 

Tego "arta" dobrze sie czyta , dobra robota.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Świetny artykuł! :thumbup: Technologia wydaje się przełomowa na papierze, zobaczymy jak w praktyce. Mam nadzieje, że to wypali :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Brzmi sensacyjnie, jeśli choć w połowie okaże się to prawdą, to mamy małą rewolucję.

 

Rozwiazanie rzeczywiście wygląda ciekawie. Na screenach widac bardzo dobrze rozłozoną współpracę GPU - obraz podzielony jest inteligentnie, pamięć każdej z kart jest w pełni wykorzystywana.

 

Swoją droga to potężna broń w rekach Intela, nawet abstrahując od Larrabee. Intel nie potrzebowałby licencji na SLI czy CrossFire, wystarczyłoby zintegrować ten układ w chipsecie (lub zamontować na płycie) i multi-GPU GeForce'ów/Radeonów działałoby nawet lepiej od firmowych rozwiazań.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

łoooo ale im zeszlo, chyba jakos ze 5-6 lat temu juz o tym chodziły słuchy :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
łoooo ale im zeszlo, chyba jakos ze 5-6 lat temu juz o tym chodziły słuchy :)

Chyba przy opracowaniach voodoo 3dfx. No cóż musieli nas stopniowo z kasy wydoić - samo życie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na papierze wygląda rewelacyjnie.

 

Ale swoją drogą to aż nie chce mi się wierzyć, że np taka Nvidia (która notabene jest wielkim graczem na rynku GPU) nie ma opracowanego czegoś podobnego... ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Układ rzeczywiście wielce obiecujący. Zaprawdę ciekaw jestem jak wyjdzie to w praktyce. no i pozostaje mieć nadzieje że intel nie zarezerwuje sobie tego dla siebie....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

plany wielkie i ambitne... szkoda, że skończy jak Ageia ze sprzętowym PhysX

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zalezy od zysku wydajności bo jeśli do 5% max wzrost wydajności to niestety to tak skończy podobnie jak ageia a jeśli zyskuje do 20-50% wzrost wydajnośc + pełna płynnośc animacji to będzie szum na rynku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Było by całkiem sympatycznie jakby pomysł się udał. Czym więcej możliwości do wyboru na rynku tym bardziej producenci będą starali się walczyć o konsumenta.

 

Sam pomysł wydaje się sensowny i dość ciekawy. Otwiera też nowe możliwości. Niektóry mówią że Ati czy NV może na tym dużo stracić a ja uważam że znacznie więcej na tym zyskają. Jeśli taki układ byłby odpowiednio wydajny to co za problem dla Ati czy Nv uprościć budowę obecnych GPU i łączyć poprzez układy typu hybryd.

 

Można by pokusić się o coś takiego jak wielordzeniowe GPU :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Było by całkiem sympatycznie jakby pomysł się udał. Czym więcej możliwości do wyboru na rynku tym bardziej producenci będą starali się walczyć o konsumenta.

 

Sam pomysł wydaje się sensowny i dość ciekawy. Otwiera też nowe możliwości. Niektóry mówią że Ati czy NV może na tym dużo stracić a ja uważam że znacznie więcej na tym zyskają. Jeśli taki układ byłby odpowiednio wydajny to co za problem dla Ati czy Nv uprościć budowę obecnych GPU i łączyć poprzez układy typu hybryd.

 

Można by pokusić się o coś takiego jak wielordzeniowe GPU :D

no właśnie intela tak chce zrobić przecież? ;>

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
no właśnie intela tak chce zrobić przecież? ;>

dokładnie przecież Larrabee ma być właśnie multi-gpu. Gdyby intel miał nic z tego nie mieć to nie inwestowałby w to pieniędzy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...