Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

Autohotkey

Rozwój GPU, stagnacja CPU

Rekomendowane odpowiedzi

Pamiętam czasy, gdy wydajność procesorów szybko rosła. Teraz w zasadzie mamy stagnację, bo kilka w porywach do kilkunastu procent wzrostu wydajności w ciągu roku, to w branży komputerowej jest stagnacja.

 

Proces technologiczny schodzi w dół o połowę co 2 lata. Jednak tylko nowe architektury GPU dają nadal przyrosty po kilkadziesiąt %, a w przypadku CPU jest bryndza. Wynika to z ograniczeń budowy x86-64?

 

Wydaje mi się, że nie można wszystkiego zrzucić na brak konkurencji, bo gdy wydajność szybko się podwajała, to ludzie zmieniali sprzęt o wiele częściej. Brak przyrostów jest niekorzystny nawet dla monopolisty.

 

A może w GPU ten sufit też jest tuż przed nami?

 

Pytanie adresuję do osób obeznanych z teorią, nie do zgadywaczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aby zrozumieć czemu tak jest, trzeba najpierw wiedzieć czemu kiedyś było inaczej.

 

Wydajność procesorów kiedyś rosła szybko, ponieważ szybko (i bez problemu) padały kolejne bariery taktowania (1GHz, 2GHz, 3GHz...).

ALE wszystko trafił szlak, kiedy doszliśmy pod granicę 4GHz. Na której to krzem, zaczyna robić problemy.

Intel twierdził, że jest to tylko drobny problem, jednak jak jest naprawdę widzimy dziś, kiedy to nadal nie mamy procesorów z zegarem standardowym wyższym od 4GHz (częstotliwość Turbo dla mnie nie jest zegarem domyślnym/standardowym).

 

Teraz : Aby umożliwić dalsze duże wzrosty wydajności, producenci procesorów, musieli ominąć problem  4GHz i wpadli na pomysł wielordzeniowców. W ich przypadku wydajność rośnie liniowo wraz ze wzrostem rdzeni, ale tylko wtedy, gdy dany program można łatwo zrównoleglić. Po za tym mamy problem z kodem x86, który skutecznie uniemożliwia rozwinięcie pełni możliwości takich procesorów z powodu zależności pomiędzy następującymi po sobie wątkami.

 

Czemu nie pójść w poprawienie architektury ?

Problem leży w modelu programowania x86 (x86-64), który jest nieefektywny w wykorzystaniu zasobów.

Conroe i jego następcy są mistrzami w tej kategorii i dlatego nie widzę, aby leżała tutaj możliwość dużego zwiększenia wydajności.

 

Przejdźmy teraz do GPU, gdzie takiego ograniczenia nie ma, ponieważ producent układu sam może dobrać najlepszy model programowania (np. CUDA nVidii).

Środowisko graficzne ma niesamowicie łatwe zadanie jak chodzi o pracę równoległą, ponieważ w każdej sekundzie trzeba obrobić naraz miliony pikseli/trójkątów, które wchodzą w skład sceny 3D. Dodatkowo z racji, że są one niezależne od siebie wykorzystanie dodatkowych "rdzeni" nie stanowi większego problemu z punktu widzenia programisty. 

Oczywiście nie ma róży bez kolców dlatego największą bolączką GPU jest ogarnięcie tych wszystkich rdzeni (AMD miało z tym problem w Radkach serii HD5xxx, gdzie wykorzystanie zasobów karty było dość niskie).

 

Nawiązując do pytań z pierwszego postu :

Tak, wynika to z ograniczeń modelu programowego, oraz lenistwa programistów, którzy nie lubią kompilować całego starego kodu tylko po to, aby móc skorzystać z dodatkowych instrukcji kilku nowych procesorów.

 

Ludzie zmieniają komputery kiedy ich stać, a nie kiedy Intel wypuści najnowszy sprzęt (na którego większość z nich na początku nie stać). Przykładem jest Conroe, kiedy wyszedł ja nie leciałem do sklepu, aby go od razu kupić. Zamiast tego wolałem dorwać za połowę jego ceny takiego Pentiuma D i cieszyć się z zaoszczędzonej na tym kasy.

 

A co do "sufitu GPU", to według mnie, jeszcze daleeeka droga przed nami.  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odpowiedź rzeczowa i wyczerpująca.

 

Czyli na razie skazani jesteśmy na stagnację. Wyjściem może być odejście od x86-64 i pisanie popularnych programów na GPU, ku czemu chyba zaczynamy zmierzać (akceleratory przeglądarek), albo nowy materiał, który pozwoli pojechać dalej niż 4 Ghz.

 

Od nowego materiału ucieczki raczej nie ma, bo i proces technologiczny nie da się miniaturyzować w krzemie poniżej kilku nm. Ciekawy jestem czy np. grafen będzie wymagał odejścia od x86-64, ale pewnie tak.

 

Swoją drogą mamy 64 bity. Kilka lat temu czytałem, że około 2012 roku powstanie kompilator, który pozwoli automatycznie przeoptymalizować kod 32 bitowy na 64 bitowy. Teraz temat zdechł. Ktokolwiek coś wie? To też by dało solidny przyrost mocy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Od nowego materiału ucieczki raczej nie ma, bo i proces technologiczny nie da się miniaturyzować w krzemie poniżej kilku nm. Ciekawy jestem czy np. grafen będzie wymagał odejścia od x86-64, ale pewnie tak.

 

A co ma materiał (grafen) do architektury? Grafen ma pozwolić na przełamanie bariery 4GHz a architektura może być skopiowana z istniejących rozwiązań - niczym przy zmniejszeniu procesu technologicznego w krzemie.

 

Zgadzam się, że z prędkością CPU w zasadzie stoimy w miejscu, rozwój jest raczej wszerz (multicore). Zresztą 4GHz nie jest barierą samą w sobie, raczej ilość ciepła do odprowadzenia jaka powstaje przy obecnych CPU przy próbie jej przekroczenia.

 

Próby optymalizacji architektury napotykają kaganiec x86. Przełomem wg mnie może być Windows 8, który ma wspierać nie tylko x86. Jeśli będzie pod niego dużo softu, który będzie łatwo przenośny pomiędzy architekturami, to za kolejne kilka lat może producenci procesorów odważą się porzucić wsteczną kompatybilność z x86.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pisanie na GPU ma sens TYLKO w przypadku czegoś co można łatwo i masywnie zrónwoleglić.

Do przeglądarek wystarczają układy ARM, dlatego pytam : po co nam przeglądarki potrzebujące mocy współczesnych GPU ?

 

Krzem (podobno) ma się skończyć w okolicy 8nm.

Grafen nie musi wymagać odejścia od x86-64, ponieważ dom (budynek) możesz zbudować zarówno z desek/cegieł jak i ze zbrojonego betonu i za każdym razem będzie spełniał swoją funkcję (dawania ci schronienia). Różnice będą widoczne w możliwościach ochrony i tyle.

 

Aby mieć znaczący wzrost wydajności trzeba pisać program z myślą o 64-bitach, od początku jego programowania.

Dopóki będą dostępne (i potrzebne) systemy operacyjne oparte na x86 (32-bitach), 100% przejście na 64-bity jest niemożliwe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pisałem spekulacyjnie i wyobraziłem sobie np. budowę silnika samochodu z innego materiału niż metal. Jeśli właściwą analogią jest dom, to rzeczywiście da się z drewna, z cegły, betonu, kamienia etc. zrobić go podobnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem przyszłością informatyki są układy FPGA.

W niektórych zastosowaniach (np. łamanie szyfrów, Bitcoin) są one co najmniej 10-krotnie sprawniejsze od GPU, czyli przy tej samej wydajności pobierają 10 razy mniej energii.

Program napisany np. w języku Verilog jest wykonywany bezpośrednio na matrycy programowalnych bramek logicznych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rozwoj CPU, GPU uzalezniony jest od zapotrzebowania. W tej chwili zapotrzebowanie na CPU idzie od strony urzadzen mobilnych, to przy GPU narazie odpadla ta kwestia po stworzeniu hybryd APU i SB, ale na kartach tez to sie obije juz lub w przyszlosci zapotrzebowanie spadnie, liczba gier z duzymi wymaganiami i nowinkami tez.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

fpga sa fajne,ale ktos widzial gotowy produkt do nabycia?

jakos srednio mi odpowida zamawianie online z awganistanu w pre-orderze 6 miesiecznym :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zastosowania dla większej mocy znajdą się zawsze. Oto przykładowe: http://skrybot.pl/produkty/rozpoznawanie-mowy-skrybot-domowy/

 

A propos: czy mógłby ktoś z naprawdę byczym sprzętem (i7 lub sandy bridge extreme) sprawdzić darmową wersję tego programu u siebie? Chodzi o to czy rozpoznawanie mowy na takim sprzęcie jest szybsze niż przeciętne tempo pisania przeciętnego użytkownika, czy też to jeszcze za mało?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problemem tego programu nie jest szybkość wpisywania słów, a trafność ich znaczenia.

 

Obecnie ten program nie potrafi rozpoznawać 99% normalnych słów (jak nie więcej).

U mnie rozpoznanie słowa/wyrażenia (sprawdzenie, które jest najbliższe i wyświetlenie go) trawa ok. 2 sek. Trafność, to całkowicie inna kwestia.

 

Program, nie spełnia twoich warunków, nie dlatego, że jest wolny (i potrzeba szybkiego kompa), a dlatego, że ma mały słownik znanych mu wyrazów (np. nie ogarnia nawet pojedynczych liter). Po za tym trzeba mieć czuło ustawiony mikrofon, bo czasami nie rejestruje, że coś powiedzieliśmy.

 

Krótko mówiąc : Jest pisany pod osoby niepełnosprawne i ma za zadanie pomagać w obsłudze kompa, a nie kopiować książki. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

autohotkey kiedy wydajność procesorów rosła szybko?jakoś nie przypominam sobie czasów by w ciągu 2 lat wyszedł dwa razy wydajniejszy procesor

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie,coś mocno wyolbrzymiacie sprawy,jak były procki jednordzeniowe nie było wielkich różnic,cały czas zwiększano taktowanie i na pewno kolejny procek nie był o 50 czy 100% wydajniejszy od poprzedniego,dopiero przejście na dwa rdzenie zmieniło sytuację

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a czy to źle że cały ten rozwój trochę zwolnił ? dla mnie czyli dla przeciętnego zjadacza chleba komputer służy do rozrywki: gry, internet, muzyka, filmy i jeżeli mój komputer kupiony za ciężko zarobione pieniądze nie starzeje się tak szybko to chyba dobrze co nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tu nie chodzi o to ze się szybko nie starzeje, bo po 3 latach i tak bedzie stary.

Chodzi o to ze po tych 3 latach nie ma takiego duzego skoku wydajnosci cpu jak by sie chcialo.

Gry czy rozgrywka, nie bylo by milej dostac lepsza fizyke, wiecej npc, czy nawet grafike - wydajnosc i jakosc musi isc do przodu a nie stac na poziomie konsol.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Poziom konsol dawno został już prześcignięty wink.gif

 

W wydajności tak ale w jakosci to juz nie do konca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W jakości również, wiele gier jak np mafia 2 w konsolach jest upscalowana do 1080p, na kompie tekstury w rzeczywistości mają sporo wyższą rozdzielczość.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

autohotkey kiedy wydajność procesorów rosła szybko?jakoś nie przypominam sobie czasów by w ciągu 2 lat wyszedł dwa razy wydajniejszy procesor

 

W latach '90 szczegolnie w drugiej ich polowie czestotliwosc taktowania podwajala sie co 2 lata, co wiecej wraz ze wzrostem taktowania rownolegle usprawniano architekture. Dlugo obowiazywalo prawo wg. ktorego moc obliczeniowia cpu podwajala sie co 18 miesiecy, prawo to zostalo definitywnie przelamane dopiero w czasach nortwooda pentium 4. Kiedy jednak zapowiadano premiere pierwszych 2 rdzeniowych procesorow na rynek konsumencki, AMD zapowiadalo ze za 3-4 lata bedziemy uzywac 8+(16?) rdzeniowych procesorow i tym samym wydajnosc przynajmniej teoretyczna miala nadal rosnac w tak samo szybkim tempie jak za czasow k6-2/k6-3/k7.Nie wiem czy pamietasz te czasy, ale ja doskonale pamietam czasy galopujacego postepu. Tezy o bardzo szybkim postepie na rynku GPU, ktory nie zwolnil rowniez nie potrafie obronic, w latach '90 kupowales topowa karte i ta karta po 3 latach nadawala sie wylacznie do wyswietlanai pulpitu. W przypadku procesorow bylo nieco inaczej niz teraz, bo kupowales absolutnie najtanszego pentium mmx/celerona albo k6-2, ktory byl w produkcji i mogles na nim uruchomic dowolna gre, ale procesor starzal sie w zastraszajacym tempie, ludzie kupowali drogie cpu myslac, ze na dluzej wystarczy. Na rynku gpu istnieje przepasc pomiedzy wyrobami do biora a wyrobami dla graczy od czasow 3dfx, natomiast roznica pomiedzy low-endowymi cpu, a hig-endem jeszcze nigdy nie byla tak ogromna jak obecnie, kiedys najatanszy procesor intela Celeron 300A podkreacal sie do 450 mhz i konkurowal doskonale z Pentium III 500 kosztujacym majatek dzieki szybszej pamieci chache w tym pierwszym. W dawnych czasch producenci zarabiali na nowych technologiach i wysokim zegarze - dzisiaj na rynku dedykowanym profesjonalista i overclockingu dla entuzjastow, kiedy wchodzilo PII kosztowalo majatek a Intel nadal sprzedawal stare P1 MMX i taka tradycja byla kontynuowana, az do czasow c2d. Nowa seria mainstremowych cpu kosztowala zawsze w chwili premiery okolo lub ponad 1000 $.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tu nie chodzi o to ze się szybko nie starzeje, bo po 3 latach i tak bedzie stary.

 

Niekoniecznie, 3 lata temu najszybszy procesor AMD, to byl PII 940BE /3.0ghz, dzisiaj najszybszy to fx8150, ja tutaj progresu nie widze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niekoniecznie, 3 lata temu najszybszy procesor AMD, to byl PII 940BE /3.0ghz, dzisiaj najszybszy to fx8150, ja tutaj progresu nie widze.

Progres jest w zastosowanej technologii produkcji, podwojnie zwiekszonemu upakowaniu tranzystorow, to czego nie widac to postep w wykorzystaniu zasobow, bo jest roznica miedzy 4 a 8 watkami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

100% racja co prawi Unknown_soldier. Kiedyś kupiłeś komputer za 4000zł i on po 2 latach nie nadawał się już do niczego. Nawet jak wychodził nowy pakiet office to twój komputer się na nim mulił.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...