Skocz do zawartości

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

SebastianWrześniewski

Wyjaśnijcie mi dlaczego, nie można zrobić większego procesora ?!

Rekomendowane odpowiedzi

Zastanawiam się od pewnego czasu dlaczego, nie można zrobić większego procesora ? i "wrzucić" tam więcej wątków i rdzenie żeby powstał potwór i był na kilkanaście lat? Wiem płyty główne nie są przystosowane, ale mogli by wydać edycje z większymi socketami. Zamiast bawić się w jakaś tam technologie, że coś tam ma 4 tyś mm, a tera ma 3,99999 i weszło troche mocy więcej. Nie rozumiem dlaczego nie mogą zrobić procesora 4 razy większego np: intel i7 4470k tylko razy 4 ? i dać jakieś chłodzenie dobre na to i mobo. Nie krytykujcie mnie bo ja tak siedzę i rozkminiam temat i nie wiem :D tak samo z procesorami na GPU nie mogą dać ich więcej i mieć więcej mocy obliczeniowej ? Plusy takie, że na gry nie czekamy długo bo optymalizacja jest praktycznie nie potrzebna :D minusy pewnie by kosztowała z kilkanaście tyś złotych, jeszcze jedno wiecie jak oni nas okradają ? wykonanie i surowce na procka nie kosztują pewnie więcej jak 10% ceny za którą kupujemy :/ a i jeszcze jedno nie jestem jakimś typem co wszystkich o coś podejrzewa ale wydaje mi się, że intel amd i całą reszta w tym momencie ma opracowane procesory karty grafczne co by uciągneły gry przez 10 lat ale lepiej 3 razy na rok sprzedawać kilka milionów CPU i GPU niż raz na 10 lat, też bym tak zrobił dobra piszcie co o tym sądzicie :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Biznes is biznes

 

Po co robić CPU na lata jak można co kilka lat wypuszczać coś nowego i trzepać kasę :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Więcej rdzeni? Proszę bardzo: Klik

 

Więcej rdzeni nie gwarantuje żadnego "futureproof". Patrz na phenomy x6. Większość cywilnych aplikacji korzysta z góra 3-4 rdzeni - tyle to norma i do większej ilości mało co się skaluje.

 

 

Zresztą, po co sztucznie przyspieszać rozwój, gdy można odcinać kupony od obecnego sprzętu i co rok poprawiać wydajność o ~5%?

 

Teorie spiskowe swoją drogą, ale to bardzo prawdopodobne że intel przez te kilka lat zastoju i braku mocnej konkurencji zdążył wymyślić jedną czy dwie architektury które trzyma w szufladzie na wypadek gdyby ktoś jednak zaczął podskakiwać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Takie procki byłby bardzo drogie, byłby ich mały uzysk z wafla krzemowego, żarłby wiele więcej prądu, wydzielałyby więcej ciepła, wymagałby o wiele wydajniejszych chłodziarek (a prze to droższych) itp. Popyt na takie cielaki byłby nieduży. Jak wyżej napisano, wszystko rozbija się o pieniądze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1. Duży procesor -> Duży pobór mocy -> Duże straty -> Dużo ciepła.

2. Nikt z dnia na dzień nie zacznie skrobać wszystkiego na 100 wątków, więc nie ma z tego pieniądzów. Patrz AMD FX-8xxx i I7.

3. Czym mniejszy procesor tym lepszy bo zmniejsza to opóźnienia i drogę jaką przebywa poszczególny sygnał. I cała teoria dot. bramek w procesorze.

4. Mały procesor -> Małe napięcia -> Małe ciepło -> Bardzo wydajnie.

 

Dodatkowo czym więcej materiału tym gorzej, a tutaj wycinają malutko i wszystko jest upakowane. Jakby chcieli to mogli by zmniejszyć procesory 2-3x tylko efektywność jest jeszcze za mała i trzeba czasu ;)

 

 

Chciałbyś fizycznie przeciwdziałać ewolucji sprzętu :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przy samym zwiększaniu mocy procesora przy zachowaniu obecnej architektury pojawi się problem chłodzenia. Gdybyśmy zostali w procesie 90nm - takim jak był Prescott to każdy procesor wymagałby olbrzymiego chłodzenia a i tak by się niewiarygodnie grzał.

Rozwiązaniem tego jest zejście do niższego procesu technologicznego. Ale nie można go zmniejszać w nieskończoność. Minimalny proces technologiczny przy obecnych materiałach (krzem) to chyba 14nm - bo taki jest rozmiar pojedynczej cząsteczki.

 

Z drugiej strony po co Intel ma robić w tej chwili coś nadzwyczajnego, skoro i tak nie ma konkurencji w każdym przedziale cenowym ? Działa ? Działa. Hajs się zgadza. (Nie mówie tutaj o AMD, bo znów oni mają procesory z większą ilością rdzeni, ale nie są one koniecznie wydajniejsze od inteli posiadających mniej wątków)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Więcej rdzeni? Proszę bardzo: Klik

 

Więcej rdzeni nie gwarantuje żadnego "futureproof". Patrz na phenomy x6. Większość cywilnych aplikacji korzysta z góra 3-4 rdzeni - tyle to norma i do większej ilości mało co się skaluje.

 

 

Zresztą, po co sztucznie przyspieszać rozwój, gdy można odcinać kupony od obecnego sprzętu i co rok poprawiać wydajność o ~5%?

 

Teorie spiskowe swoją drogą, ale to bardzo prawdopodobne że intel przez te kilka lat zastoju i braku mocnej konkurencji zdążył wymyślić jedną czy dwie architektury które trzyma w szufladzie na wypadek gdyby ktoś jednak zaczął podskakiwać.

Zgadzam się z tobą Intel coś knuje :D i na pewno ma coś na zapas ale AMD mu nie zagraża bo jest słaby jak patyk, ale jestem pewny że oni tam siedzą przy takim stole w półmroku i mówią

- Ej a może damy na rynek ten procesor co zapewni stałe 1000fps przez 10lat i bierze 25w ?

- I co jeszcze ?! sprzedamy go za 1000 zł ?!

- No tak,przecież wyprodukowanie kosztuje 400 zł to zrobim :D 60% zysku

- A nie lepiej sprzedać go za 4000 zł ? i mieć z 400zł 4000zł? a i no bym zapomniał wypuszczać tak co rok o 2% lepszy procek żeby zarabiać a ten procesor sprzeda się za 10 lat ?

A propo gta 5 to nawet nie chce mi się gadać specialnie wydali na x360 i ps3 bo mniej spiraceń po roku na x-one i ps4 a dopiero na pc i jest przeciętny kowalski(Np:ja) kupi na x360, x-one i na pc błahahaha

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak jak napisał Killer.

 

Lepiej wypuścić jeden procesor, przygotowany lata świetlne temu, pod inną nazwą i po drobnym liftingu, niż zrobić coś na długo. Wszystko musi się psuć, być po pewnym czasie do niczego, żeby potem ludzie kupili nowe.

To nie czasy, gdzie sprzęt audio Technics'a działał 20 lat bez szwanku, czy do dzisiaj działające radio Grundig, które pamięta jeszcze dzieciństwo mojej kochanej matuli.

Nie tak dawno temu afera Samsunga - wypuścili serie telewizorów, na cały świat, które celowo miały osadzone kondensatory zbyt blisko matrycy, tak aby mniej więcej po okresie gwarancji przegrzewały się i telewizor przestawał działać. Jeden kupi nowy, drugi postara się naprawić, ale zysk z takiego celowego zabiegu jest murowany. Jeden wpadł - inni robią tak samo. Firmy się sprzedają, pozostają puste napisy na sprzęcie, a podzespoły do takiego "markowego" sprzętu przylatuje z czterech stron świata.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Polać!

Teraz największy problem byłby z tym, że trzeba by zrobić "twardy reset" rynku komputerowego. Nowe płyty główne, coolery, i inne duperele. Ale jakoś stacjonarki i tak mają inne sockety niż laptopy. Można by wdrożyć nową podstawkę normalnie, ale wtedy mITX musiały by być budowane na bazie laptopów albo zestawów jak ten: http://www.asrock.com/mb/Intel/Q1900-ITX/ , co albo prawie zabiłoby ITXy (negatywny efekt) albo umożliwić łatwą wymianę podzespołów w laptopach (pozytywny efekt).

 

 

Niestety, jest już podstawka oferująca więcej niż cywilne wersje, i jest to 2011(v3), której rozmiary nie różnią się od np. 1150 zbyt bardzo. Według mnie, po podstawce też i dla entuzjastów, oczekuje się większej wydajności i funkcjonalności, kosztem ciszy i wymiarów.

 

 

Więc albo Intel zrobi kolejną wersję 2011 która będzie wyposażona w wyraźnie większy socket, albo zrobi jakąś nową, coś przykładowo wg. wzoru [y=x^2], gdzie [y=liczba pinów], która będzie się mieścić tylko na płytach minimum E-ATX.

 

 

I ty pojawia się powód, dlaczego nie stosuje się większych socketów. Płyta główna żeby pomieścić wszystkie fazy zasilania, kontrolery, systemy audio i inne złącza potrzebuje miejsca, którego staje się jeszcze mniej przez zastosowanie większego socketu, który powiększa wcześniej wspomniane elementy wyposażenia.

 

 

Póki nie zmniejszymy jeszcze bardziej wyposażenia płyt głównych, nie będzie można powiększyć socketu a więc i procesora. Jest jeszcze możliwość wsadzenia tego dużego socketu na płytę ATX wraz z wyposażeniem z płyty mITX. Niestety, taki procesor ciągnąłby więcej prądu. Teraz jeden z najlepszych mITX będzie miał zapewne problemy z utrzymaniem i7-4790K chłodzonego bardzo dobrym LC lub nawet azotem na, przypuścmy, 5GHz.

 

 

Suma sumarum, trzeba czekać na wyposażenie poziomu płyt ATX w płytach rozmiarów mITX.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak jak napisał Killer.

 

Lepiej wypuścić jeden procesor, przygotowany lata świetlne temu, pod inną nazwą i po drobnym liftingu, niż zrobić coś na długo. Wszystko musi się psuć, być po pewnym czasie do niczego, żeby potem ludzie kupili nowe.

To nie czasy, gdzie sprzęt audio Technics'a działał 20 lat bez szwanku, czy do dzisiaj działające radio Grundig, które pamięta jeszcze dzieciństwo mojej kochanej matuli.

Nie tak dawno temu afera Samsunga - wypuścili serie telewizorów, na cały świat, które celowo miały osadzone kondensatory zbyt blisko matrycy, tak aby mniej więcej po okresie gwarancji przegrzewały się i telewizor przestawał działać. Jeden kupi nowy, drugi postara się naprawić, ale zysk z takiego celowego zabiegu jest murowany. Jeden wpadł - inni robią tak samo. Firmy się sprzedają, pozostają puste napisy na sprzęcie, a podzespoły do takiego "markowego" sprzętu przylatuje z czterech stron świata.

 

Hmm...  z prockami jest jednak nieco inaczej. Choćby z powodu oprogramowania. U mnie w szufladzie leży całkowicie sprawny Athlon XP 2,4 GHZ Barton, Abit AN7 (swego czasu legenda) i ram do tego. Jak chcesz, to Ci go dam za darmo i używaj go do bólu. Ciekawe, czy starczy Ci cierpliwości, aż przemieli, co przemielić ma. Cepy "starzeją" się inaczej niż inny sprzęt elektroniczny. Chodzi o to, że stale wychodzi nowe, a zarazem bardziej wymagające oprogramowanie, którego sprzed choćby i sprzed kilku lat już nie ogarną w zadowalający nas sposób, albo całkowicie nie obsłużą danego programu i tyle.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • A mi w ich testach VRR coś nie gra, testowali AOC którego mam (VA) i według nich i tej scenki migocze jak diabli. Posiadam go od dwóch dni i ani jednego mignięcia nie widziałem.  Tutaj też ludzie się sprzeczali, który model migocze, a który nie.
    • Model ASUS TUF Gaming , o którym wspominasz jest to fajnie prezentujący się 27 calowy monitor IPS 2K (2560 x 1440) z natywnie 240 Hz, po OC 260Hz (1ms) dodatkowo pokrycie barw DCI-P3 wynosi 90 % więc monitor zapewni dobrą jakość i wyrazistość a obraz będzie płynny i przyjemny. Niektóre gry wykorzystują HDR więc z tym monitorem również można skorzystać z tej funkcji. Według mnie plusem jest też jasność na poziomie 400 nitów oraz technologie synchronizacji FreeSync i G-Sync (dla amd i nvidia).  Oczywiście są też tańsze modele z rozdzielczością 2K 240Hz patrz Lenovo Legion z lepszym pokryciem bartw DCI-P3 95% i z funkcją PIVOT - aby móc dostosować sobie wysokość i kąt pochylenia monitora do swoich potrzeb.
    • Chociaż faktycznie, niezawarcie umowy o produkcji w Polsce plus offset to wina Plaszczaka który brał wszystko z półki. Z samolotami bez uzbrojenia też się popisał, więc pewnie MON odkręca wszystko i spróbuje podpisać offset + produkcję w ostatniej umowie. Czemu się nie dało w drugiej? A no Plaszczak to Plaszczak co tutaj więcej dodawać.   Jak podpisywać umowy z Niemcami potrafią Czesi którzy w Europie mniej znaczą niż Polska ale jednak potrafią negocjować. Pomysł żeby brać pociski z Korei jako lewar na Niemcy nawet nie skomentuję, bo to poziom debila mógł wymyślić. 
    • Przede wszystkim to przynajmniej moim zdaniem zmiana bez sensu. Co do OC to jest to poblokowany CPU (coś jak non k u intela), więc tylko UV  
    • Fajnie że podałeś typ tego extendera bo z samego zdjęcia tak niskiej jakości trudno wywnioskować. Po zdjęciu wnioskuje, że to ten typ:  https://rbline.pl/extender-poe-pft1320-36882.html    Ogólnie standardowe extendery jakie stosowałem tylko regenerują sygnał nie są switchami czyli nie rozdzielają sygnału. W tym przypadku mają w sobie switcha. Różnica jest taka, że takie urządzenie różni się od typowego switcha tym, że zasilanie bierze z "głównego" switcha POE i nie ma w sobie zasilacza (taka jest idea extenderów). Na stronie którą podlinkowałem jest informacja  Więc można łączyć kaskadowo. Jednak pod 1 wyjście nie podłączysz kolejnych 2 extenderów (pewnie sam z siebie pobiera na własne działanie ze 2 W) oraz 3 kamer (każda np. po 6W). Czyli nie możesz podłączyć urządzeń które w sumie biorą więcej niż 15W. Jeszcze jedna uwaga. W specyfikacji masz 1 x PoE (802.3af/at). Oznacza to, że aby na 2 wyjściach w expanderze mieć 15W to switch musi być POE+ 802.3at, czyli na jednym porcie musi dać 30W. Jak dasz standardowego switcha 802.3af (czyli 15W) to w extenderze nie możesz podłączyć do każdego z dwóch wyjść urządzeń biorących 15 W. Wtedy tylko 1 port będzie działał z teką mocą  albo 2 gdzie suma mocy nie przekroczy 15W (Możesz wtedy np. podłączyć tylko 2 kamery np. po 6W).   
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...