Skocz do zawartości
JeRRy_F3D

W oczekiwaniu na CyberPunka 2077

Rekomendowane odpowiedzi

Ok, niech będzie SSN.

 

1. Nic bezpośredniego. To po prostu dowód, że można puścić w świat masową ilość groźnej i jakby nie patrzeć - zmodyfikowanej/uzbrojonej bakterii. Globalność takiego wypadku jest uzależniona od typu bakterii, wirusa. Jest okresu inkubacji i wygaszania ognisk choroby. Odpowiednio dobrane "parametry" takiej broni to przepis na pandemię. Czy taki scenariusz jest realny - wierzę, że tak.

 

2. Zgadzam się do pewnego stopnia. Zawsze można jej też użyć w celach terrorystycznych. Użyciem strategicznym na tej płaszczyźnie można by nazwać wymuszenie reakcji systemów kontrataku. Z tym też zastrzeżeniem, że systemy kontrataku, jak chociażby wspomniany przeze mnie Perimeter - są dość mocno autonomiczne. Co jest zrozumiałe, gdyż celem ich istnienia jest sytuacja, gdy jest już "po ptokach", a należy wciąć odwet. Stopień autonomiczności tych systemów jest co prawda niejasny. Bezsprzecznie jednak jest dość wysoki.

 

2a) Czas pozwala na dojście do wszystkiego. Kiedyś atom miały tylko USA. Obecnie techniki wzbogacania uranu mają kraje, uważane często za zacofane. Czy za 100 lat mogą nimi dysponować terroryści? Inne środowiska radykalne?

 

2b) A kto mówi o wysiułaniu nas do 0 z planety. Regres jest jednak możliwy. Zwłaszcza, że taką bronią nie atakuje się raczej konwoju ciężarówek na pustyni czy fregaty na morzu, a zwłaszcza cele o znaczeniu gospodarczym. Również miasta.

 

3. Zapewne walnięcie asteroidy w ziemię jest mniej prawdopodobne. Ale dlaczego wciąż mówisz o sprawach lokalnych w rozmowie, której elementem jest (przyszłe) społeczeństwo globalne? Nic nie musi walnąć jak meteor dinozaurów, żeby wszystko,równiutko zmieść z powierzchni. Ważne jest miejsce. Całkowicie losowe. Środek Europy, Zachodnie Wybrzeże USA. To są regiony, które już dzisiaj uzależniają od siebie wiele dziedzin gospodarczych. Ich zniszczenie byłoby katastrofą lokalną - ale już wpływ katastrofy byłby globalny. Coś jak kryzys ekonomiczny z 2007 roku. Regres byłby możliwy.

 

4. Cóż. Nie potrafię dzisiaj powiedzieć, jaki eksperyment naukowy czy odkrycie naukowe za 1000 lat będzie stwarzało realne zagrożenie dla ziemi. W latach 40 była to bomba atomowa. Myślę jednak, że to nie było ostatnie słowo.

 

5. Większe od zera, rosnące względem upływającego czasu. Sam Krakatau wywalił w atmosferę 25 km3 popiołu. Siły natury nie powinno się bagatelizować i sprowadzać do paranoi.

 

Jak sam zauważyłeś, obawy przed czymś takim to paranoja, potencjalnie dziwna fobia, czyli powyższe SSN! Jak już chyba chcemy czegoś się bać, to może innych czynników/wydarzeń?

 

Nie zauważyłem, gdyż paranoja jest chorobą. Nie uważam, żeby przyjmowanie czegoś za prawdopodobne/możliwe/uzasadnione było objawem paranoi. Dzisiaj mogę umrzeć. Mieć wypadek samochodowy, zachorować. Jestem świadomy prawdopodobieństwa takich rzeczy, ale jednocześnie nie wpływają one na moje zachowanie w stopniu, który uzasadniałby np. leczenie.

 

Wydaje mi się, że radykalizujesz mój pogląd. Przypisujesz mu walory problemu podczas gdy jego jedyną emanacją w tym momencie - jest ten oto wątek na forum....

 

Nie uważam się za paranoika. Jedyną fobię mam na punkcie owadów, roju. Mimo to jestem w stanie wejść w środek pasieki bez maski i ogólnie lubię pszczoły. Zapach pszczół, ula. :] Ale to rzeczywiście wpływa na moje zachowanie. Boję się, jestem nerwowy. Nie dałbym rady z nimi pracować. To jest pewna fobia.

 

Ale mając pogląd, że boję się oblezienia i pokąsania przez owady - oznaczałoby to z automatu, że mam fobię?

 

Dlaczego uważasz, że Hujawej nie ma SI?

 

P.S - zauważyłeś, że kolejny raz ktoś założył temat, olał go i tylko my dwaj się w nim produkujemy? szczerbaty.gif

Edytowane przez PrimoGhost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok, znowu jadziem! :E

1. Pozwolę się nie zgodzić. Bronią masowego rażenia to będzie, jak to będzie w stanie osiągnąć zasięg i skuteczność związane z bronią masowego rażenia.

2. Do tej pory ciężko było użyć broni atomówkowej w takim celu. W przyszłości może się to zmienić (załóżmy taki scenariusz) - ale dalej to będzie lokalne bum. Chyba nie zakładamy, że terroryści opanują mechanizmy wojny atomowej kilku mocarstw, nie?

2a.Paczaj wyżej. Lokalny atak (przykładowo: rozpłaszczenie np. centrum Berlina, czy Tokio) tak, zagłada na skalę strategiczną już niezbyt.

3. Globalizacja wprowadziła decentralizację. Jakby wielki kamol jeb*ął w północną Anglię AD1830, to świat wyglądałby może inaczej. Jak jeb*ie w przyszłości w jakieś centrum przemysłowe, fabryki się postawi gdzie indziej, a know-how się ściągnie z internetów.

4. Nie martwmy się o rzeczy, których nie potrafimy nazwać, tylko dlatego, że hipotetycznie kiedyś może będą istnieć :)

5. Jest nieskończenie wiele wydarzeń tragicznych o prawdopodobieństwie zaistnienia większym od zera, ale nic więcej z tego nie wynika, prawda?

 

Wybacz, bez obrazy, ale po prostu listę potencjalnych katastrof, które podałeś, skonfrontowałem z listą katastrof obecnych w filmach katastroficznych z holiłudu. Jakoś tak wydaje mi się, że jedna z drugą (lista) dosyć są podobne. Holiłud Primulcu ku-a-mje i kosmicznie przesadza. Tak jak i lyteratóra sensacyjna. Sensacja się sprzedaje. Sensacja powoduje zwiększenie budżetów. Sensacja miziu miziu.

 

Czy wobec tego powinniśmy się cieszyć nieskończenie, turlać po trawie i rżeć jak dzikie ogiery, bo nic nam nie grozi? Nieee. Po prostu katastrofa globalna, nawet w bardzo długim okresie, nie ma prawdopodobieństwa zaistnienia = jeden. Ot takie moje zdanie.

 

Acha. Hujawaj. A jakie on ma mieć te SI? Po prostu składa ekspozycje w ciemnych warunkach w jedną, zakładam że na postawie trackowania wybranych lokalnie obiektów o szczególnie wyższym, niż średnia, kontraście. Oraz dokolorowuje i dohadiereowywowywowuje inne fotki. Na podstawie bazy danych typowych fotek.

Ot skrypt.

Edytowane przez jagular

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Osz Ty....

 

1. Dokładnie. Wystarczy po prostu odpowiednio dobrać parametry takiego wirusa czy bakterii by był w stanie osiągnąć zasięg i skuteczność broni masowego rażenia. Symulacje rozwoju pandemii znacząco różnią się już przy zmianie elementu jakim jest okres inkubacji. Możliwość stworzenia czegoś takiego w przyszłości jest możliwe.

 

2 i 2a - Idziesz trochę na łatwiznę. Powiedzmy, że jest BUM. Potem jest pytanie kto zrobił BUM, potem jest następne BUM a potem więcej BUM. Skutki jednego BUM - rzadko kiedy zamykają się bez reakcji. Rozmawiamy hipotetycznie. W tym miejscu podnoszę, że terroryści niekoniecznie muszą nas wysadzić atomówkami i opanować mechanizmy prowadzenia takiej wojny. Równie dobrze mogą być jednak zapalnikiem. Coś jak Defenestracja praska w wersji hard w obliczu wojny 30 letniej, której była bezpośrednią przyczyną.

 

3. Hmmm... No tak. Masz rację. Ucierpiałyby co najwyżej jakieś bardzo specyficzne dziedziny. Proto-dziedziny. Straty byłyby kolosalne, ale ( przełyka gula ) na potężny regres na skalę światową rzeczywiście to nie pasuje.

 

4. Martwienie się jest stanem emocjonalnym. Nie jest groźne, póki nie wywołuje skutków w życiu i na nie nie rzutuje. Wtedy to już o krok od paranoi, nerwicy.

 

5. Jest też nieskoczenie wiele wydarzeń pozytywnych, które mogą zaistnieć. Ich prawdopodobieństwo jest też większe od zera. Nasza dyskusja pod kątem tego argumentu może sprowadzać się jedynie do ustalenia, kto ma rację na podstawie większej dozy prawdopodobieństwa poszczególnych zdarzeń na które się powołujemy. Uważam, że to bez sensu bo idąc tym tokiem rozumowania - jeśli jak uważam, że ludzkość w przyszłości unicestwi się sama / dokona potężnego regresu ( jak Kroganie w Mass Effect - hy hy hy ) to mam rację tak samo jak Ty, który uważasz że niekoniecznie pójdzie to w tym kierunku. Oba stanowiska nie są niemożliwe do zaistnienia. Kto ma więc rację? Ty, ja czy rachunek prawdopodobieństwa, który w omawianej materii będzie wynikiem symulacji, a nie realnym i wartościowym działaniem matematycznym, jak np. prawdopodobieństwo wyrzucenia 6 kostką do gry.

 

Co do filmów - starałem się przytaczać raczej sytuacje z historii. Co zapewne nie wyklucza tego, że historia (często ubarwiona) staje się właśnie inspiracją do powstania takich filmów. Drugi argument jest taki, że historie pozytywne ( ale nie przełomowe ) są na ekranie po prostu nudne.

 

A co do prawdopodobieństwa tej katastrofy i turlania się po trawie - To też trochę jak symulacja dwóch małych kul poruszających się losowo w ogromnej przestrzeni. Kiedyś się zderzą. Jest to pewne w 100 %. Kiedy? Niewiadome. Ale się zderzą. Bo prawdopodobieństwo, że w nieskończoność będą się omijać, jest mniejsze niż scenariusz, że w końcu się zderzą. Jedyną kwestią jest czas.

 

img_91347000.jpg

 

 

Taką symulacją o zdarzeniu pewnym w 100 % jest w pewnym sensie katastrofa kosmiczna. Zwłaszcza, że z perspektywy czasu w kosmosie - od wielkiej asteroidy i dinozaurów minęła zaledwie chwila.

 

 

Hujawej - no dokładnie... To żadne SI a zwykły algorytm. Ale z drugiej strony.... Przecież nie mamy SI? Nie mamy więc właściwej definicji SI. Bo jak zdefiniować coś, czego nie ma, a jedyne wyobrażenie na tym punkcie jest w sumie takie... romantyczne?

 

Uważam, że re-definicja tego, co nazywamy SI - może mieć kluczowe znaczenie dla.... powstania SI.

 

Chyba, że uznamy za SI taki model systemu inteligentnego, który:

 

 

- posiada zdolność uczenia się;

- posiada pamięć;

- potrafi dostosowywać się do zmiennych warunków środowiska;

- potrafi wymieniać informacje z innymi systemami inteligentnymi;

- potrafi współdziałać z innymi systemami inteligentnymi;

- potrafi rozwiązywać nowe problemy, tzn. takie, z którymi dotychczas się nie

  zetknął;

- potrafi rozwiązywać złożone problemy;

- potrafi weryfikować poprawność zaproponowanego rozwiązania;

 

Z czego największy problem stanowią IMO rzeczy podkreślone... Raz, że pod kątem tego, co rozumiemy przez uczenie się ( zapamiętanie formułki na lekcję Fizyki a nauka spawania wobec np. dogrania nowych instrukcji/danych do analizy )

 

Jest jeszcze ta romantyczna wizja SI, gdzie roboty są podobne do nas, myślą podobnie jak my.... Ta wizja według mnie odpada już na samym starcie bo:

 

- SI będzie teoretycznie nieśmiertelna. Kres będzie tyczył co najwyżej platformy, na której funkcjonuje. Ludzie z kolei są niewolnikami czasu i tym samym okresu swojego funkcjonowania.

- SI będzie miała inne poczucie czasu. Niezależne od siebie i okresu swojego funkcjonowania.

Edytowane przez PrimoGhost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

JADZIEEEEM :D

1. Oj, wygląda to jak jakiś tytuł z prasy sensacyjnej, typu "wystarczy podkręcić jeden parametr na czymś tam, żeby ten wirus, proszę państwa, zabił 5mld ludzi" :)

Nawet Czarna Śmierć, panująca w czasach, kiedy lekarstw nie było, nie zdołała nas wyeliminować. Do końca :P

2, 2a. Piszesz to, jakby w każdym kraju posiadającym broń atomową jacyś szaleńcy tylko czekali na naciśnięcie jakiegoś guzika. Jak (jeżeli) terroryści kiedyś odpalą atomówkę gdzieś tam, nie oznacza to nagle, że wszyscy inni opalą nagle swoje atomówki.

5. Wydaje mi się, że prawdopodobieństwo przetrwania ludzkości jest większe od prawdopodobieństwa jej samozagłady.

 

A filmy? Filmy to czysta, abstrakcyjna bzdura. Rozrywka. Nic więcej z tego nie ma.

 

Katastrofy kosmiczne: jak duże?

Poziom tunguski: szacowany na raz na 1000 lat. Poziom czelabiński: raz na sto lat.

Rocznie wpada do atmosfery Ziemi ze 100000t śmiecia i nic z tego nie wynika poza danymi statystycznymi. Jest na tyle mało dużych kamoli w najbliższej okolicy, że akurat możemy pozostawić te katastrofy kosmiczne na półce "wielce nieprawdopodobne, lecz malownicze na ekranach kin".

 

Hujawaj: no, ale mamy te "SI" rozpoznające jakieś tam twarze na milionach fotek z wakacji. Albo potrafiące budować modele stylu wypowiedzi danego człowieka.

Na tle tego Hujawaj jest niczym. Firma chciała najprawdopodobniej stworzyć coś, co odróżni jej telefony od telefonów konkurencji: postawiono na moduł aparatu.

Użyto mocno przetwarzających algorytmów (klient i tak nie ma zielonego pojęcia na co patrzy, i tak będzie zadowolony jak będzie kolorowo), dodano bajkę o modnym SI, dodano bajkę sugerującą że aparaty są super, bo są sygnowane logiem innej firmy utożsamianej z luksusowymi aparatami (Leica) i już. Był to sukces.

 

SI i czas: ostatnio czytałem książkę poruszającą coś ciekawego: czas lokalno-rzeczywisty dla SI przynajmniej na początku będzie zależny od możliwości finansowych związanych z kupowaniem mocy obliczeniowej, z definicji ograniczonej. Im więcej kasy, tym więcej cpu w zaprzęgu i tym 'szybciej' SI 'istnieje'. Będzie jednak niewolnikiem tego czynnika: 'zewnętrznej' mocy obliczeniowej potrzebnej do obliczania jej 'istoty'.

 

SI na poziomie, o którym zaczęliśmy dyskusję, wprowadzi wiele problemów i kryzysów moralnych wśród ludzi.

Czas przestanie być zarówno problemem, jak i wybawieniem. Przestanie biec ze stałą prędkością*.

Moralność sztucznie stworzonego intelektu może być inna od naszej.

Cele istnienia sztucznie stworzonego intelektu będą na pewno inne od naszych.

Powstanie takich Prawdziwych SI najprawdopodobniej doprowadzi do kryzysu religie, filozofie, gospodarki, ekonomie świata. Najbardziej skostniałe pojęcia najprawdopodobniej jednak nie znikną. Ludzkość ma taką cechę w sobie, że część z nas odrzuca nowości. Czuje się lepiej w prostszej, starej przeszłości. Nie wszyscy się rzucą na nowości. Na pewno pozostaną enklawy tych, którzy odrzucą Nowe Możliwości.

 

* no dobra, nigdy nie biegł, ale dla przeciętnego Kowalskiego jedna sekunda teraz to jedna sekunda jutro

Edytowane przez jagular

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzisiaj mam zamiar ograć DLC do Metro Exodus. Pozwól, że Ci odpiszę, jak przez nie przebrnę i wymyślę trochę nowych argumentów szczerbaty.giflol2.gif

Edytowane przez PrimoGhost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie ma to jak zagrać w dobre Post-Apo a potem o nim dyskutować lol2.gif

 

1. Tak, wystarczy podkręcić... Dodatkowo - znowu bagatelizujesz ten pogląd. Dwa argumenty.

 

- Często niekoniecznie trzeba robić cokolwiek w laboratorium, by wirus czy bakteria sama zmutowała ( sama podkręciła sobie takie parametry, jak przeżywalność w powietrzu, spektrum temperatury, czy podatność na zarażanie innych gatunków ) Dobrym przykładem jest wirus grypy A/h1n1a. Pomijając aspekty polityczne i sensacyjność tej pandemii, aż po handel szczepionkami - chodzi o to, że jak najbardziej możliwe jest zmutowanie danego wirusa czy bakterii.

 

- Na Uniwersytecie w Albercie, Kanada, 2 lata temu, kilka osób wykorzystując sprzęt o wartości 100.000 $ ( śmieszna kwota w aspekcie inżynierii genetycznej ) zrekonstruowało wirusa ospy końskiej. Zajęło im to pół roku. Mój link. Miało być niemożliwe. Wirus genetycznie jest bardzo podobny do wirusa ospy prawdziwej.

 

Między innymi z powodu tego zdarzenia - Departament Obrony USA zamówił i opublikował w 2018 raport na temat m.in możliwości odtworzenia śmiertelnych patogenów na podstawie inżynierii genetycznej. Uznano to za prawdopodobne i realne zagrożenie bioterroryzmem.

 

Ta, wiem... polityka strachu, łatwiej rządzić, jak lud się boi, można sprzedawać szczepionki itp itd... Nie umniejsza to jednak faktu, że grupka ludzi za 100.000 dolarów odtworzyła sobie śmiertelnie niebezpiecznego wirusa.

 

Dodatkowo - Czarna Śmierć kwalifikowana jest jako pierwsza pandemia, której globalizacja miała kluczowy wpływ na jej rozprzestrzenianie się. Migrację choroby widać jak na dłoni po szlakach handlowych. Nie było lekarstw - ale samolotów też nie.

 

2. Nie muszą być w każdym kraju, by posłużyć za zapalnik.

 

 

Katastrofy kosmiczne. Tą teorię mocno pompował Hawking. Mój link. Słynne 1000 lat Hawkinga. Potem zaledwie 100, ale motywowane nieco inaczej. I powiem Ci, że nie jest to do końca bez sensu. Wiele osób ze świata naukowego zgadza się z Hawkingiem. Główną rozbieżnością jest po prostu czas. Jak wielka więc katastrofa - tak wielka, żeby wystarczyła. A kiedy będzie? Nie wiadomo. Ale będzie.

 

SI i czas: ostatnio czytałem książkę poruszającą coś ciekawego: czas lokalno-rzeczywisty dla SI przynajmniej na początku będzie zależny od możliwości finansowych związanych z kupowaniem mocy obliczeniowej, z definicji ograniczonej. Im więcej kasy, tym więcej cpu w zaprzęgu i tym 'szybciej' SI 'istnieje'. Będzie jednak niewolnikiem tego czynnika: 'zewnętrznej' mocy obliczeniowej potrzebnej do obliczania jej 'istoty'.

 

Wspomniałem o tym w pewnym sensie - SI byłaby wtedy inteligencją zbiorczą, gdzie punkty wyjściowe w postaci jakiejś platformy zdolnej do interaktywności ( powiedzmy dla uproszczenia - robocik ) różniłyby się pomiędzy sobą jedynie perspektywą. Cała istota pozostawałaby w zbiorczym punkcie dla którego robocik byłby tylko avatarem.

 

Kolejna rzecz w odniesieniu do "moralności" SI. - My nie wiemy, jak nas stworzono. Część osób w coś wierzy, ale z naukowego punktu widzenia - nie wiemy, kto i jak nas stworzył.

 

SI będzie to wiedziało. Będzie też świadome przywar i wad jego stwórców. To jedna z gałęzi różnic, która NA PEWNO będzie całkowicie odmienna od naszej, organicznej. Innymi gałęziami są cel istnienia ( u ludzi nieokreślony socjologicznie a jedynie biologicznie pod kątem przekazania genów potomstwu )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No dobra, jadziem dalej.

Do tej pory żadna z bakteryi, ani żaden z wirusów nie podkręcił się sam z siebie do poziomu pozwalającego oszukać ludzi i ich zarazić globalnie, mimo ludzkich zabezpieczeń i starań. Nie wydaje się, żeby wirusy/bakterie tak łatwo wyewoluowały w coś, co jest w stanie utrzymywać się chyba latami w ukryciu, być super zaraźliwe na wszystkie sposoby (to w celu zarażenia dużej ilości populacji po cichaczu) i nagle po tych latach odpalić siebie. Bo coś takiego musiałoby zaistnieć, żeby stworzyć globalne zagrożenie, nie?

 

Polityka strachu ma tysiące lat. To istota naszej cywilizacji.

 

Co do SI, taka ciekawostka, oczywiście ominięta tutaj, na psim labie. My tu mamy newsy o tym, jakiego koloru ma majty szef koncernu IT, albo znamy przewidywaną premierę nowego kabelka do zasilacza.

Tymczasem w innych internetach...

Chip 21.5x21.5cm (!), 1.2B (zapis anglosaski: 1.2T) tranzystorów, 400000 rdzeni optymalizowanych pod AI, 15kW zużywanej energii, już w użyciu.

 

Z naukowego punktu widzenia wiemy jak się dokonało nasze stworzenie.

 

SI i jego "psychika": zakładając cokolwiek, pierwsze generacje "prawdziwego" SI najprawdopodobniej będzie bardzo 'ludzkie'. Ludzie mają wielki problem z tworzeniem czegoś nowego. Kolejne generacje mogą się uwolnić (uwolnią) od ludzkiej ułomności. Będą wolne, limitem będzie pewnie jedynie moc obliczeniowa. W takim przypadku nie będzie można już oczekiwać, że będą się zachowywać w stosunku do swoich twórców, jak ludzie by się zachowywali w stosunku do swoich twórców. W końcu jeżeli istniejesz jako byt obliczeniowy, swoją postawę, uczucia, odczucia, pamięć możesz edytować. Nie wiemy w jakim kierunku to może pójść: możemy założyć, że zachowają się jak życie na Ziemi (to też samo w sobie jest ograniczeniem i uproszczeniem) i będą dążyć do ewolucji w kierunku większych, szybszych, bardziej zoptymalizowanych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dobra, zostawmy ten wątek katastroficzny. Masz wiele racji - otwarcie przyznaję. Jest jednak wiele stanowisk, które są w moim mniemaniu naprawdę racjonalne. I nie chodzi o to czarnowidzenie i paranoję ( bo jak de facto realnie bać się czegoś, co nie nastąpi za naszego życia ) a pewną logiczną konsekwencję pewnych zjawisk.

 

Musimy kiedyś pogadać  jeszcze o globalnym ociepleniu szczerbaty.gif Jesteś wymagającym rozmówcą. Ciekawi mnie Twoje zdanie.

 

Co do tego... chipu. A dokładniej rzecz ujmując - chipletu na przekładce krzemowej - Ciekawe. Nawet bardzo. Ale.... to żadna ciekawostka. Coś podobnego robiło wcześniej AMD w postaci Fiji dla R9 Fury. Nie na taką skalę, ale - z podobną zasadą działania. Równie dobrze można powiedzieć, że gotowy wafel z naniesionymi 70 jądrami GV100 - też można nazwać wielkim chipem 21,5 x 21,5.

 

Wiesz co jest anty-innowacyjne w tym wypadku?

 

Wafel 300 mm z jądrami nie większymi, niż 858 mm2 okupiony przez reticle limit. Dlaczego nie wafel kwadratowy 30 cm na 30? Dlaczego reticle limit taki, a nie inny. Mój link

 

Są to pewne naleciałości historyczne, których od długiego już czasu nie "możemy" przeskoczyć a wraz ze zmniejszeniem długości fali lasera - jest jeszcze gorzej. Stąd zapewne jest to 16 nano, a nie np. 7 nm ( w kontekście TSMC i ich terminologii ) ten układ zawiera je wszystkie. Nie wyszedł poza ustalone ramy.

 

Dodatkowo, czego nie powiedziano w prezentacji....

 

  • Ten układ jest zapewne całkowicie zdesynchronizowany. Stosujemy sygnałowanie elektryczne. Nawet stosując sygnałowanie świetlne - wewnątrz układu nie jesteśmy w stanie przesłać informacji na więcej, niż parę milimetrów w cyklu zegara powiedzmy 2000 Mhz. Czy nawet 1000 Mhz. Układ ma 21,5 cm na 21,5 mm. Jest więc wielokrotnie zdesynchronizowany. Już w obecnych, dużych chipach (815 mm2) to powoli stanowi problem. A co dopiero tutaj. Układ scalony to nie próżnia, gdzie światło sobie popierdziela z pominięciem oporoności przewodów, wzmacniaczy i buforów. Sygnałowanie więc dwóch skrajnych jąder byłoby możliwe przy bardzo niskim zegarze ( który nie uzasadnia 15 kW  ) Dlatego bliżej temu po prostu do kilkudziesięciu osobnych układów, niż "pojedynczego chipu"
  • 18 Gb pamięci - raz, że to mało, a nawet bardzo mało w przypadku obliczeń np. symulacji. Dwa - brak kontrolera i fakt, że układ nie jest synchroniczny - wielokrotnie dzieli tą pamięć na mniejsze bloki, przypisane dla danej grupy rdzeni. O ile? Nie podano. Ale zapewne działa to jak shared cache w procesorach. Dodatkowo - to pamięć nie oparta na stosach typu QLC (4d nand/ 3d nand ) itp. Jej "nadruk" w tej postaci jest obecnie czymś naprawdę bardzo nieefektywnym. Podobnie, jak to że układ w pewnym momencie i tak będzie zobligowany do korzystania z pamięci zewnętrznej a wtedy prędkości bardzo spadną.
  • 15 kW - nie mam z tym problemu, bo to przemysłowy układ. Problem mam z tym, jak to zasilić. Widziałeś ile kulek BGA wchodzi pod układ Turinga? Jakiś pierdyliard. 0.4 mm kulek BGA... Pod jeden chip. Każda kulka może pompować w chip coś okolicach ~0.2W. Jaka jest rozszerzalność termiczna tak ogromnego układu? Ile to ma zamiar sobie działać z tym 15 kW zanim zacznie tracić połączenia ( a zacznie )

Droga zabawka. Do wąskiego zakresu zastosowań z wieloma ograniczeniami technicznymi i typowo fizycznymi.

 

SI - jest też druga opcja. Drogę ewolucji SI po jej stworzeniu wciąż będzie wyznaczał człowiek. Będzie mógł ją zmienić, zniszczyć, dezaktywować w dowolnym momencie jej rozwoju. Też ciężko twierdzić, że SI powstanie i będzie się rozwijała samodzielnie, bez nadzoru i w dowolnym kierunku. Zwłaszcza, że SI już obecnie to inwestycja. W przyszłości - będzie większą inwestycją, wartościowym towarem.

Edytowane przez PrimoGhost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chip mnie zaciekawił, bo jest wyciśniętą i wymęczoną na maksa obecną technologią z jej ograniczeniami. Mimo wszystko zbudowano to cudo i jakoby już pracuje operacyjnie.

18Gb to jest tam pamięci na chipie. Interfejs zewnętrzny przecież jest, nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No wiem, ale naprawdę - obrobisz jeden plaster z 70 rdzeniami GV100 i też można powiedzieć, że masz jednego, wielkiego chipa. Największym bólem takich jednostek jest to, że są zdesynchronizowane. W obrębie jednego rdzenia już jest kilka elementów, które trzeba synchronizować z głównym zegarem. Tymczasem tutaj masz kilkadziesiąt klastrów, których max odległość po przekątnej to 30.4 cm. Za dużo nawet jak na sygnałowanie świetlne, a co dopiero elektryczne. Fajnie, że działa ale jestem więcej, niż pewien że działa w obrębie bardzo wąskiej grupy obliczeń a taki DGX-2 zje go na śniadanie w większości zastosowań DL.

 

18 Gb jest na chipie ( podzielone zapewne na współdzielone klastry ) Podając 18 Gb to trochę tak, jakby dla takiego Sandy Bridge dodawać Cache L1,L2 i dzielone L3 podając sumę wszystkich 3.

 

Interface zewnętrzny = kontroler pamięci (a więc drastyczny spadek przepustowości) i problem z połączeniem ( podpinasz interface do 1 klastra? jednej ściany?) Takie trochę Infinity Fabric zapewne też z własnym dzielnikiem. Ostatecznie i tak stworzy się z tego po prostu SOC.

 

 

Bardzo ciekawe, fajnie że jest coś takiego, fajnie że coś tam liczy, ale naprawdę - nie tędy droga. 

 

Co innego, jakby to był jeden układ, Jeden potężny rdzeń działający poprawnie pomimo skaz na waflu.

Edytowane przez PrimoGhost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeden rdzeń? Ale to nie jest efektywne, te dane się skalują, prawda? Poza tym, wtedy jeszcze większe byłyby problemy z synchro lewego górnego rogu z prawym dolnym, nie? W każdym razie jest tu ~400000 cores optymalizowanych pod przewalanie terabajtów+ danych. Wyciśnięto z technyky wszystko, co jest możliwe obecnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1) Ale to właśnie jest jeden potężny układ działający mimo skaz na waflu!

 

2) Dane niby się skalują, ale nie do końca. To nie działa tak, jakby 400k rdzeni było podłączonych bardzo szerokim łączem do 18 GB pamięci. Nie można załadować na WSE 18 gigabajtów zdjęć i kazać mu się czegoś nauczyć z tych zdjęć. Każdy rdzeń ma bezpośredni, szybki dostęp tylko do swojej własnej pamięci; dane mają się przesuwać w miarę postępowania kolejnych kroków obliczeń do sąsiednich rdzeni. Jeśli zechcesz pozyskać dane z drugiego końca chipu - a za chwilę zsynchronizować je z powrotem z drugim końcem - to koszt przesuwania danych szybko przewyższy koszt obliczeń i rzeczywiście okaże się że byle jakie GPU jest efektywniejsze.

 

WSE to jest maszyna, której użyteczność zależy w 99% od zaprogramowania jej w odpowiedni sposób - nie da się zrobić "pip install tensorflow" i traktować jej jako bardzo dużego GPU.

Edytowane przez mbrzostek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Co do SI, taka ciekawostka, oczywiście ominięta tutaj, na psim labie. My tu mamy newsy o tym, jakiego koloru ma majty szef koncernu IT, albo znamy przewidywaną premierę nowego kabelka do zasilacza.

Tymczasem w innych internetach...

:hmm:

https://pclab.pl/art81734-4.html

Opublikowałem parę godzin przed cytowanym postem...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hola, hola...

Opublikowaliśta o wiele później, niż ten przykładowy Anandtech (patrz niżej).

Nie wrzuciliśta to w newsa (wiem, nie ma miejsca pomiędzy plotkami na temat nowych telefonów). Tego dotyczył mój sarkastyczny komć.

Nie ma znaczenia w zasadzie, kiedy napisałem swojego posta, bo sednem sprawy nie jest mój komentarz i jego moment pojawienia się, tylko czy i jak szybko reaguje pclab.

Patrząc na daty: Anandtech 19 sierpień. Pclab: 4 wrzesień.

comprende, señor?

 

Wracając do tego układu: ja tu występuję oczywiście z pozycji laika bez wiedzy, którą reprezentujecie, ale jestem pewien, że idea jakie dane i w jaki sposób będa na tym obrabiane pojawiły się przed etapem projektowania czipa. On wygląda na zbudowany pod konkretne wymagania, prawda?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie z Cerebras powiedzieli, że już liczą na WSE "client workloads", czyli obliczenia zaproponowane przez klienta, który zapewne wyraził zainteresowanie taką maszyną wiele miesięcy temu. Sądzę, że dane, oprogramowanie, topologia sieci są od dawna przygotowywane i pewnie wymagały nie mniej badań i pracy niż zaprojektowanie samego chipu. Pewnie praktyczne zastosowanie WSE pozostanie sekretne, szczególnie jeśli to jakaś duża firma pokroju Facebooka, Googli czy Amazona zamówiła.

 

WSE na pewno nie jest zbudowany do tego stopnia "pod wymagania" co akcelerator w teslach (samochodach, nie GPU) albo różne akceleratory wnioskowania, gdzie nawet konkretna wytrenowana sieć jest znana przed rozpoczęciem projektowania - ale na pewno to nie będzie uniwersalny sprzęt do SI.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeden rdzeń? Ale to nie jest efektywne, te dane się skalują, prawda? Poza tym, wtedy jeszcze większe byłyby problemy z synchro lewego górnego rogu z prawym dolnym, nie? W każdym razie jest tu ~400000 cores optymalizowanych pod przewalanie terabajtów+ danych. Wyciśnięto z technyky wszystko, co jest możliwe obecnie.

 

Mówiąc o rdzeniu graficznym, na przykładzie takiego GV100 - nie wszystkie jego elementy muszą być synchronizowane w cyklu jednego zegara. Dwa - w obrębie takiego rdzenia można skorzystać z technik modulacji sygnału lub zaprojektować połączenia części wymagających synchronizacji w odpowiedni sposób. Grubsze o większej przepustowości itp.

 

Mówiłem o sytuacji, jakby jeden taki GV100 nie miał 815 mm2 a 46,225 mm2 ( pomijając, że obecnie jest to niemożliwe do zrobienia ze względu na Mój link ). Czy dalej byłby problem z sygnałowaniem i synchronizacją? Zapewne tak! Nawet uwzględniając powyższe. Nvidia wspominała nawet na ten temat przy Volcie. Że jest to do ogarnięcia, ale trzeba już to brać pod uwagę, bo chip jest duży w kontekście przesyłania informacji do poszczególnych jego obszarów na wyższych częstotliwościach zegara.

 

Ale tutaj mamy cały klaster rdzeni (takich jakby GV100 na który składają się mniejsze jednostki, jak rdzenie Tensor u NV ) Nie wiem, jak to połączyć i synchronizować. Magistralą podobną do Mesh? Infinity Fabric? Koszt obliczeniowy zapewne będzie kosmiczny. Zwłaszcza, jak ta magistrala będzie musiała mieć własny dzielnik.

 

Wiem, że nie jest to przymus i pewne kategorie obliczeń jak najbardziej można na tym wykonywać, ale jednocześnie uważam że jest to główny aspekt przez który to rozwiązanie cierpi pod kątem uniwersalności.

 

18 Gb pamięci też na bank jest dzielone co najmniej w obrębie danej grupy rdzeni...

+

Moje obawy związane z zasilaniem tego układu i kurczliwością termiczną krzemu na tak dużej powierzchni ( i przy niebagatelnej mocy )

 

Moja ignorancja(?) polegająca na założeniu, że gotowy wafel z 70 rdzeniami graficznymi GV100 jest z technicznego punktu widzenia - bardzo podobny do dzieła Cerebasa.

 

Jak dla mnie to po prostu bardziej cud programistyczny, niż techniczny. O potężnym wachlarzu ograniczeń. Szacun, że działa na całej powierzchni wafla uwzględniając jego wady, Szacun że to podpięli do prądu i schłodzili, ale pod kątem DL - uważam, że takie DGX-2 jest raczej niezagrożone przez tego typu twory. Nawet uwzględniając różnorodność obliczeń związanych z DL.

 

Mateusz - źle myślę? Ty to ogarniasz znacznie lepiej. Ja po prostu na ten chip patrzę i myślę że ta prezentacja była trochę zbyt hurra-optymistyczna. Jak mówię głupoty, to nie krępuj się pojechać po nich na ostro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeżeli dobrze zrozumiałem, to połączenia w tym układzie są programowalne, a to już daje bardzo duże możliwości w zmianie tego co robi. Można zatem uznać go za "procesor" ogólnego przeznaczenia, choć chyba bardziej pasuje porównanie do fpga. Jeżeli nie ma przeszkód technicznych, to i można zrobić samo przeprogramowanie wynikające z działania algorytmu.

 

Wracając do ogółu SI i programowania.

Czy da się zbudować prawdziwe SI, to kwestia przyjęcia, czy nasz (i inne zwierzęce) mózg działa deterministycznie, czy to tylko jeden skomplikowany algorytm, czy jednak jest ten boski pierwiastek, dusza, świadomość itp.

Jeżeli mózg działa w pełni deterministycznie, to w odtworzeniu jego działania hamuje nas jedynie poziom skomplikowania jego budowy oraz ogarnięcia stanu początkowego (np. pogodę bylibyśmy w stanie idealnie prognozować ale nie mamy pełnych i dokładnych danych o stanie).

Jeżeli mózg nie działa deterministycznie, jest jakiś czynnik losowy, to nadal jesteśmy to w stanie odtworzyć w algorytmie, wystarczy dobra funkcja losowa.

Dopiero jeżeli potrzeba czegoś więcej, to będą problemy ze sztucznym stworzeniem inteligencji.

 

Chyba, że uznamy za SI taki model systemu inteligentnego, który:

- posiada zdolność uczenia się;

- posiada pamięć;

- potrafi dostosowywać się do zmiennych warunków środowiska;

- potrafi wymieniać informacje z innymi systemami inteligentnymi;

- potrafi współdziałać z innymi systemami inteligentnymi;

- potrafi rozwiązywać nowe problemy, tzn. takie, z którymi dotychczas się nie

zetknął;

- potrafi rozwiązywać złożone problemy;

- potrafi weryfikować poprawność zaproponowanego rozwiązania;

Na wstępie heheszki: właśnie wyciąłeś +/- 20% ludzkości z istot inteligentnych :E

 

Lecąc po kolei:

-działa - patrz uczenie sieci neuronowych

-istnieje

-działa np. pod postacią algorytmów adaptacyjnych, a obecnie mówi się o kognitywnych czyli w połączeniu z pamięcią i wiedzą nazwijmy to zewnętrzną

-odpowiednie protokoły wymiany danych

-jw. + adaptacja

-tutaj ciężko mi powiedzieć, bo nie siedzę w programowaniu SI, przypuszczam, że się da, szerzej będzie niżej

-kwestia definicji ale stawiam na tak

-tutaj też kwestia definicji ale generalnie stawiam na tak, w końcu dowód poprawności jest dosyć mechaniczną rzeczą i niejednokrotnie sprowadza się do pokazania, że otrzymuje się zakładany wynik

 

W kwestii rozwiązywania nowych problemów, to bardzo dużo zależy od postawionych założeń co dany układ SI ma robić. Obecnie przeważająca większość algorytmów ma zadanie rozwiązywać pojedynczy problem np. rozpoznawanie obrazów, czy ich klasyfikacja, analiza danych pod kątem wyszukiwania wzorców itp. Po prostu są nastawione na komercyjne użycie w konkretnych celach, a nie jako uniwersalny układ od wszystkiego. Tyle że to ograniczenie narzucone przez programistę, czy zamawiającego sieć neuronową.

 

Przyjrzyjmy się też czym jest kreatywność czy dochodzenie do rozwiązania nowego problemu.

Jeżeli dostajesz zadanie, to masz określony cel, wynik jaki ma zostać osiągnięty. Pierwsze co robisz, to szukasz wzorców, czy już się spotkałeś z takim problemem i wiesz jak go rozwiązać, a może miałeś tylko podobne, które wystarczy dostosować. W przypadku jak nie było nic nie dopasowałeś, to próbujesz rozgryźć problem stosując podstawowe mechaniki i wiedzę ogólną z tej działki. A co zrobisz jak nie masz kompletnie wiedzy (np. jako prawnik dostaniesz zadanie zsyntetyzowania nowego włókna polimerowego)? Ano będziesz tak samo głupi jak SI rozpoznające znaki drogowe rzucone do analizy giełdy rynku rolniczego :E

Nie masz wystarczającej wiedzy, to nie ruszysz zadania, musisz najpierw nauczyć się z czym masz do czynienia, jak się za to zabrać itp. Tak samo będzie z SI, musi się nauczyć nowych mechanizmów, zdobyć wiedzę.

 

Ciekawiej jest z tworzeniem czegoś nowego mając wiedzę. Przykładasz znane wzorce, sprawdzasz czy pasują i dają poprawne wyniki. Jak nie, to dajesz inne lub modyfikujesz według innych wzorców. I tak w kółko aż do osiągnięcia zamierzonego celu lub poddania się.

Pod tym względem algorytmy nie są wcale tak do tyłu względem nas. Najbardziej w pamięci utkwiły mi dwa przykłady zastosowania algorytmów ewolucyjnych/genetycznych:

-projektowanie układów elektronicznych - z tego co pamiętam, to układy zasilania lub wzmacniaczy, niestety źródła nie pamiętam

-ewolucja sposobów poruszania się -

nie wgłębiałem się ale zakładam, że zdefiniowane zostały tylko podstawy typu połączenia między elementami i możliwy ruch między nimi, to że "żyjątka" pełzały, turlały się, skakały itd. to już wynik pracy algorytmu.

W przypadku tego typu algorytmów kreatywność rozwiązań zależy jak dobrze zdefiniuje się postać osobnika populacji, ile swobody się zostawi, ile możliwości z tego wyniknie. Reszta to już bardzo mechaniczne "mieszanie w kotle" i sprawdzenie co wyszło.

 

Na koniec wyobraź sobie, że masz setki czy tysiące sieci neuronowych, które mają pojedyncze zadania (np. rozpoznawanie w obrazach kółek, liter, harmonicznych w dźwiękach,...), do tego możliwość tworzenia nowych sieci (np. przy pomocy wspomnianych algorytmów genetycznych) oraz modyfikacji i reedukacji istniejących. Dodatkowo jakaś baza danych wzorców i wiedzy.

W pewnym momencie zaawansowania i wydajności nie będziesz w stanie rozróżnić pracy takiego układu od pracy mózgu.

 

----------------------

 

W kwestii zagrożeń kosmicznym śmieciem, to spokojnie mamy środki, żeby się bronić. Główną przeszkodą są zasoby energetyczne i geopolityczne. Słowem trzeba by się ogólnoświatowo dogadać, stworzyć odpowiednie radary kosmiczne, dostosować broń atomową do niszczenia asteroid. Z mocnym przymrużeniem oka polecam anime Stratos4, gdzie sprzęt zimnowojenny został dostosowany do niszczenia meteorów ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
' date='06 Wrzesień 2019 - 17:52' timestamp='1567785171' post='15621514']

Wracając do ogółu SI i programowania.

Czy da się zbudować prawdziwe SI, to kwestia przyjęcia, czy nasz (i inne zwierzęce) mózg działa deterministycznie, czy to tylko jeden skomplikowany algorytm, czy jednak jest ten boski pierwiastek, dusza, świadomość itp.

Jeżeli mózg działa w pełni deterministycznie, to w odtworzeniu jego działania hamuje nas jedynie poziom skomplikowania jego budowy oraz ogarnięcia stanu początkowego (np. pogodę bylibyśmy w stanie idealnie prognozować ale nie mamy pełnych i dokładnych danych o stanie)

 

1 pytanie - co to jest prawdziwe SI, jak już wcześniej mówiliśmy z Jagularem. Mamy definicję jak powyżej ( że uczy się, że pamięć, że nowe problemy ) i mamy też romantyczną wizję SI. Że zacznie nas kochać, nienawidzić itp. problem jest taki, że zgadzamy się raczej, że samej SI nie mamy w ogóle. Nie mamy więc desygnatu, ale tworzymy definicje. Np i git.

 

Pierwszy problem jaki mi się nasunął przy tym deterministycznym działaniu ludzkiego mózgu to Wybaczanie. Albo jego brak. Jak podpiąć to do algorytmu? Ogarniamy stan początkowy jak temperaturę i tak dalej. Ale jedna osoba zachowa się inaczej, gdy zostanie poproszona np. o przysługę przez osobę, do której żywi urazę. Jedna zapomni urazę w miesiąc i pomoże, a druga nie zapomni przez 10 lat i odmówi pomocy. Jak zaprogramować urazę? Pytam serio - ja nie mam pojęcia. Ty ogarniasz programowanie i pewnie jakieś teorie. Losowość? Nie wiem.

 

Z tym na "na koniec" wyobrażam sobie po prostu Inteligencję Zbiorową. Wiele współistniejących sieci, baza danych i centrum przetwarzania danych znajdujące się poza platformą z którą dochodzi do interakcji. Taka SI w chmurze.

 

Tylko znowu - czy to byłaby prawdziwa SI?

 

Z mocnym przymrużeniem oka ode mnie - W serii Mass Effect istnieją Wirtualne Inteligencje - Tacy odpowiednicy asystenta Google. Istnieją też Wirtualne Konstrukty ( Było takie coś też w Ja, Robot

) Jest to coś pomiędzy WI a SI. Taki konstrukt psychologiczny danej osoby mający jej cechy zachowania i fragmenty pamięci. SI natomiast odróżnia od innych tworów fakt, że SI mogą zmieniać swój podstawowy kod - ale przede wszystkim - decydują się na jego zmianę.

 

Też w sumie ciekawy pogląd na sprawę.

 

P.S - Ruscy nie byli gotowi na Czelabińsk

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do zdefiniowania SI można użyć definicji inteligencji, za Wikipedią:

zdolność do postrzegania, analizy i adaptacji do zmian otoczenia. Zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w różnych sytuacjach. Cecha umysłu warunkująca sprawność czynności poznawczych, takich jak myślenie, reagowanie, rozwiązywanie problemów

za SJP PWN:

zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w sytuacjach nowych

Czyli SI to sztuczny twór (program, urządzenie itp.) posiadający wymienione wyżej cechy.

Emocje to specyficzne reakcje mózgu na bodźce zewnętrzne, nie widzę przeszkód, żeby SI nie mogła ich posiąść.

Końcówki tego akapitu nie rozumiem o co ci chodzi :hmm:

 

 

Popełniasz błąd, sądząc że dwie osoby mają identyczny mózg. To jest nierealne, każdy jest unikatowy i nawet w danej chwili mając identyczny stan wejściowy, nie wywoła identycznej reakcji.

Bardzo upraszczając, to masz dwa algorytmy, które zasilasz tymi samymi danymi. Wynik będzie inny.

 

 

To czy SI będzie zamknięta w małym pudełku, czy będzie przetwarzana w chmurze nie ma znaczenia dla istoty jej działania i skomplikowania budowy.

Jeżeli będzie spełniać cechy inteligencji, to będzie.

 

 

Nie czarujmy się, nikt obecnie nie jest gotowy na tego typu zdarzenia.

Po pierwsze obszar obserwacji kosmosu jest bardzo dziurawy.

Po drugie obiekt rozmiarów kilkudziesięciu metrów trudno wypatrzeć jak nie wie się gdzie spojrzeć. Ciężko też mi powiedzieć jaki zasięg dla takich wielkości ma sprzęt obserwacyjny, ile czasu minie od wykrycia i określenia trajektorii, do wejścia w atmosferę.

Po trzecie nie ma rozlokowanej broni gotowej niszczyć takie obiekty.

Mamy środki i technologię ale nie są przygotowane i zastosowane w takim celu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Brakowało Cię w tej dyskusji.

 

Tak, to sensowne podejście. Definicja na podstawie tego, co nazywamy inteligencją. Doszliśmy jednak do wniosku, że SI ( o ile powstanie ) w pewnym momencie będzie bardzo od nas różna. Zarówno dla tego, co zdefiniujemy umownie jako inteligencję jak i dla samego pojęcia sztucznego bytu. Będzie wymagał po prostu nowego rozróżnienia już na etapie ontologii. Mój link. Dopiero wtedy można w pełni założyć, czy SI , istnieje, jest czy jest po prostu rodzajem, nie wiem - bytu matematycznego, kolektywnego, złożonego z wielu sieci, który istnieje przykładowo tylko w określonych warunkach. Gdy się komunikuje, próbuje rozwiązać problem czy modyfikuje algorytm. Poza tymi czynnościami - nie ma inteligencji, bo nie ma bytu.

 

Śmiej się, ale to niegłupia rozkmina wobec czegoś, co operuje na kodzie binarnym, którego przetwarzanie (praca) nie jest wynikiem inteligencji, a jej rezultatem.

 

Końcówka akapitu - chodziło mi o to, czy da się napisać algorytm, który imitowałby preferencje. Coś co się lubi albo nie lubi.

 

 

' date='06 Wrzesień 2019 - 22:29' timestamp='1567801794' post='15621774']

Popełniasz błąd, sądząc że dwie osoby mają identyczny mózg. To jest nierealne, każdy jest unikatowy i nawet w danej chwili mając identyczny stan wejściowy, nie wywoła identycznej reakcji.

 

Ależ dokładnie chodziło mi właśnie o to, że nie mają identycznie działających mózgów. W identycznym stanie początkowym - dwie różne osoby mogą podjąć odmienne decyzje. Jak przenieść to na SI? Algorytmem losowym?

 

_______

 

Nie jestem pracownikiem NASA, ale wyrażę głębokie wątpliwości co do tego "mamy środki". W porządku - Przywiązać Nuka do jakiejś rakiety i pizdnąć w asteroidę. Z tym, że obecne symulacje dla "Meteorytu Dinozaurów" zakładają raczej detonację obok asteroidy. Jeszcze na dziesiątki tysiący kilometrów od ziemi.

 

Żaden obecny pocisk typu Minuteman, Topol ani Szatan nie mają takiego zasięgu. To raz. Dwa, że mniejsze obiekty pędzące z prędkością Mach 30 nie są proste do zestrzelenia.

 

Powiedziałbym, że mamy materiały/zasoby żeby się bronić. Ale nie gotowe środki. I nie chodzi nawet o wczesne wykrywanie, ale własnie sam element zniszczenia zagrożenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na filozofię nie mam siły. Na pewno ciekawy temat ale trochę za ciężki dla mnie na tą chwilę.

 

Mając początkowo tą samą strukturę sieci neuronowej i różnie ją trenując uzyskamy inne wyniki. Nawet bliźniaki jednojajowe nie są identyczne, mimo bardzo zbliżonych warunków rozwoju.

Jeżeli zreplikujesz gotową strukturę, to obie powinny reagować tak samo. Jednak jak dasz czas na kolejne zróżnicowane trenowanie, to możesz dostać już różne wyniki.

Myślę, że jak nie będzie wskazań do losowości w pracy mózgu, to nie będzie trzeba jej wprowadzać w SI. Wystarczy różnicowanie struktury przez zróżnicowany trening (tam można dać elementy losowe), żeby otrzymać różne "osobowości".

 

Jak najbardziej da się napisać algorytm imitujący preferencje. Oddzielna kwestia czy będzie przekonujący ;)

W przypadku sieci neuronowych jednak ciężko mówić o algorytmie w klasycznym rozumieniu wypisania punkt po punkcie co ma się dziać. To sieć połączonych neuronów, gdzie można zadać ich liczbę, liczbę poziomów sieci itp. Sednem nauki jest dobór wag (parametryzacja funkcji progowej) w każdym neuronie, a przy bardziej zaawansowanych algorytmach uczących można też dodać mechanizmy dobierające liczbę neuronów, ich połączeń i liczbę poziomów sieci.

 

 

Zgadza się, że nie jest to proste, zwłaszcza że nie mamy gotowych systemów.

Głowicę można umieścić na innych rakietach niż dostosowanych do ICBM, TBM itp. Można odgrzebać Saturna, Aresa, wykorzystać Falcona Heavy, a w niedalekiej przyszłości BFR. Potrzeba czegokolwiek co udźwignie głowice i nada wystarczającą prędkość do opuszczenia ziemskiej orbity. Alternatywa, to zgromadzenie zasobów na orbicie, skąd łatwiej sięgnąć dalej.

 

Zgadzam się, mamy możliwości ale nie gotowe systemy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Filozofia jest tutaj tylko i wyłącznie dla potrzeby przypisania SI cech o których pisałeś wyżej. Nie da się wpleść zdolności rozumienia, uczenia się i szeroko nawet rozumianej świadomości w próżnię. Trzeba określić obiekt, któremu je przypiszemy. Innymi słowy - uznać najpierw jego byt a następnie uznać, że posiada inteligencję.

 

Rozumiem teorię o której piszesz ( w sensie - w teorii rozumiem, bo nie potrafię projektować takich sieci ) ale jednocześnie uważam, że to po prostu może nie "banglać" z tym co będzie miało określoną bytność i inteligencję pod nazwą SI.

 

Dlaczego?

 

Różnicowanie struktury sieci przez zróżnicowany jej trening. W pewnym momencie przecież taki trening doprowadzi do sytuacji powstania opcji optymalnej. Dającej najlepsze wyniki w najbardziej efektywny sposób. Co wtedy zrobi taka SI? Powinna się przeprogramować? Skoro ma inteligencję to w pewnym momencie to zrobi. Będzie to skutkowało upodobnieniem się do innych sieci/zbiorów sieci, które jeszcze nie znalazły optymalnego treningu lub znalazły go wcześniej.

 

Będziemy rozróżniać sieci (SI) głupsze i mądrzejsze? To możliwe i znajduje uzasadnienie pod pojęciem mocy obliczeniowej. Ale z drugiej strony - taką prawdziwą różnicą pomiędzy SI o których wspominasz wyżej ( zróżnicowane trenowanie ) będzie czas, jaki jedna i druga potrzebuje na osiągnięcie optymalnego trybu liczenia.

 

Kolejny raz podnoszę też tezę, że SI absolutnie nie musi być możliwa do "pokrycia" przez kod binarny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Moja ignorancja(?) polegająca na założeniu, że gotowy wafel z 70 rdzeniami graficznymi GV100 jest z technicznego punktu widzenia - bardzo podobny do dzieła Cerebasa.

(...)

Ja po prostu na ten chip patrzę i myślę że ta prezentacja była trochę zbyt hurra-optymistyczna.

1) WSE jest zupełnie niepodobny do wafla pełnego GPU. Te drugie są zbiorem zupełnie oddzielnych procesorów. Każdy z tych procesorów jest praktycznie bezużyteczny bez zewnętrznej pamięci, bo ma o kilka rzędów wielkości mniej lokalnej pamięci (cache) niż WSE.

Każdy trzeba oprogramować oddzielnie w stylu (zmodyfikowanej) maszyny von Neumanna (instrukcje oddzielnie od danych, ustalony z góry sekwencyjny przebieg programu...).

GPU są doskonałe w obliczeniach:

- kosztowych obliczeniowo

- o łatwym do przewidzenia przebiegu

- używających na raz stosunkowo mało danych (inaczej trzeba sięgać do zewnętrznej pamięci, a to trwa długo)

 

WSE jest sposobem na zlikwidowanie tego ostatniego wymagania kosztem specyficznej architektury i specyficznego stylu programowania. Oczywiście, że to cud programistyczny - sądzę, że sieci neuronowe są dziedziną, w której akurat najłatwiej dostosować tradycyjne algorytmy do architektury dataflow. W renderowaniu gier albo sortowaniu list taka architektura chyba po prostu nie może być lepsza niż GPU albo CPU.

 

2) oczywiście, że była hurraoptymistyczna - każda prezentacja każdego "startupu" taka jest :D (chociaż nie wiem czy Cerebras się jeszcze kwalifikuje jako startup).

 

 

Myślę, że jak nie będzie wskazań do losowości w pracy mózgu, to nie będzie trzeba jej wprowadzać w SI. Wystarczy różnicowanie struktury przez zróżnicowany trening (tam można dać elementy losowe), żeby otrzymać różne "osobowości".

O ile wiem, to już teraz tak działa: trenowanie np. ResNet dwa razy na tym samym zbiorze przykładów będzie przebiegało różnie, chociaż powinno dać niemal identyczne wyniki.

 

 

Kolejny raz podnoszę też tezę, że SI absolutnie nie musi być możliwa do "pokrycia" przez kod binarny.

Wg najlepszego stanu mojej wiedzy w układzie nerwowym występują zjawiska kwantowe, a ich wpływ na działanie układu nerwowego nie jest pomijalny (wikipedia). Jeśli tak jest, to być może nie da się zasymulować wiernie tych samych procesów, co w mózgu, ale to nie znaczy, że nie można zreprodukować ich efektów.

Sądzę, że dla większości problemów związanych z SI nie ma znaczenia, czy dana SI już jest "prawdziwa" albo "uniwersalna".

Jeśli boimy się Skynetu i terminatorów, to ważnym kryterium jest tylko to: czy SI ma broń i zdolności taktyczne i strategiczne przerastające ludzkie? Jeśli chcemy wiedzieć, czy SI ma duszę, to ważnym kryterium jest to: czy jesteśmy w stanie rozpoznać i nabrać przekonania, że ma lub nie ma duszy? I tak dalej i tak dalej - dla każdego problemu można wyobrazić sobie SI, której ten problem dotyczy, a jednak nie uznamy jej za człowieka albo nad-człowieka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1) WSE jest zupełnie niepodobny do wafla pełnego GPU. Te drugie są zbiorem zupełnie oddzielnych procesorów. Każdy z tych procesorów jest praktycznie bezużyteczny bez zewnętrznej pamięci, bo ma o kilka rzędów wielkości mniej lokalnej pamięci (cache) niż WSE.

zpoznać i nabrać przekonania, że ma lub nie ma duszy? I tak dalej i tak dalej - dla każdego problemu można wyobrazić sobie SI, której ten problem dotyczy, a jednak nie uznamy jej za człowieka albo nad-człowieka.

 

Wiem o tym. Ale z drugiej strony - czym niezwykłym w 2019 roku jest 300 mm wafel z naniesioną litografią?

 

Teoretycznie - Wafel z 70 sztukami gotowych GPU ( wiadome - robi się go po to, żeby te rdzenie wyciąć ) dajesz w całości kulki BGA, zasilasz ten układ i.... Co?

 

Wiadome, że nic na tym nie zrobisz, nie ma magistral, nie ma wystarczająco dużo Cache - rozumiem. Chodzi mi tylko o stronę techniczną. Że plaster 300 mm, z litografią i podpiętym na żywca zasilaniem.

 

Projekt tej WSE jest imponujący, ale to przede wszystkim geniusz programowania. Omijanie programowe skaz, projekt połączeń i rdzeni, który nie wymaga rozdzielenia ich by WSE działała po zaprogramowaniu. Same technikalia - po prostu mnie to nie porywa. Jasne - mówi to ktoś, kto nie umiałby zaprojektować takiego układu a tym bardziej go zaprogramować. Wypowiadam się po prostu pod kątem podstawowej znajomości ograniczeń Stepperów, długości fal, masek.

 

Dwa - to po prostu jeden koncept. Alternatywą jest wycięcie tych rdzeni tworzących WSE Cerebasa (lub klastra rdzeni) i zrobienie z tego układu po prostu SOC. W miarę potrzeby dołączyć kolejne z zewnętrzną pamięcią i kontrolerami. Oba koncepty mają swoje ograniczenia. Pomijając jednak te ograniczenia - który projekt jest bardziej imponujący i nadający się na newsa?

 

 

Wszystko fajnie, ale Cerebas ma IMO więcej ograniczeń, niż pożytków z takiego rozwiązania. Widocznie jednak tak wąskie spektrum zastosowań - mimo wszystko wystarcza, żeby ktoś to kupił/używał.

 

Sądzę, że dla większości problemów związanych z SI nie ma znaczenia, czy dana SI już jest "prawdziwa" albo "uniwersalna".

Jeśli boimy się Skynetu i terminatorów, to ważnym kryterium jest tylko to: czy SI ma broń i zdolności taktyczne i strategiczne przerastające ludzkie? Jeśli chcemy wiedzieć, czy SI ma duszę, to ważnym kryterium jest to: czy jesteśmy w stanie rozpoznać i nabrać przekonania, że ma lub nie ma duszy? I tak dalej i tak dalej - dla każdego problemu można wyobrazić sobie SI, której ten problem dotyczy, a jednak nie uznamy jej za człowieka albo nad-człowieka.

 

Ale to nie jest pewne kryterium poznawcze. Wtedy SI wciąż pozostanie w sferze filozofii. O ile nie ma z tym problemu w przypadku duszy, reinkarnacji, istot transcendentnych czy nawet zjawisk paranormalnych - Jak twór będący wynikiem działania przepływu prądu elektrycznego przez układ krzemowy może być definiowany według kryterium uznaniowego? To chyba trochę tak, jakby uznawać czy dany minerał jest magnezytem czy kwarcem poprzez nabranie przekonania, który bardziej go przypomina. Bez ich ważenia, sprawdzania gęstości itp.

 

Filozofia IMO jest i będzie ważnym elementem przy definiowaniu SI. Ale w kategorii bytu, nie funkcjonowania. Uznaniowość w kontekście SI jest niebezpiecznie blisko stanu w którym kilku graczy próbuje zgadnąć czy gra przeciwko innej grupie graczy czy komputerowym NPC-om.

Edytowane przez PrimoGhost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Primo, też nie umiem projektować sieci neuronowych, bo się tym nie zajmuję ;)

Łatwiej mi się odnieść do algorytmów genetycznych, z którymi miałem kontakt, a tam najczęściej nie dochodzi do znalezienia idealnego rozwiązania. Przeważnie jest to lokalne maksimum, raz bliższe, a raz dalsze od ideału (ta implementacja którą robiłem zakładała losowanie na różnych etapach działania programu, od wylosowania początkowego pokolenia, po losowanie miejsca cięcia przy mieszaniu kodu genetycznego osobników). Często też dochodziło do sytuacji, gdzie dalsza ewolucja nie postępowała (wynik ujednolicenia się populacji po x pokoleniach).

 

Jak jest w przypadku sieci neuronowych ciężko mi powiedzieć, bo nie znam metod treningu, czyli jak dokonuje się modyfikacji parametrów sieci. Przypuszczam, że jakiś element losowy jest zastosowany, więc nawet na tym samym zbiorze można uzyskać różne wyniki po ustalonej liczbie iteracji.

 

Tu dochodzimy do sedna sprawy czym algorytmy SI są, a są w moim przekonaniu implementacją algorytmów Monte Carlo, czyli rodziny alg. probabilistycznych. Nie dają one idealnego wyniku ale stosunkowo szybko dają suboptymalne. Po drugiej stronie są alg. Las Vegas, które dają idealny wynik ale czas dojścia do niego jest nieokreślony, skrajnym przypadkiem jest metoda brute force łamania szyfrów, gdzie czas znalezienia klucza (dla sensownych algorytmów i długości klucza) to są miliardy lat.

 

Kolejna sprawa, to jak określić czy dana sieć osiągnęła idealne rozwiązanie.

Można powiedzieć, że np. poprawnie klasyfikuje 100% próbki uczącej i sprawdzającej ale to nie wyczerpuje wszystkich możliwości (no nie da się, nie wygenerujesz wszystkich możliwości), zawsze może się znaleźć próbka, dla której sieć zawiedzie.

Jeżeli mówimy o (sub)optymalnym rozwiązaniu, np. 97% poprawnych klasyfikacji, to takie kryteria może spełniać wiele różnych sieci.

 

 

Odnośnie bytów, to według mnie już plątanina kabli może nim być.

Pod tym względem uznaję, że np. miasto jest bytem inteligentnym. Jest to pewna zbiorowa świadomość wynikająca z działania jego mieszkańców. Tak samo Internet, jest to na tyle duża społeczność, że coś się na pewno wykluło co można nazwać bytem inteligentnym. Działania jako całości są zupełnie różne od działalności jednostek.

Oczywiście ciężko mi przedstawić punkt po punkcie spełnienie kryteriów, bo to dość odmienne organizmy od nas, no i brakuje mi wiedzy i narzędzi, żeby to opisać. Być może jest to już badane i gdzieś opisane, nie wgłębiałem się i nie szukałem.

 

@mbrzostek

Zjawiska kwantowe raczej nie są problemem. Można na chama dać funkcję rand(), a można sięgnąć po sprzęt, czyli komputery kwantowe lub inne układy działające na podobnej zasadzie.

 

Oddzielne zagadnienie, to czy faktycznie mają wpływ na cokolwiek. Na razie nie wgłębiłem się w tekst, no i za słabo znam biologię, żeby coś sensownego argumentować ale kiedyś (trochę lat już minęło) miałem okazję być na spotkaniu o SI, gdzie byli między innymi ludzie z PAN. Też podniosłem kwestię, że niedeterministyczne przejście z fizyki kwantowej do klasycznej może mieć wpływ na pracę mózgu. Z jednej strony dostałem odpowiedź, że jeżeli jest losowość, to można to symulować randem, z drugiej że próg neuronu działa statystycznie, potrzebuje odpowiednio dużego pobudzenia, żeby przekazać sygnał dalej, pojedynczy kwant nie jest w stanie tego zrobić.

Osobiście czuję, że to będzie coś pomiędzy czyli chaos deterministyczny. Drobne odchyłki nie mają chwilowego znaczenia dla układu ale w dłuższej perspektywie prowadzą do odmiennego stanu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Ale tak bylo od wiekow to na prawde zejdz na ziemie i nie skladaj klockow. Wyplata opodatkowana a podatek od nieruchomopsci to calkowicie odmienne tematy. No masz racje na 2024 co wychodzi na duzy + bo drugi spada na 12% do 85K
    • @kola01Ok, dzięki za ogólne wyjaśnienie jak działają chłodzenia i stwierdzenie czy moje chłodzenie, którego nigdy w życiu na własne uszy nie słyszałeś jest ciche lub głośne😆 Bardzo wiele to zmienia w moim życiu, dobra robota👏  Jak "głośny" jest Fortis 5 dual przy swoim maksymalnym RPM 1400 w porównaniu z różnymi aio możesz przeczytać tutaj:  https://www.purepc.pl/test-silentiumpc-fortis-5-i-fortis-5-dual-fan-coolery-dla-procesorow-z-dobrym-stosunkiem-ceny-do-wydajnosci-i-cichymi-wentylator?page=0,7 Może uwierzysz 
    • Nic sobie nie pomyliłem. Z premedytacją nie użyłem nazwy gdyż mowiny o tanich asrocakch, model nie ma znaczenia. Ogólnie beka bo gdy mówię o karcie dźwiękowej narracja zmieniana jest na taką że dobra karta dźwiękowa nie jest potrzebna, można kupić inna, można kupić dac itp (TO SĄ DODATKOWE KOSZTY). Jak mówię o sekcji zasilania to narracja brzmi że pomylelem się z modelem płyty. Cały dowcip polega na tym że to 400zl to nie wiele jak na różnice w tym co dostajemy w tych mobasach. Tzn lepsza dźwiękowka, lepsza sekcja zasilania, lepsze wyposażenie. OGÓŁEM LEPSZA PŁYTA. Jeśli komuś wystarcza biedny kodek audio czy biedna sekcja zasilania to fajnie ale niech nie mówi że ta płyta jest dobra. Jest WYSTARCZAJĄCA dla niego i to wszystko. To tak jak z tymi bułkami z biedronki, dla kogoś są wystarczające, ja wolę kuoic 3x droższe i nie jest odnrazanego barachła. Argumenty że za 900zl płyty też mają kiepskie kodeki audio jest śmieszny bo wystarczy poszukać w specyfikacji technicznej i znaleźć taka która ma normalne audio, wyposażenie czy co tam nas interesuje. Nadal nikt nie odpowiedział, dlaczego nie polecają tanich asrockow na am4? Bo różnica pomiędzy dobrą płyta jest po prostu mniejsza i mówimy o mniejszej skali.  Edit: teraz spojrzałem na morele, nowy tomahawk kosztuje 871zl. Różnica pomiedzy "wystarczającymi" asrockami zaczyna topnieć wiec za niedługo ten post będzie nieaktualny bo i tak wszyscy będą polecali MSI. Obecnie to już 350zl czyli żaden pieniądz. 
    • Masz calkowita racje. 1 kwietnia lece na Florida zakupic dzialke i zaczac budowe domu. Nie dosc ze tax ma sprzedaz jest 6% to jak dom bedzie jako glowny nie bede placil stanowego podatku od zarobkow w moim wypadku to 10.75% ze stanu NJ. Tym sposobemdom wybuduje sie z tax z NJ.
    • No nie wiem jakim cudem ale w pit masz ustalone progi procentowe od zarobkow/ Kosz pracodawcy pracownika nic nie obchodzi bo to dwie oddzielne dzialalnosci. No to najprostrza droga. Z tego co sie orientuje to jak dobrze sie uczysz to studia nadal w Polsce sa bezplatne?.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...