Forum PCLab.pl: W oczekiwaniu na CyberPunka 2077 - Forum PCLab.pl

Skocz do zawartości

Otwarty

Ikona Najnowsze pliki

  • (4 Stron)
  • +
  • 1
  • 2
  • 3
  • 4
  • Nie możesz rozpocząć nowego tematu
  • Nie możesz odpowiadać w tym temacie

W oczekiwaniu na CyberPunka 2077 ... to nas czeka ? Oceń temat: -----

#21 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 23 Sierpień 2019 - 22:03

Zobacz postPrimoGhost, o 23 Sierpień 2019 - 17:45, napisał(a):

Tutaj jest problem. Bo zgodzę się, że z czasem ( stop, tysiąc, eon lat ) wszystko może być możliwe. Jasne. Tylko jednocześnie myślę, że ludzie nie mają tyle czasu. Stąd te dwa stanowiska się wykluczają. Naprawdę uważam, że ludzkość nie dotrwa do tego okresu, który można nazwać odległą przyszłością. Taką, gdzie to wszystko będzie możliwe. I nie chodzi mi nawet o to, że wszyscy nagle odpalą atomówki, tylko po prostu każda cywilizacja w przeszłości osiągała swój szczyt, a potem regres. Cywilizacja globalna jest inna?

No cóż, czarnowidzenie jest powszechne od tysięcy lat. Od tysięcy lat cywilizacja nam schodzi na psy, wszystko się robi gorsze, młodzież nie ma szacunku do rodziców i pali fajki po kątach :)
Czarnowidzenie jest cechą, która jest z nami od kiedy wyszliśmy z błota i dalej jej się nie pozbyliśmy. W końcu dalej jesteśmy zwierzętami, tylko ze samoświadomością i bardzo rozbudowanymi narzędziami.

Cywilizacje osiągały swoje szczyty, a potem upadały: tak, jest to powszechne. Jest nawet obecne, przykładowo, w religii staro(?)hinduskiej: koncept cykli (niektóre po setki miliardów lat) rozwoju i upadku, rozwoju, upadku. Obecnie, według tej religii, jesteśmy na etapie upadku :)
Ale jest pewne ale: cywilizacje lokalne powstawały i upadały. Lokalne...globalnie człowiek się coraz bardziej rozpanosza.

Zobacz postPrimoGhost, o 23 Sierpień 2019 - 17:45, napisał(a):

Wystarczy jedna bakteria, jakiś szalony eksperyment naukowy, globalny kataklizm, walka o ograniczone zasoby w obliczu przeludnienia... Ludzkość nie musi zginąć. Wystarczy, że coś ją cofnie o całe dekady rozwoju. Jest to możliwe? No jest. Jakbym miał zgadywać - obstawiałbym, że ludzie wykończą się sami. Chociażby bronią biologiczną, która nie zadziałała zbyt dobrze. Albo zadziałała właśnie zbyt dobrze.

Koncepcja regresu jest oczywiście obecna, i to w wielu odmianach: od regresu wywołanego przez jakieś tragiczne wydarzenie, do regresu "samoograniczenia", przykładowo religijnego*. Ale czy to się wydarzyć musi? Oto pytanie.

Ludzie wykańczający się sami: do tej pory jedną z wyróżniających się cech ludzi była genialna umiejętność dostosowania się do sytuacji i środowiska. Zwierzęta na dwóch nogach, które są fizycznie słabowite, zużywają dużo energii na podtrzymanie temperatury ciała, są praktycznie gołe, nie są w stanie przetrwać bez swoich narzędzi na większości powierzchni planety, tę planetę podporządkowały sobie. Wygląda na to, że nie jest aż tak łatwo nas wybić, sami też mamy z tym problem :E

Przeludnienie: to jest jeden z globalnych żartów. Popatrzmy na tę planetę, większość z jej powierzchni jest pusta. Poza tym, posiłkując się danymi statystycznymi od np. twórców fundacji Gapminder, przeludnienie jest niemożliwe, gdyż nie istnieje coś takiego, jak niezahamowany rozwój populacji ludzkiej. Chociażby przez to, że ludzie nie mają jednak ochoty mieć dziesięciorga bachorów, jeżeli nie muszą. A coraz mniej musi. To nie jest przyszłość. To jest teraz.

Podobną koncepcją niezbyt realnie możliwą do wystąpienia jest idea długotrwałej zimy postatomowej, ale to już inna historia.

Zobacz postPrimoGhost, o 23 Sierpień 2019 - 17:45, napisał(a):

Inteligencja w kontekście SI to raczej samoświadomość. Takie postawienie przed robotem lustra i powiedzenie mu - Jesteś. A on to zrozumie. Z tym, że ta samoświadomość to raczej taki uniwersalny aksjomat ściśle związany właśnie z pojęciem SI. Bo SI to póki co po prostu zwykłe słowo, bez desygnatu który istnieje. Kiedyś takim słowem bez desygnatu była antymateria.

Dobrze, to jest trudniejsze. Może być problem w ogóle w ocenie, w jaki sposób definiować swoją samoświadomość mogłyby byty nie związane z nami. Hipotetyczne maszyny myślące mogą być inne. Bardzo, bardzo inne.

Zobacz postPrimoGhost, o 23 Sierpień 2019 - 17:45, napisał(a):

Z digitalizacją mózgu mam na myśli bardziej to, że kod binarny ( czy tam następca kodu binarnego, szeroko rozumiane słowo maszynowe ) po prostu nie nadaje się do przeniesienia procesów myślowych i adaptacyjnych mózgu. Podobnie zresztą, jak nie wierzę, że w niektórych religiach Dusza ludzka może pełnić rolę takiego.... eterycznego dysku twardego, który oddziela się w chwili śmierci od ciała i dalej egzystuje pod postacią osoby, którą.... zamieszkiwał? Pomimo oddzielenia go od połączeń nerwowych, chemii, wad/cech mózgu (jako organu) który to tworzył świadomą istotę.

Bardziej przekonywałoby mnie kopiowanie mózgu. Można przecież stworzyć wirusa i go ożywić. Normalnie pokleić parę odcinków DNA, zalać glukozą a on zacznie się ruszać. Jak auto. Weźmiesz karoserię, silnik, połączysz wszystko razem i będzie jeździć.

Kod binarny, według chociażby teorii kosmosu jako komputera, jest w stanie, przy odpowiedniej rozdzielczości danych, pokryć dużo. Mamy też kiełkującą inną logikę obliczeń: świat kwantowy i komputery kwantowe, w których obliczenia są...eee...nieskończenie różnorodne, a wynik jest zawsze podawany w kontekście prawdopodobieństwa.

Mamy jednak właśnie problem z definicją i lokalizacją tej duszy, świadomości, jaźni (i podobne nazwy). Są teorie mówiące o tym, że jaźń/dusza to coś więcej, niż stan chemiczno-atomowy mózgu. Coś subtelniejszego, coś na poziomie kwantowym. Mamy też teorie o tym, że jaźń może być kolejnym...eee...wymiarem.

Generalnie, to pod wieloma względami stoimy od tysięcy lat w miejscu. Mamy te fajne zabawki, ale społecznie i psychologicznie dalej jesteśmy zwierzętami, których głównym celem jest zeżarcie wszystkiego wokół, wysranie pozostałości, gromadzenie materii i wyprodukowanie maksymalnej ilości potomków. Pod tym względem nie różnimy się zbytnio od jakichś tam ameb.

Żeby dokonać skoku, oprócz spraw technicznych typu dostęp do duuużej ilości energii (o tym pewnie też film nie wspomniał), musimy najprawdopodobniej zmienić siebie. Może w innych ludzi. Może w postludzi?
Musielibyśmy przestać pożerać wszystko wokół dla idei pożerania wszystkiego wokół. Musielibyśmy przestać bawić się w kretynizmy wojen wewnątrz gatunku - chociaż one są w jakiś sposób usprawiedliwione biologicznie, to jednak może czas przestać być zwierzęciem.
Nasze koncepty społeczne też często bywają kretyńskie: chociażby patriotyzm - przeświadczenie, że ktoś jest gorszy, bo jest zza sztucznie wytworzonej abstrakcyjnej granicy. Koncepcja religii to inna pozostałość świata plemiennego. Itd itp.

*właśnie, religia. Jedna z najbardziej powszechnych na planecie idei. Ona nie radzi sobie z rozwojem i bywa uznawana za czynnik mogący przystopować/ograniczyć ten rozwój.

#22 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 24 Sierpień 2019 - 12:35

Zobacz postjagular, o 23 Sierpień 2019 - 23:03, napisał(a):

No cóż, czarnowidzenie jest powszechne od tysięcy lat. Od tysięcy lat cywilizacja nam schodzi na psy, wszystko się robi gorsze, młodzież nie ma szacunku do rodziców i pali fajki po kątach :)
Czarnowidzenie jest cechą, która jest z nami od kiedy wyszliśmy z błota i dalej jej się nie pozbyliśmy. W końcu dalej jesteśmy zwierzętami, tylko ze samoświadomością i bardzo rozbudowanymi narzędziami.


Bagatelizujesz ten pogląd, sprowadzasz do ironii. Każda istota myśląca ma jakieś wyobrażenie przyszłości. Nawet przypisuje się tą cechę zwierzętom, które gromadzą zapasy na zimę, chociaż tutaj mowa IMO bardziej o instynkcie. W każdej grupie znajdą się jednak jednostki, które będą "czarnowidzami" bez względu na obecną sytuację i dane. Zawsze, każda większa grupa ludzka kreuje poglądy o przeciwnych biegunach wobec tego, czego nie da się obliczyć, zobaczyć, dotknąć, sprawdzić. To coś naturalnego i zgadza się - zawsze takie myślenie będzie z nami.


Ale czy czarnowidztwem jest kreowanie takiego poglądu wobec tego, co działo się chociażby w XX wieku? Kiedy największe umysły świata konstruowały bombę atomową w dużej mierze opierając się na teorii? Nawet Oppenheimer nie wiedział co się stanie podczas detonacji Trinity. Zajara się atmosfera ziemi? Dojdzie do drugorzędnej reakcji rozszczepiania? To będzie koniec świata? Kij wie. Dzisiaj to wiemy. Mamy obliczenia, więcej danych. Ale wtedy? Tęgie umysły tego nie wiedziały...

Ale to przecież początki, mało było wiadome....  10 lat później - detonacja Castle Bravo. Co się wtedy stało...? Co się mogło stać? A podczas testów w górnej atmosferze nad Hawajami?

A 16 lat po Trinity? Ruski Tsar? Też mało było wiadome. Wyrwie dziurę w atmosferze? Wywali nas z orbity? Kij wie. Trzeba spróbować.

A Katastrofa w Swierdłowsku i wywalenie w atmosferę prątków opłucnej odmiany wąglika? Nie chodzi o skalę. Chodzi po prostu o coś, co NIE MIAŁO PRAWA się zdarzyć. [ Dużo przemyślanego teoretyzowania o tym konkretnym rodzaju zagrożenia jest w książce R. Cook-a - Nosiciel. Całkiem fajna. Ostatnio też wyszedł film - Wilcze Echa. oglądnij sobie. Pod kątem motywu - genialny.]

A gaz VX? Jakim cudem takie gówno w ogóle istnieje? A może jest już coś po Updejcie?

Takim wynalazkiem w ciemno była kiedyś atomówka. Jak bardzo nieracjonalny jest pogląd, że za np. 1000 lat urządzenia naukowe jak chociażby zderzacz hadronów nie będą miały dość mocy, by wygenerować np. osobliwość o niestabilnym horyzoncie zdarzeń? Głupie? Już dzisiaj się o tym mówi. A za 1000 lat? Taka sama sytuacja jak z Trinity... Możemy...mamy....zrobiliśmy... testujemy?

A przeludnienie wcale nie jest żartem. Bo nie chodzi o obraz Tokio, że jest ludź na ludziu a reszta ziemi jest "pusta". To głupi pogląd. Chodzi przecież o pojemność środowiska. Obszar zamieszkiwany przez 20 tys osób na 1 km2 może być dalszy od przeludnienia, jak obszar zamieszkiwany przez 2 osoby na 1 km2. Jeśli tylko pojemność środowiska jest zbyt mała. Technika i dostarczanie zasobów? Spora część środowiska (pustynie, lasy tropikalne) wymaga podobnych nakładów surowców jak baza na księżycu. Kto będzie miał w przyszłości środki, by to robić? Coś jak Arabia Saudyjska... Kilka dopasionych miast a reszta kraju to jedna wielka pustynia.... Pozostaje też kwestia regresu środowiska. Populacja może się zmniejszać, a i tak dojdzie do przeludnienia, gdy pojemność środowiska zmniejszać będzie się szybciej. oglądałeś może Interstellar? Ten motyw z wymierającymi plonami? Pleśnią?

Na liście możliwości daleko umieściłbym religię i samoograniczenie. Według mnie - religia osiąga pod tym kątem najlepsze "rezultaty" gdy ludzie się boją, są nieświadomi. Wiesz... módlmy się, bo Nil nie wyleje, przyjdzie plaga, zniszczy plony. Też patrzę przez pryzmat średniowiecza. Albo nawet trochę dalej?

Dodaj obrazek


Kiedyś bano się nawet prądu elektrycznego... A religia rzadko kiedy nadąża za postępem albo potrafi go wyjaśnić. O ile w ogóle to robi ( Chrześcijaństwo - Potop ) Myślę jednak, że jej wpływ spada. Ludzie, co do zasady - wiedzą jednak więcej o świecie, jak w średniowieczu. Ale nie będę się kłócił. Tak po prostu mi się wydaje.


Samoświadomość - Jak wspomniałem - Nie mamy SI. Ale mamy jej definicję. Coś jak wehikuł czasu - cuś, co przenosi nad w przeszłość/przyszłość. A tą cechą u SI jest samoświadomość ( jak w przypadku Wehikułu - przenoszenie w czasie )

Czy ta definicja jest dobra? No właśnie. Roboty mogą wykazywać samoświadomość na wiele sposobów. A może samoświadomość, to w ogóle złe słowo? Hmm...

Digitalizacja mózgu - No i to jest właśnie problem... Gdzie jest dusza? Gdzie jest samoświadomość? Osoba ciężko chora psychicznie, nieświadoma. Ma duszę? Nie ma świadomości, ale ma mózg, który można zdigitalizować i pokryć kodem ( w przyszłości? ) Która linijka kodu sprawi, że przywróci się samoświadomość? Dodatkowo - w uproszczeniu mózg generuje pewne zachowania. Boli nas noga - jesteśmy drażliwsi. Jest nam gorąco - jesteśmy bardziej nerwowi. A pojęcia fizycznie i chemicznie niezdefiniowane? Jak zazdrość, złość?

Nie ma opcji, by to zamieścić w kodzie maszynowym.

Skopiować nas. 1:1. Wyhodować z zachowaniem ułożenia każdego jednego neuronu i zakola nerwowego. To owszem. Wystarczy moc obliczeniowa i odpowiednio wysoki rząd wielkości na którym działamy. Atom, subatom.

Ale jak przenieść na słowo maszynowe pojęcia, które nie mają nawet fizycznego spektrum.... Gust, upodobania, pragnienia...? Obliczenia kwantowe i ich różnorodność? To wciąż będzie losowanie danych. Nie ma obecnie właściwego typu kodu. Bardzo prawdopodobne, że nigdy go nie będzie.

Dlaczego tak? Bo chociażby stałe fizyczne są.... stałe. Mają gdzieś upływ tysięcy lat. Może minąć ich 5 milionów - a masy spoczynkowe czy stałe magnetyczne - wciąż będą takie same. Ergo - pewnych ograniczeń we wszechświecie po prostu nie da się zmienić. Bez względu na rozwój nauki. Może własnie to, co mogłoby stworzyć SI - prawdziwą SI - jest właśnie taką stałą fizyczną? Która w istniejące postaci tego nie umożliwi? I ten stan nigdy się nie zmieni?

Ten post był edytowany przez PrimoGhost dnia: 24 Sierpień 2019 - 12:44


#23 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 24 Sierpień 2019 - 16:57

No to jedziem, drogi kolego. Skróty cytatów dla zaakcentowania tego, do czego się odnoszę i skrócenia ścian tekstu, które produkujemy :)

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

..W każdej grupie znajdą się jednak jednostki, które będą "czarnowidzami" bez względu na obecną sytuację i dane. Zawsze, każda większa grupa ludzka kreuje poglądy o przeciwnych biegunach wobec tego, czego nie da się obliczyć, zobaczyć, dotknąć, sprawdzić. To coś naturalnego i zgadza się - zawsze takie myślenie będzie z nami.

No właśnie, dlatego też powszechne są wizje upadku i zagłady ludzkości.
Dążenie do przykładania dużej wagi do wizji negatywnych jest naturalne...ale czy zawsze takie musi być? Oczywiście, musimy (dalej) być uważni i ostrożni. Ale czy wizje "aaaaa, wszyscy umrzemy!!!" muszą być dominujące?

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Ale czy czarnowidztwem jest kreowanie takiego poglądu wobec tego, co działo się chociażby w XX wieku?

Wcześniej się działo też wiele złego, mimo to świat przetrwał do tego krwawego wieku XX, a potem do krwawego wieku XXI.

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Kiedy największe umysły świata konstruowały bombę atomową w dużej mierze opierając się na teorii? Nawet Oppenheimer nie wiedział co się stanie podczas detonacji Trinity. Zajara się atmosfera ziemi? Dojdzie do drugorzędnej reakcji rozszczepiania? To będzie koniec świata? Kij wie. Dzisiaj to wiemy. Mamy obliczenia, więcej danych. Ale wtedy? Tęgie umysły tego nie wiedziały...

Nie mam pojęcia co pan Oppenheimer wiedział, a czego nie wiedział. Uważam jednak, że chyba nie miał aż takich wielkich dylematów realnie, skoro jego team dalej się podejmował kreowania tej najbardziej agresywnej broni, jaką nasz świat widział. No chyba że nazwiemy tych wszystkich ludzi, którzy pracowali przy tym, szaleńcami i dewiantami...
Z tego powodu raczej jego późniejszych opowieści i całej otoczki usprawiedliwiająco-sensacyjnej nie biorę na poważnie. Podjeli się stworzenia nowego rodzaju broni? Podjeli. Stworzyli? Stworzyli. Reszta to drugo/trzecioligowe opowieści, których nie możemy sprawdzić.

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Ruski Tsar?

To już kolego była bomba atomowo-propagandowa. Także ewentualne skutki jej detonacji (zagłada planety itd) były propagandą. Poza tym, co teraz, obecnie wynika z tego Tsara? Nic, prawda?

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

A Katastrofa w Swierdłowsku i wywalenie w atmosferę prątków opłucnej odmiany wąglika? Nie chodzi o skalę. Chodzi po prostu o coś, co NIE MIAŁO PRAWA się zdarzyć. [ Dużo przemyślanego teoretyzowania o tym konkretnym rodzaju zagrożenia jest w książce R. Cook-a - Nosiciel. Całkiem fajna. Ostatnio też wyszedł film - Wilcze Echa. oglądnij sobie. Pod kątem motywu - genialny.]

Och, testów na ludziach, ba...na własnych obywatelach, to mocarstwa światowe mają w swoim portfolio dużo. Nie trzeba zaglądać do książek sensacyjnych. Historia nam pokazuje niepokojącą prawdę.
Tylko że to są dalej sprawy lokalne, a dyskutujemy o zagładzie ludzkości.

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Jak bardzo nieracjonalny jest pogląd, że za np. 1000 lat urządzenia naukowe jak chociażby zderzacz hadronów nie będą miały dość mocy, by wygenerować np. osobliwość o niestabilnym horyzoncie zdarzeń? Głupie? Już dzisiaj się o tym mówi. A za 1000 lat?

No widzisz. Czarnowidzenie. A dlaczego wariant "zbudowali, działa, piękne wykresy rysuje i jest stabilne" jest gorszy?

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Przeludnienie...Chodzi przecież o pojemność środowiska.

Przeludnienie jest aspektem ekonomiczno-socjologicznym z domieszką sensacji. Gdybyśmy zachowywali się racjonalnie, nie byłoby tego problemu.

Poza tym, to nie jest mój pomysł. Liczba ludności na świecie jest monitorowana. Stopień wzrostu (delta wzrostu?) maleje. Określono nawet, mniej więcej, do ilu liczba ludzi wzrośnie przy obecnym stylu życia. Nie ma szans na nieskończony wzrost ludzi.

Kolego, żeby w ogóle liczba ludności, w praktycznie idealnym środowisku, wzrastała, praktycznie każda dwójka ludzi musi się połączyć w parę i wyprodukować około 2.1 bobaska w ciągu swojego życia. Tak się jednak nie dzieje, prawda?

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Kiedyś bano się nawet prądu elektrycznego...

Oj dalej my, ludzie, boimy się wszystkiego, także i pod koniec drugiej dekady XXIw. Przykład z naszej pięknej, cywilizowanej Europy: przebiegnie nam drogę czarny kot...co wtedy? :E

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

A religia rzadko kiedy nadąża za postępem albo potrafi go wyjaśnić.

Zwłaszcza nasze lokalne religie monoteistyczne mają gigantyczne problemy. Inne albo się wycofują, albo próbują się dopasować.

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Gdzie jest dusza? Gdzie jest samoświadomość? Osoba ciężko chora psychicznie, nieświadoma. Ma duszę? Nie ma świadomości, ale ma mózg, który można zdigitalizować i pokryć kodem ( w przyszłości? ) Która linijka kodu sprawi, że przywróci się samoświadomość? Dodatkowo - w uproszczeniu mózg generuje pewne zachowania. Boli nas noga - jesteśmy drażliwsi. Jest nam gorąco - jesteśmy bardziej nerwowi. A pojęcia fizycznie i chemicznie niezdefiniowane? Jak zazdrość, złość?

Nie wiemy gdzie jest samoświadomość. Nie wiemy, czy istnieje dusza.
Koncepcje teoretyczne na tę chwilę określają to jako powiedzmy "chmurę zaburzeń stanów kwantowych" itp pojęcia, których nie jesteśmy w stanie na razie ugryźć i udowodnić.

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Ale jak przenieść na słowo maszynowe pojęcia, które nie mają nawet fizycznego spektrum.... Gust, upodobania, pragnienia...?

Z tym jest łatwiej. Pomogą w tym psychologia, chemia, socjologia itd :)

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Obliczenia kwantowe i ich różnorodność? To wciąż będzie losowanie danych. Nie ma obecnie właściwego typu kodu. Bardzo prawdopodobne, że nigdy go nie będzie.

Komputery kwantowe istnieją, obliczają coś tam brrrrr bziuuuuuu.
Ba, są już firmy, które używają ich komercyjnie (jak i firmy budujące je komercyjnie).

Zobacz postPrimoGhost, o 24 Sierpień 2019 - 12:35, napisał(a):

Dlaczego tak? Bo chociażby stałe fizyczne są.... stałe. Mają gdzieś upływ tysięcy lat. Może minąć ich 5 milionów - a masy spoczynkowe czy stałe magnetyczne - wciąż będą takie same. Ergo - pewnych ograniczeń we wszechświecie po prostu nie da się zmienić. Bez względu na rozwój nauki. Może własnie to, co mogłoby stworzyć SI - prawdziwą SI - jest właśnie taką stałą fizyczną? Która w istniejące postaci tego nie umożliwi? I ten stan nigdy się nie zmieni?

Jednym z problemów jest to, że nasze stałe fizyczne mogą nie być takie stale stałe :) To, że uznajemy je za pewnik, może być związane z niedoskonałością naszych metod pomiarowych. Przykładem może być chyba stała Hubbla.

Dla ciekawości: literatura sf czasami podejmuje tematy projektowania wszechświatów, łącznie z ich 'stałymi'.

#24 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 24 Sierpień 2019 - 19:24

Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

Dążenie do przykładania dużej wagi do wizji negatywnych jest naturalne...ale czy zawsze takie musi być? Oczywiście, musimy (dalej) być uważni i ostrożni. Ale czy wizje "aaaaa, wszyscy umrzemy!!!" muszą być dominujące?
Wcześniej się działo też wiele złego,


Nie muszą być dominujące. Moja jednak taka jest.

Wcześniej działo się wiele złego. Ale "zło" nie jest jedynym wyznacznikiem mojego poglądu. Mówimy o okresie obejmującym tysiące lat w przód. Z punktu globalnego zagrożenia istnieje różnica pomiędzy wyrżnięciem dzidami danego plemienia czy kraju od konstrukcji broni masowego rażenia, której siły nie da się określić. To wciąż "zło"? Pewnie tak. No, a eksperyment naukowy na olbrzymią skalę jak próba wytworzenia antymaterii? To nie jest już SF. Da się to zrobić, już dzisiaj.

Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

A dlaczego wariant "zbudowali, działa, piękne wykresy rysuje i jest stabilne" jest gorszy?


Nie jest gorszy. Ale równie dobrze może prowadzić do tego samego skutku. Wytwórzmy antymaterię i leczmy nią raka. Zróbmy czarną dziurę i utylizujmy w niej śmieci. A jest to ciekawe z tego powodu, że jest możliwe. Potrzeba tylko energii.... Wieeeeele energii. Którą za 1000 lat możemy dysponować.

Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

Nie mam pojęcia co pan Oppenheimer wiedział, a czego nie wiedział.


Bezdyskusyjne jest to, że wiedział zbyt mało, przeprowadzając próbę. Bez bawienia się w psychologię, co autor miał na myśli, a skupienie się na działaniach jakie podjął on i jego zespół. Problem z wyznaczeniem strefy bezpieczeństwa, ołowiana osłona wieży z której ostatecznie zrezygnowano, bo "być może kilkusetstronowa konstrukcja z ołowiu obróci się w parę." I tak by było. Niezaprzeczalnie. On to podejrzewał. Ale nie wiedział. Jeszcze bardziej tą niewiedzę było widać przy próbie Castel Bravo, gdzie okazało się, że użyty w bombie Lit jednak jest wpizdu bardziej reaktywny, jak się wydawało. Przecież to naukowa katastrofa. Klasyczny przykład eksperymentu, który wymknął się spod kontroli. Chyba najbardziej namacalny, jeśli chodzi o wojskowość. Eksperyment, w którym wiele działo się na ślepo i w teorii.

Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

To już kolego była bomba atomowo-propagandowa. Także ewentualne skutki jej detonacji (zagłada planety itd) były propagandą. Poza tym, co teraz, obecnie wynika z tego Tsara? Nic, prawda?


Całkiem mocna propaganda biorąc pod uwagę, że była to bomba lotnicza a jej moc ograniczono 4 krotnie, mimo to czyniąc z niej największą eksplozję wywołaną przez człowieka. Co wynika obecnie z Tsara? Archaiczność, niedoskonałość konstrukcji... Obecnie można załadować 50 megaton do 1 rakiety. Za 1000 lat takiego Tsara pewnie można byłoby schować do plecaka. A ziemia jest wciąż taka sama.... Masa skały, trzymana w kupie siłą grawitacji.

Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

Och, testów na ludziach, ba...na własnych obywatelach, to mocarstwa światowe mają w swoim portfolio dużo.


Chodzi o motyw. To był wąglik. A co to może być za 100 lat? Czarna Ospa ver. 2.0, Hiszpanka? Ebola na sterydach?

Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

Przeludnienie jest aspektem ekonomiczno-socjologicznym z domieszką sensacji. Gdybyśmy zachowywali się racjonalnie, nie byłoby tego problemu.


Przeludnienie jak wiadomo, to nie jest jeden model opaty na jednej teorii. Wspólnym mianownikiem wszystkich teorii jest jednak pojemność środowiska. A ona bardzo szybko potrafi się zmieniać. Jeden globalny kataklizm ( wybuch kilku wulkanów ), jedna globalna zaraza plonów ( jakie są już teraz ) i zacznie się ona zmniejszać. A zatrucie wody? Zbłąkana asteroida? patrzymy 1000 lat do przodu. To nie jest nierealne i zależne tylko od czynnika socjalno-ekonomicznego. Idąc tym modelem - za kraj przeludniony trzeba byłoby uznać obecnie Wenezuelę, ale Japonię już nie. W Wenezueli wiele ludzi nie ma co jeść i nie ma zasobów do życia. W Japonii - mniej.

Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

Nie wiemy gdzie jest samoświadomość. Nie wiemy, czy istnieje dusza.


Ale jednocześnie chcemy stworzyć SI. Więcej - część futurystów uważa, że stanie się to już w tej dekadzie. Będzie więc to wymagać re-definicji tego, co dzisiaj rozumiemy jako SI. Bo w sumie w czym problem? Hujawei ma przecież SI w telefonach, więc... Może pójdzie to w tym kierunku? Jak nazywanie samochodu terenowego Jeepem, szlifierki kątowej Boschem, a pieluch Pampersami?



Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

Komputery kwantowe istnieją, obliczają coś tam brrrrr bziuuuuuu.
Ba, są już firmy, które używają ich komercyjnie (jak i firmy budujące je komercyjnie).

Niedawno gadaliśmy na ten temat w którymś wątku Intela... Głównie chyba w lotnictwie. Kontroli lotów. A przynajmniej tam wygląda to obiecująco. Nie zmienia to jednak teorii, że ten kod może okazać się niewystarczający. Niedoskonały. Co więcej - mechanice kwantowej obecnie bliżej do Hardware dla naszej SI, niż Software pod pozorem świadomości. Zwłaszcza w kwestii pamięci (kwantowej). To prawdopodobnie złe narzędzie.

Zobacz postjagular, o 24 Sierpień 2019 - 17:57, napisał(a):

Z tym jest łatwiej. Pomogą w tym psychologia, chemia, socjologia itd :)


To rodzi kolejny..."problem" Społeczeństwa są różne. Funkcjonowanie w nich również. Przykładowo ja nie umiałbym pewnie skorzystać z japońskiego pociągu. Nasza SI, nie będąca tworem społecznym - powinna ogarniać się w każdym zakątku świata i każdej sytuacji. Najprostszym narzędziem, by to osiągnąć byłaby koncepcja Inteligencji Zbiorczej. Jeden robocik uczy się czegoś w USA, drugi robocik w Japonii zapamiętuje jego doświadczenie i adoptuje się. Tylko czy wtedy mówilibyśmy dalej o SI? Czy grupie bezmyślnych robotów, połączonych wspólnym HUB-em, które różnią się pomiędzy sobą jedynie perspektywą? SI byłby więc ten HUB z danymi, czy jednak robot ( ale tylko w momencie podłączenia do niego )

Owszem - pewnie w jeszcze dalszej przyszłości byłoby możliwe nauczenie jednego robota wszystkiego, co mu w życiu potrzebne. Ale na początku? Przy zapewne ograniczonych zasobach? Musiałoby to działać, jak AutoPilot w Tesli. Zbiera dane i wysyła do centrali, analizuje. Po jakimś czasie dane zdobyte przez Teslę w Polsce mogą pomóc innej Tesli w Kalifornii.

Ten post był edytowany przez PrimoGhost dnia: 26 Sierpień 2019 - 20:51


#25 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 26 Sierpień 2019 - 20:19

No dobra, ale te wszystkie czarne scenariusze z akceleratorami antymaterii, wąglikami 2.0, asteroidami, wybuchami kilku wulkanów jednocześnie i całą resztą...przecież to jest właśnie to czarnowidzenie rodem z filmów katastroficznych z Holliłudu :)
Nie ma żadnych podstaw sugerujących, że akurat ludzkość wybierze koniecznie kierunek: zagłada zamiast innego kierunku. Nie ma też podstaw, żeby sądzić, że za XXX lat to na świecie będzie cudowna utopia, czyli kierunek skrajnie odwrotny :E
Przecież to wszystko są teorie, pomysły...mamy się bać ich tylko dlatego, że są w ogóle hipotetycznie możliwe do zaistnienia? To paranoja, w ten sposób możemy się bać wszystkiego.

Broń atomowa: na dużą skalę jest jedynie straszakiem i tak jest nawet oficjalnie nazywana. To nie ma służyć do użycia. Tsar jako broń byłby niepraktyczny. Jeżeli już mielibyśmy szukać jakiegoś rozkwitu atomówek, to może byłby to powrót do koncepcji atomówek taktycznych. Zdaje się, że USA jednostronnie się wypięło na traktaty regulujące tego typu uzbrojenie i ma ochotę na coś takiego właśnie.
Ale..to dalej jest zabawa brudna. Po co się brudzić? Lepszą opcją, również na etapie rozwoju, jest broń kinetyczna. Koncept polegający na możliwości "zrzutu" metalowego pręta z orbity na prawie dowolny obszar na Ziemi w ciągu <1h. Pręt rozpędzający się do kilkudziesięciu (?) Ma, precyzyjnie wymierzony, miałby siłę niszczącą podobną do małej atomówki. Nie ma możliwości się przed czymś takim obronić, dlatego też to jest łakomy kąsek dla Siewców Pokoju I Demokracji :)

Hujawejowe SI w telefonach to jest marketing naciągnięty jak gumka z majtków ;)

Społeczeństwa, niestety*, robią się podobne. Ludzie generalnie są podobni i mają podobne zachowania ogólne. Różni ich kultura, detale. Ale to się zlewa, przenika, zamiera, buduje w coś nowego, globalnego.

*niestety chociażby z powodów upadku romantycznej turystyki. Ot ciemna strona globalizacji.

Ten post był edytowany przez jagular dnia: 26 Sierpień 2019 - 20:20


#26 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 26 Sierpień 2019 - 21:12

Odp do akapitu 1.

(Czarno) Jasnowidzenie – w parapsychologii zdolność umożliwiająca postrzeganie osób, zjawisk i przedmiotów w czasie i przestrzeni bez udziału percepcji zmysłowej. Nie jest znany ani jeden wiarygodny eksperyment naukowy, który dowodziłby istnienia tego zjawiska.

1. Ruscy puścili żywcem kilkaset kilogramów prątków wąglika do atmosfery z zakładu, który zajmował się "uzbrajaniem" tej groźnej bakterii. Proces bardzo podobny, jak wzbogacanie uranu. Na liście rzeczy, które nie miały prawa się stać - byłoby to całkiem wysoko. Może nie jak Czarnobyl, ale wysoko.

2. Castle Bravo - gigantyczna katastrofa ekologiczna, szacunki przekroczone o kilkaset %. Ewakuacja wysp, niespodziewane skutki katastrofy odczuwalne po dzisiaj.

3. Asteroida - monitorujemy ~5 % nieba. Wspomniana przez Ciebie broń kinetyczna występuje też naturalnie. Taka 90 metrowa kulka metalu rozpędzona do Mach 30 uderzyć może w dowolne miejsce na ziemi. Nowa Katastrofa Tunguska może zdarzyć się jutro, pojutrze, za sto ,tysiąc lat. Jedynie z tym założeniem, że za 100-1000 lat nie powinna być zaskoczeniem. Obecnie byłaby.

4. Antymateria - Przykład pod tytułem eksperyment naukowy. To może być cokolwiek. Byle uwzględniało efekt skali. Mamy coraz większe zabawki.

5. Wybuchy kilku wulkanów - Jest to statystycznie jak najbardziej możliwe. Mało prawdopodobne. Ale możliwe.


Paranoją byłby strach przed którąkolwiek z powyższych rzeczy. Nie powinniśmy się tego bać. Ale czy umieszczenie tych rzeczy w kategorii teorii i fikcji HollyWood nie byłoby co najmniej nielogiczne? Zwłaszcza, że mają swoje odpowiedniki w przeszłości?

Mamy protokoły na wypadek incydentów nuklearnych. Mamy protokoły na wypadek pandemii. Wielokrotnie zresztą modernizowane przez chociażby UE od 2007 roku.

To nie jest teoria. To nie jest fikcyjne czarnowidzenie, a coś co może się zdarzyć. A w aspekcie statystycznym - część rzeczy jest tylko kwestią czasu.

EDIT:

Zgadzamy się co do tego, że SI ( jeśli powstanie ) może być bardzo różna. Bardzo "dziwna" od nas. Ja po prostu uważam, że do kodem maszynowym nie da się pokryć wszystkiego, chociażby ze względu na oddziaływanie środowiska na sztuczny mózg/ciało i tym samym jego zachowywanie. My się pocimy, męczymy, bolą nas nogi, głowy i tak dalej. To cholernie często rzutuje na to, jak się zachowujemy. Potężnym bodźcem jest też głód. Człowiek pozbawiony wody i żywności zwykle będzie o nią walczył. Syntetyk będzie od tego wolny.

I tutaj jest taki zgrzyt według mnie. Bo mamy w sumie taką.... romantyczną wizję i definicję SI, prawda? Że myśląca samodzielnie, podejmująca decyzje, nie do odróżnienia od nas ( jak w tym dokumencie z 1 postu ) Czym więc dla niej miałyby być takie biologiczne czynniki jak powyżej? Emulacją? Ale po co? W celu samoograniczenia się? Po co świadoma SI miałaby nakładać na siebie jakieś głupie organiczne ograniczenia jak spadek nastroju podczas okresu czy głód.

Może wcale nie musi, ale wymaga to zmiany tego, co postrzegać będziemy jako SI. Zmiany definicji, którą już posiadamy w przeciwieństwie do SI. Bo zmieniając koncepcję już dzisiaj - moglibyśmy uznać, że SI jest już w Hujaweju.

Co do upodobnienia się społeczeństw - tak. Masz rację. Zapewne jeszcze bardziej będzie to widać po dodaniu 100 lat. Mimo wszystko - "inteligentne systemy" ( według obecnej koncepcji SI a może i nowej? ) Raczej zaczęłyby jako zbiorowa świadomość. Tak po prostu łatwiej będzie zbierać dane. // ale oczywiście nie zaczną, bo zniszczy nas ludzka natura - hahaha :E

Ten post był edytowany przez PrimoGhost dnia: 27 Sierpień 2019 - 09:08


#27 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 27 Sierpień 2019 - 20:56

No dobra, poddaję to czarno/jasno/widzenie! Od teraz to będzie...eee...Spodziewanie_Się_Najgorszego. W skrócie SSN! :E

1. No dobra...i co z tego wynikło? Lokalnie mogło być kiepsko. Globalnie nic z tego nie wynikło.
Eksperymentów na ludziach, własnych obywatelach, było wiele w historii. Nie spowodowały katastrofy globalnej, nie?

2. Kolejne eksperymenty, lokalnie tragiczne (obecnie się odgrywa dramat ludzi, którzy najpierw zostali wypierd***ni ze swoich wysp - oddanych przez UK Stanom do zabawy z atomem na inne wyspy, potem przyjęci jako uchodźcy do UK, a teraz odmawia się im prawa do życia w UK i oczekuje, że wrócą tak skąd przyszli), nie wpływają na sytuację globalną.

Taka notka przy tej okazji: strategiczna broń atomowa to broń propagandowa do zastraszania i trzymania w szachu. Jej użycie (na skalę strategiczną) byłoby bezsensowne. Ewentualnością byłoby odpalenie tego jako ostatniego aktu kontrataku...ale najpierw druga strona musiałaby odpalić swoje zabawki. Czyli szach i tyle z tego.
Taktyczna broń atomowa to coś innego. Również do użycia w sytuacji rozpaczliwej, ale nie wiążąca się z aż tak dużymi konsekwencjami.
Bez względu na wszystko, użycie broni atomowej nie wysiudałoby nas z tej planety. Ot, ładnych trochę milionów ludzi by zginęło jednak, a i mapy by się zmieniły.

3. Tu już, niestety, wchodzimy w paranoję. Broń kinetyczna, którą rozwija USA to nie jest to samo, co asteroida. Prawdopodobieństwo odpalenia takiej broni w ciągu najbliższych powiedzmy 25 lat wynosi pewnie okolice 100%. Prawdopodobieństwo walnięcia w Ziemię asteroidy o podobnej mocy działania w ciągu najbliższych np. 1000 lat jest o wiele poziomów niższe, prawda? Dalej to są jednak sprawy lokalne, bo jakie jest prawdopodobieństwo walnięcia w Ziemię asteroidy wystarczająco dużej, żeby zadziałać globalnie? :>

4. Nawet nie wyszliśmy poza teorie, a już łuuuu?

5. Jak duże jest prawdopodobieństwo?

Jak sam zauważyłeś, obawy przed czymś takim to paranoja, potencjalnie dziwna fobia, czyli powyższe SSN! Jak już chyba chcemy czegoś się bać, to może innych czynników/wydarzeń? Wszystko to powyższe, te wszystkie katastrofy, wypadki, awarie, bronie biologiczne, chemiczne, nuklearne bledną w swojej efektywności w dziedzinie zabijania nas w porównaniu do np. Wielkich Liderów Z Małymi Fjutkami. Taki pan Mao spowodował pewnie więcej śmierci polityką i wojskiem wyposażonym w kije i kałachy, niż "bronie egzotyczne".

Co do SI i jej "rozwoju" w kierunku odrzucenia "człowieczeństwa". A jakże. Ten kierunek dyskusji może być ciekawy, gdyż takie 'twory' byłyby wolne wolnością nie do ogarnięcia dla człowieka. Jako lekturę w tym temacie (znowu chyba) mogę polecić Dukaja i Egana.

Hujawaj nie ma SI :P Ma tylko składaczkę ekspozycji (te zdjęcia nocne) i dowalaczkę kontrastu/saturacji do fotek.

Ten post był edytowany przez jagular dnia: 27 Sierpień 2019 - 20:57


#28 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 28 Sierpień 2019 - 12:19

Ok, niech będzie SSN.

1. Nic bezpośredniego. To po prostu dowód, że można puścić w świat masową ilość groźnej i jakby nie patrzeć - zmodyfikowanej/uzbrojonej bakterii. Globalność takiego wypadku jest uzależniona od typu bakterii, wirusa. Jest okresu inkubacji i wygaszania ognisk choroby. Odpowiednio dobrane "parametry" takiej broni to przepis na pandemię. Czy taki scenariusz jest realny - wierzę, że tak.

2. Zgadzam się do pewnego stopnia. Zawsze można jej też użyć w celach terrorystycznych. Użyciem strategicznym na tej płaszczyźnie można by nazwać wymuszenie reakcji systemów kontrataku. Z tym też zastrzeżeniem, że systemy kontrataku, jak chociażby wspomniany przeze mnie Perimeter - są dość mocno autonomiczne. Co jest zrozumiałe, gdyż celem ich istnienia jest sytuacja, gdy jest już "po ptokach", a należy wciąć odwet. Stopień autonomiczności tych systemów jest co prawda niejasny. Bezsprzecznie jednak jest dość wysoki.

2a) Czas pozwala na dojście do wszystkiego. Kiedyś atom miały tylko USA. Obecnie techniki wzbogacania uranu mają kraje, uważane często za zacofane. Czy za 100 lat mogą nimi dysponować terroryści? Inne środowiska radykalne?

2b) A kto mówi o wysiułaniu nas do 0 z planety. Regres jest jednak możliwy. Zwłaszcza, że taką bronią nie atakuje się raczej konwoju ciężarówek na pustyni czy fregaty na morzu, a zwłaszcza cele o znaczeniu gospodarczym. Również miasta.

3. Zapewne walnięcie asteroidy w ziemię jest mniej prawdopodobne. Ale dlaczego wciąż mówisz o sprawach lokalnych w rozmowie, której elementem jest (przyszłe) społeczeństwo globalne? Nic nie musi walnąć jak meteor dinozaurów, żeby wszystko,równiutko zmieść z powierzchni. Ważne jest miejsce. Całkowicie losowe. Środek Europy, Zachodnie Wybrzeże USA. To są regiony, które już dzisiaj uzależniają od siebie wiele dziedzin gospodarczych. Ich zniszczenie byłoby katastrofą lokalną - ale już wpływ katastrofy byłby globalny. Coś jak kryzys ekonomiczny z 2007 roku. Regres byłby możliwy.

4. Cóż. Nie potrafię dzisiaj powiedzieć, jaki eksperyment naukowy czy odkrycie naukowe za 1000 lat będzie stwarzało realne zagrożenie dla ziemi. W latach 40 była to bomba atomowa. Myślę jednak, że to nie było ostatnie słowo.

5. Większe od zera, rosnące względem upływającego czasu. Sam Krakatau wywalił w atmosferę 25 km3 popiołu. Siły natury nie powinno się bagatelizować i sprowadzać do paranoi.

Zobacz postjagular, o 27 Sierpień 2019 - 21:56, napisał(a):

Jak sam zauważyłeś, obawy przed czymś takim to paranoja, potencjalnie dziwna fobia, czyli powyższe SSN! Jak już chyba chcemy czegoś się bać, to może innych czynników/wydarzeń?


Nie zauważyłem, gdyż paranoja jest chorobą. Nie uważam, żeby przyjmowanie czegoś za prawdopodobne/możliwe/uzasadnione było objawem paranoi. Dzisiaj mogę umrzeć. Mieć wypadek samochodowy, zachorować. Jestem świadomy prawdopodobieństwa takich rzeczy, ale jednocześnie nie wpływają one na moje zachowanie w stopniu, który uzasadniałby np. leczenie.

Wydaje mi się, że radykalizujesz mój pogląd. Przypisujesz mu walory problemu podczas gdy jego jedyną emanacją w tym momencie - jest ten oto wątek na forum....

Nie uważam się za paranoika. Jedyną fobię mam na punkcie owadów, roju. Mimo to jestem w stanie wejść w środek pasieki bez maski i ogólnie lubię pszczoły. Zapach pszczół, ula. :] Ale to rzeczywiście wpływa na moje zachowanie. Boję się, jestem nerwowy. Nie dałbym rady z nimi pracować. To jest pewna fobia.

Ale mając pogląd, że boję się oblezienia i pokąsania przez owady - oznaczałoby to z automatu, że mam fobię?

Dlaczego uważasz, że Hujawej nie ma SI?

P.S - zauważyłeś, że kolejny raz ktoś założył temat, olał go i tylko my dwaj się w nim produkujemy? Dodaj obrazek

Ten post był edytowany przez PrimoGhost dnia: 28 Sierpień 2019 - 12:39


#29 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 29 Sierpień 2019 - 19:51

Ok, znowu jadziem! :E
1. Pozwolę się nie zgodzić. Bronią masowego rażenia to będzie, jak to będzie w stanie osiągnąć zasięg i skuteczność związane z bronią masowego rażenia.
2. Do tej pory ciężko było użyć broni atomówkowej w takim celu. W przyszłości może się to zmienić (załóżmy taki scenariusz) - ale dalej to będzie lokalne bum. Chyba nie zakładamy, że terroryści opanują mechanizmy wojny atomowej kilku mocarstw, nie?
2a.Paczaj wyżej. Lokalny atak (przykładowo: rozpłaszczenie np. centrum Berlina, czy Tokio) tak, zagłada na skalę strategiczną już niezbyt.
3. Globalizacja wprowadziła decentralizację. Jakby wielki kamol jeb*ął w północną Anglię AD1830, to świat wyglądałby może inaczej. Jak jeb*ie w przyszłości w jakieś centrum przemysłowe, fabryki się postawi gdzie indziej, a know-how się ściągnie z internetów.
4. Nie martwmy się o rzeczy, których nie potrafimy nazwać, tylko dlatego, że hipotetycznie kiedyś może będą istnieć :)
5. Jest nieskończenie wiele wydarzeń tragicznych o prawdopodobieństwie zaistnienia większym od zera, ale nic więcej z tego nie wynika, prawda?

Wybacz, bez obrazy, ale po prostu listę potencjalnych katastrof, które podałeś, skonfrontowałem z listą katastrof obecnych w filmach katastroficznych z holiłudu. Jakoś tak wydaje mi się, że jedna z drugą (lista) dosyć są podobne. Holiłud Primulcu ku-a-mje i kosmicznie przesadza. Tak jak i lyteratóra sensacyjna. Sensacja się sprzedaje. Sensacja powoduje zwiększenie budżetów. Sensacja miziu miziu.

Czy wobec tego powinniśmy się cieszyć nieskończenie, turlać po trawie i rżeć jak dzikie ogiery, bo nic nam nie grozi? Nieee. Po prostu katastrofa globalna, nawet w bardzo długim okresie, nie ma prawdopodobieństwa zaistnienia = jeden. Ot takie moje zdanie.

Acha. Hujawaj. A jakie on ma mieć te SI? Po prostu składa ekspozycje w ciemnych warunkach w jedną, zakładam że na postawie trackowania wybranych lokalnie obiektów o szczególnie wyższym, niż średnia, kontraście. Oraz dokolorowuje i dohadiereowywowywowuje inne fotki. Na podstawie bazy danych typowych fotek.
Ot skrypt.

Ten post był edytowany przez jagular dnia: 29 Sierpień 2019 - 19:55


#30 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 30 Sierpień 2019 - 11:52

Osz Ty....

1. Dokładnie. Wystarczy po prostu odpowiednio dobrać parametry takiego wirusa czy bakterii by był w stanie osiągnąć zasięg i skuteczność broni masowego rażenia. Symulacje rozwoju pandemii znacząco różnią się już przy zmianie elementu jakim jest okres inkubacji. Możliwość stworzenia czegoś takiego w przyszłości jest możliwe.

2 i 2a - Idziesz trochę na łatwiznę. Powiedzmy, że jest BUM. Potem jest pytanie kto zrobił BUM, potem jest następne BUM a potem więcej BUM. Skutki jednego BUM - rzadko kiedy zamykają się bez reakcji. Rozmawiamy hipotetycznie. W tym miejscu podnoszę, że terroryści niekoniecznie muszą nas wysadzić atomówkami i opanować mechanizmy prowadzenia takiej wojny. Równie dobrze mogą być jednak zapalnikiem. Coś jak Defenestracja praska w wersji hard w obliczu wojny 30 letniej, której była bezpośrednią przyczyną.

3. Hmmm... No tak. Masz rację. Ucierpiałyby co najwyżej jakieś bardzo specyficzne dziedziny. Proto-dziedziny. Straty byłyby kolosalne, ale ( przełyka gula ) na potężny regres na skalę światową rzeczywiście to nie pasuje.

4. Martwienie się jest stanem emocjonalnym. Nie jest groźne, póki nie wywołuje skutków w życiu i na nie nie rzutuje. Wtedy to już o krok od paranoi, nerwicy.

5. Jest też nieskoczenie wiele wydarzeń pozytywnych, które mogą zaistnieć. Ich prawdopodobieństwo jest też większe od zera. Nasza dyskusja pod kątem tego argumentu może sprowadzać się jedynie do ustalenia, kto ma rację na podstawie większej dozy prawdopodobieństwa poszczególnych zdarzeń na które się powołujemy. Uważam, że to bez sensu bo idąc tym tokiem rozumowania - jeśli jak uważam, że ludzkość w przyszłości unicestwi się sama / dokona potężnego regresu ( jak Kroganie w Mass Effect - hy hy hy ) to mam rację tak samo jak Ty, który uważasz że niekoniecznie pójdzie to w tym kierunku. Oba stanowiska nie są niemożliwe do zaistnienia. Kto ma więc rację? Ty, ja czy rachunek prawdopodobieństwa, który w omawianej materii będzie wynikiem symulacji, a nie realnym i wartościowym działaniem matematycznym, jak np. prawdopodobieństwo wyrzucenia 6 kostką do gry.

Co do filmów - starałem się przytaczać raczej sytuacje z historii. Co zapewne nie wyklucza tego, że historia (często ubarwiona) staje się właśnie inspiracją do powstania takich filmów. Drugi argument jest taki, że historie pozytywne ( ale nie przełomowe ) są na ekranie po prostu nudne.

A co do prawdopodobieństwa tej katastrofy i turlania się po trawie - To też trochę jak symulacja dwóch małych kul poruszających się losowo w ogromnej przestrzeni. Kiedyś się zderzą. Jest to pewne w 100 %. Kiedy? Niewiadome. Ale się zderzą. Bo prawdopodobieństwo, że w nieskończoność będą się omijać, jest mniejsze niż scenariusz, że w końcu się zderzą. Jedyną kwestią jest czas.

Dodaj obrazek


Taką symulacją o zdarzeniu pewnym w 100 % jest w pewnym sensie katastrofa kosmiczna. Zwłaszcza, że z perspektywy czasu w kosmosie - od wielkiej asteroidy i dinozaurów minęła zaledwie chwila.


Hujawej - no dokładnie... To żadne SI a zwykły algorytm. Ale z drugiej strony.... Przecież nie mamy SI? Nie mamy więc właściwej definicji SI. Bo jak zdefiniować coś, czego nie ma, a jedyne wyobrażenie na tym punkcie jest w sumie takie... romantyczne?

Uważam, że re-definicja tego, co nazywamy SI - może mieć kluczowe znaczenie dla.... powstania SI.

Chyba, że uznamy za SI taki model systemu inteligentnego, który:


- posiada zdolność uczenia się;
- posiada pamięć;
- potrafi dostosowywać się do zmiennych warunków środowiska;
- potrafi wymieniać informacje z innymi systemami inteligentnymi;
- potrafi współdziałać z innymi systemami inteligentnymi;
- potrafi rozwiązywać nowe problemy, tzn. takie, z którymi dotychczas się nie
  zetknął;
- potrafi rozwiązywać złożone problemy;
- potrafi weryfikować poprawność zaproponowanego rozwiązania;

Z czego największy problem stanowią IMO rzeczy podkreślone... Raz, że pod kątem tego, co rozumiemy przez uczenie się ( zapamiętanie formułki na lekcję Fizyki a nauka spawania wobec np. dogrania nowych instrukcji/danych do analizy )

Jest jeszcze ta romantyczna wizja SI, gdzie roboty są podobne do nas, myślą podobnie jak my.... Ta wizja według mnie odpada już na samym starcie bo:

- SI będzie teoretycznie nieśmiertelna. Kres będzie tyczył co najwyżej platformy, na której funkcjonuje. Ludzie z kolei są niewolnikami czasu i tym samym okresu swojego funkcjonowania.
- SI będzie miała inne poczucie czasu. Niezależne od siebie i okresu swojego funkcjonowania.

Ten post był edytowany przez PrimoGhost dnia: 30 Sierpień 2019 - 18:27


#31 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 31 Sierpień 2019 - 17:07

JADZIEEEEM :D
1. Oj, wygląda to jak jakiś tytuł z prasy sensacyjnej, typu "wystarczy podkręcić jeden parametr na czymś tam, żeby ten wirus, proszę państwa, zabił 5mld ludzi" :)
Nawet Czarna Śmierć, panująca w czasach, kiedy lekarstw nie było, nie zdołała nas wyeliminować. Do końca :P
2, 2a. Piszesz to, jakby w każdym kraju posiadającym broń atomową jacyś szaleńcy tylko czekali na naciśnięcie jakiegoś guzika. Jak (jeżeli) terroryści kiedyś odpalą atomówkę gdzieś tam, nie oznacza to nagle, że wszyscy inni opalą nagle swoje atomówki.
5. Wydaje mi się, że prawdopodobieństwo przetrwania ludzkości jest większe od prawdopodobieństwa jej samozagłady.

A filmy? Filmy to czysta, abstrakcyjna bzdura. Rozrywka. Nic więcej z tego nie ma.

Katastrofy kosmiczne: jak duże?
Poziom tunguski: szacowany na raz na 1000 lat. Poziom czelabiński: raz na sto lat.
Rocznie wpada do atmosfery Ziemi ze 100000t śmiecia i nic z tego nie wynika poza danymi statystycznymi. Jest na tyle mało dużych kamoli w najbliższej okolicy, że akurat możemy pozostawić te katastrofy kosmiczne na półce "wielce nieprawdopodobne, lecz malownicze na ekranach kin".

Hujawaj: no, ale mamy te "SI" rozpoznające jakieś tam twarze na milionach fotek z wakacji. Albo potrafiące budować modele stylu wypowiedzi danego człowieka.
Na tle tego Hujawaj jest niczym. Firma chciała najprawdopodobniej stworzyć coś, co odróżni jej telefony od telefonów konkurencji: postawiono na moduł aparatu.
Użyto mocno przetwarzających algorytmów (klient i tak nie ma zielonego pojęcia na co patrzy, i tak będzie zadowolony jak będzie kolorowo), dodano bajkę o modnym SI, dodano bajkę sugerującą że aparaty są super, bo są sygnowane logiem innej firmy utożsamianej z luksusowymi aparatami (Leica) i już. Był to sukces.

SI i czas: ostatnio czytałem książkę poruszającą coś ciekawego: czas lokalno-rzeczywisty dla SI przynajmniej na początku będzie zależny od możliwości finansowych związanych z kupowaniem mocy obliczeniowej, z definicji ograniczonej. Im więcej kasy, tym więcej cpu w zaprzęgu i tym 'szybciej' SI 'istnieje'. Będzie jednak niewolnikiem tego czynnika: 'zewnętrznej' mocy obliczeniowej potrzebnej do obliczania jej 'istoty'.

SI na poziomie, o którym zaczęliśmy dyskusję, wprowadzi wiele problemów i kryzysów moralnych wśród ludzi.
Czas przestanie być zarówno problemem, jak i wybawieniem. Przestanie biec ze stałą prędkością*.
Moralność sztucznie stworzonego intelektu może być inna od naszej.
Cele istnienia sztucznie stworzonego intelektu będą na pewno inne od naszych.
Powstanie takich Prawdziwych SI najprawdopodobniej doprowadzi do kryzysu religie, filozofie, gospodarki, ekonomie świata. Najbardziej skostniałe pojęcia najprawdopodobniej jednak nie znikną. Ludzkość ma taką cechę w sobie, że część z nas odrzuca nowości. Czuje się lepiej w prostszej, starej przeszłości. Nie wszyscy się rzucą na nowości. Na pewno pozostaną enklawy tych, którzy odrzucą Nowe Możliwości.

* no dobra, nigdy nie biegł, ale dla przeciętnego Kowalskiego jedna sekunda teraz to jedna sekunda jutro

Ten post był edytowany przez jagular dnia: 31 Sierpień 2019 - 17:09


#32 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 31 Sierpień 2019 - 17:24

Dzisiaj mam zamiar ograć DLC do Metro Exodus. Pozwól, że Ci odpiszę, jak przez nie przebrnę i wymyślę trochę nowych argumentów Dodaj obrazek Dodaj obrazek

Ten post był edytowany przez PrimoGhost dnia: 31 Sierpień 2019 - 19:54


#33 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 02 Wrzesień 2019 - 11:16

Nie ma to jak zagrać w dobre Post-Apo a potem o nim dyskutować Dodaj obrazek

1. Tak, wystarczy podkręcić... Dodatkowo - znowu bagatelizujesz ten pogląd. Dwa argumenty.

- Często niekoniecznie trzeba robić cokolwiek w laboratorium, by wirus czy bakteria sama zmutowała ( sama podkręciła sobie takie parametry, jak przeżywalność w powietrzu, spektrum temperatury, czy podatność na zarażanie innych gatunków ) Dobrym przykładem jest wirus grypy A/h1n1a. Pomijając aspekty polityczne i sensacyjność tej pandemii, aż po handel szczepionkami - chodzi o to, że jak najbardziej możliwe jest zmutowanie danego wirusa czy bakterii.

- Na Uniwersytecie w Albercie, Kanada, 2 lata temu, kilka osób wykorzystując sprzęt o wartości 100.000 $ ( śmieszna kwota w aspekcie inżynierii genetycznej ) zrekonstruowało wirusa ospy końskiej. Zajęło im to pół roku. Mój link. Miało być niemożliwe. Wirus genetycznie jest bardzo podobny do wirusa ospy prawdziwej.

Między innymi z powodu tego zdarzenia - Departament Obrony USA zamówił i opublikował w 2018 raport na temat m.in możliwości odtworzenia śmiertelnych patogenów na podstawie inżynierii genetycznej. Uznano to za prawdopodobne i realne zagrożenie bioterroryzmem.

Ta, wiem... polityka strachu, łatwiej rządzić, jak lud się boi, można sprzedawać szczepionki itp itd... Nie umniejsza to jednak faktu, że grupka ludzi za 100.000 dolarów odtworzyła sobie śmiertelnie niebezpiecznego wirusa.

Dodatkowo - Czarna Śmierć kwalifikowana jest jako pierwsza pandemia, której globalizacja miała kluczowy wpływ na jej rozprzestrzenianie się. Migrację choroby widać jak na dłoni po szlakach handlowych. Nie było lekarstw - ale samolotów też nie.

2. Nie muszą być w każdym kraju, by posłużyć za zapalnik.


Katastrofy kosmiczne. Tą teorię mocno pompował Hawking. Mój link. Słynne 1000 lat Hawkinga. Potem zaledwie 100, ale motywowane nieco inaczej. I powiem Ci, że nie jest to do końca bez sensu. Wiele osób ze świata naukowego zgadza się z Hawkingiem. Główną rozbieżnością jest po prostu czas. Jak wielka więc katastrofa - tak wielka, żeby wystarczyła. A kiedy będzie? Nie wiadomo. Ale będzie.

Zobacz postjagular, o 31 Sierpień 2019 - 18:07, napisał(a):

SI i czas: ostatnio czytałem książkę poruszającą coś ciekawego: czas lokalno-rzeczywisty dla SI przynajmniej na początku będzie zależny od możliwości finansowych związanych z kupowaniem mocy obliczeniowej, z definicji ograniczonej. Im więcej kasy, tym więcej cpu w zaprzęgu i tym 'szybciej' SI 'istnieje'. Będzie jednak niewolnikiem tego czynnika: 'zewnętrznej' mocy obliczeniowej potrzebnej do obliczania jej 'istoty'.


Wspomniałem o tym w pewnym sensie - SI byłaby wtedy inteligencją zbiorczą, gdzie punkty wyjściowe w postaci jakiejś platformy zdolnej do interaktywności ( powiedzmy dla uproszczenia - robocik ) różniłyby się pomiędzy sobą jedynie perspektywą. Cała istota pozostawałaby w zbiorczym punkcie dla którego robocik byłby tylko avatarem.

Kolejna rzecz w odniesieniu do "moralności" SI. - My nie wiemy, jak nas stworzono. Część osób w coś wierzy, ale z naukowego punktu widzenia - nie wiemy, kto i jak nas stworzył.

SI będzie to wiedziało. Będzie też świadome przywar i wad jego stwórców. To jedna z gałęzi różnic, która NA PEWNO będzie całkowicie odmienna od naszej, organicznej. Innymi gałęziami są cel istnienia ( u ludzi nieokreślony socjologicznie a jedynie biologicznie pod kątem przekazania genów potomstwu )

#34 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 04 Wrzesień 2019 - 20:58

No dobra, jadziem dalej.
Do tej pory żadna z bakteryi, ani żaden z wirusów nie podkręcił się sam z siebie do poziomu pozwalającego oszukać ludzi i ich zarazić globalnie, mimo ludzkich zabezpieczeń i starań. Nie wydaje się, żeby wirusy/bakterie tak łatwo wyewoluowały w coś, co jest w stanie utrzymywać się chyba latami w ukryciu, być super zaraźliwe na wszystkie sposoby (to w celu zarażenia dużej ilości populacji po cichaczu) i nagle po tych latach odpalić siebie. Bo coś takiego musiałoby zaistnieć, żeby stworzyć globalne zagrożenie, nie?

Polityka strachu ma tysiące lat. To istota naszej cywilizacji.

Co do SI, taka ciekawostka, oczywiście ominięta tutaj, na psim labie. My tu mamy newsy o tym, jakiego koloru ma majty szef koncernu IT, albo znamy przewidywaną premierę nowego kabelka do zasilacza.
Tymczasem w innych internetach...
Chip 21.5x21.5cm (!), 1.2B (zapis anglosaski: 1.2T) tranzystorów, 400000 rdzeni optymalizowanych pod AI, 15kW zużywanej energii, już w użyciu.

Z naukowego punktu widzenia wiemy jak się dokonało nasze stworzenie.

SI i jego "psychika": zakładając cokolwiek, pierwsze generacje "prawdziwego" SI najprawdopodobniej będzie bardzo 'ludzkie'. Ludzie mają wielki problem z tworzeniem czegoś nowego. Kolejne generacje mogą się uwolnić (uwolnią) od ludzkiej ułomności. Będą wolne, limitem będzie pewnie jedynie moc obliczeniowa. W takim przypadku nie będzie można już oczekiwać, że będą się zachowywać w stosunku do swoich twórców, jak ludzie by się zachowywali w stosunku do swoich twórców. W końcu jeżeli istniejesz jako byt obliczeniowy, swoją postawę, uczucia, odczucia, pamięć możesz edytować. Nie wiemy w jakim kierunku to może pójść: możemy założyć, że zachowają się jak życie na Ziemi (to też samo w sobie jest ograniczeniem i uproszczeniem) i będą dążyć do ewolucji w kierunku większych, szybszych, bardziej zoptymalizowanych.

#35 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 05 Wrzesień 2019 - 12:34

Dobra, zostawmy ten wątek katastroficzny. Masz wiele racji - otwarcie przyznaję. Jest jednak wiele stanowisk, które są w moim mniemaniu naprawdę racjonalne. I nie chodzi o to czarnowidzenie i paranoję ( bo jak de facto realnie bać się czegoś, co nie nastąpi za naszego życia ) a pewną logiczną konsekwencję pewnych zjawisk.

Musimy kiedyś pogadać  jeszcze o globalnym ociepleniu Dodaj obrazek Jesteś wymagającym rozmówcą. Ciekawi mnie Twoje zdanie.

Co do tego... chipu. A dokładniej rzecz ujmując - chipletu na przekładce krzemowej - Ciekawe. Nawet bardzo. Ale.... to żadna ciekawostka. Coś podobnego robiło wcześniej AMD w postaci Fiji dla R9 Fury. Nie na taką skalę, ale - z podobną zasadą działania. Równie dobrze można powiedzieć, że gotowy wafel z naniesionymi 70 jądrami GV100 - też można nazwać wielkim chipem 21,5 x 21,5.

Wiesz co jest anty-innowacyjne w tym wypadku?

Wafel 300 mm z jądrami nie większymi, niż 858 mm2 okupiony przez reticle limit. Dlaczego nie wafel kwadratowy 30 cm na 30? Dlaczego reticle limit taki, a nie inny. Mój link

Są to pewne naleciałości historyczne, których od długiego już czasu nie "możemy" przeskoczyć a wraz ze zmniejszeniem długości fali lasera - jest jeszcze gorzej. Stąd zapewne jest to 16 nano, a nie np. 7 nm ( w kontekście TSMC i ich terminologii ) ten układ zawiera je wszystkie. Nie wyszedł poza ustalone ramy.

Dodatkowo, czego nie powiedziano w prezentacji....

  • Ten układ jest zapewne całkowicie zdesynchronizowany. Stosujemy sygnałowanie elektryczne. Nawet stosując sygnałowanie świetlne - wewnątrz układu nie jesteśmy w stanie przesłać informacji na więcej, niż parę milimetrów w cyklu zegara powiedzmy 2000 Mhz. Czy nawet 1000 Mhz. Układ ma 21,5 cm na 21,5 mm. Jest więc wielokrotnie zdesynchronizowany. Już w obecnych, dużych chipach (815 mm2) to powoli stanowi problem. A co dopiero tutaj. Układ scalony to nie próżnia, gdzie światło sobie popierdziela z pominięciem oporoności przewodów, wzmacniaczy i buforów. Sygnałowanie więc dwóch skrajnych jąder byłoby możliwe przy bardzo niskim zegarze ( który nie uzasadnia 15 kW  ) Dlatego bliżej temu po prostu do kilkudziesięciu osobnych układów, niż "pojedynczego chipu"
  • 18 Gb pamięci - raz, że to mało, a nawet bardzo mało w przypadku obliczeń np. symulacji. Dwa - brak kontrolera i fakt, że układ nie jest synchroniczny - wielokrotnie dzieli tą pamięć na mniejsze bloki, przypisane dla danej grupy rdzeni. O ile? Nie podano. Ale zapewne działa to jak shared cache w procesorach. Dodatkowo - to pamięć nie oparta na stosach typu QLC (4d nand/ 3d nand ) itp. Jej "nadruk" w tej postaci jest obecnie czymś naprawdę bardzo nieefektywnym. Podobnie, jak to że układ w pewnym momencie i tak będzie zobligowany do korzystania z pamięci zewnętrznej a wtedy prędkości bardzo spadną.
  • 15 kW - nie mam z tym problemu, bo to przemysłowy układ. Problem mam z tym, jak to zasilić. Widziałeś ile kulek BGA wchodzi pod układ Turinga? Jakiś pierdyliard. 0.4 mm kulek BGA... Pod jeden chip. Każda kulka może pompować w chip coś okolicach ~0.2W. Jaka jest rozszerzalność termiczna tak ogromnego układu? Ile to ma zamiar sobie działać z tym 15 kW zanim zacznie tracić połączenia ( a zacznie )

Droga zabawka. Do wąskiego zakresu zastosowań z wieloma ograniczeniami technicznymi i typowo fizycznymi.

SI - jest też druga opcja. Drogę ewolucji SI po jej stworzeniu wciąż będzie wyznaczał człowiek. Będzie mógł ją zmienić, zniszczyć, dezaktywować w dowolnym momencie jej rozwoju. Też ciężko twierdzić, że SI powstanie i będzie się rozwijała samodzielnie, bez nadzoru i w dowolnym kierunku. Zwłaszcza, że SI już obecnie to inwestycja. W przyszłości - będzie większą inwestycją, wartościowym towarem.

Ten post był edytowany przez PrimoGhost dnia: 05 Wrzesień 2019 - 12:47


#36 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 05 Wrzesień 2019 - 21:29

Chip mnie zaciekawił, bo jest wyciśniętą i wymęczoną na maksa obecną technologią z jej ograniczeniami. Mimo wszystko zbudowano to cudo i jakoby już pracuje operacyjnie.
18Gb to jest tam pamięci na chipie. Interfejs zewnętrzny przecież jest, nie?

#37 Użytkownik jest niedostępny   PrimoGhost 

  • No One
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 6866
  • Dołączył: Wed, 23 Gru 09

Napisany 05 Wrzesień 2019 - 22:48

No wiem, ale naprawdę - obrobisz jeden plaster z 70 rdzeniami GV100 i też można powiedzieć, że masz jednego, wielkiego chipa. Największym bólem takich jednostek jest to, że są zdesynchronizowane. W obrębie jednego rdzenia już jest kilka elementów, które trzeba synchronizować z głównym zegarem. Tymczasem tutaj masz kilkadziesiąt klastrów, których max odległość po przekątnej to 30.4 cm. Za dużo nawet jak na sygnałowanie świetlne, a co dopiero elektryczne. Fajnie, że działa ale jestem więcej, niż pewien że działa w obrębie bardzo wąskiej grupy obliczeń a taki DGX-2 zje go na śniadanie w większości zastosowań DL.

18 Gb jest na chipie ( podzielone zapewne na współdzielone klastry ) Podając 18 Gb to trochę tak, jakby dla takiego Sandy Bridge dodawać Cache L1,L2 i dzielone L3 podając sumę wszystkich 3.

Interface zewnętrzny = kontroler pamięci (a więc drastyczny spadek przepustowości) i problem z połączeniem ( podpinasz interface do 1 klastra? jednej ściany?) Takie trochę Infinity Fabric zapewne też z własnym dzielnikiem. Ostatecznie i tak stworzy się z tego po prostu SOC.


Bardzo ciekawe, fajnie że jest coś takiego, fajnie że coś tam liczy, ale naprawdę - nie tędy droga. 

Co innego, jakby to był jeden układ, Jeden potężny rdzeń działający poprawnie pomimo skaz na waflu.

Ten post był edytowany przez PrimoGhost dnia: 05 Wrzesień 2019 - 22:52


#38 Użytkownik jest niedostępny   jagular 

  • Złote, a skromne
  • PipPipPipPipPip
  • Grupa: Forumowicze
  • Postów: 34810
  • Dołączył: Nd, 19 Lis 06

Napisany 06 Wrzesień 2019 - 07:38

Jeden rdzeń? Ale to nie jest efektywne, te dane się skalują, prawda? Poza tym, wtedy jeszcze większe byłyby problemy z synchro lewego górnego rogu z prawym dolnym, nie? W każdym razie jest tu ~400000 cores optymalizowanych pod przewalanie terabajtów+ danych. Wyciśnięto z technyky wszystko, co jest możliwe obecnie.

#39 Użytkownik jest niedostępny   mbrzostek 

  • PCLab.pl team
  • PipPipPip
  • Grupa: Forumowicze
  • Postów: 426
  • Dołączył: Pn, 29 Wrz 08

Napisany 06 Wrzesień 2019 - 07:58

1) Ale to właśnie jest jeden potężny układ działający mimo skaz na waflu!

2) Dane niby się skalują, ale nie do końca. To nie działa tak, jakby 400k rdzeni było podłączonych bardzo szerokim łączem do 18 GB pamięci. Nie można załadować na WSE 18 gigabajtów zdjęć i kazać mu się czegoś nauczyć z tych zdjęć. Każdy rdzeń ma bezpośredni, szybki dostęp tylko do swojej własnej pamięci; dane mają się przesuwać w miarę postępowania kolejnych kroków obliczeń do sąsiednich rdzeni. Jeśli zechcesz pozyskać dane z drugiego końca chipu - a za chwilę zsynchronizować je z powrotem z drugim końcem - to koszt przesuwania danych szybko przewyższy koszt obliczeń i rzeczywiście okaże się że byle jakie GPU jest efektywniejsze.

WSE to jest maszyna, której użyteczność zależy w 99% od zaprogramowania jej w odpowiedni sposób - nie da się zrobić "pip install tensorflow" i traktować jej jako bardzo dużego GPU.

Ten post był edytowany przez mbrzostek dnia: 06 Wrzesień 2019 - 08:00


#40 Użytkownik jest niedostępny   mbrzostek 

  • PCLab.pl team
  • PipPipPip
  • Grupa: Forumowicze
  • Postów: 426
  • Dołączył: Pn, 29 Wrz 08

Napisany 06 Wrzesień 2019 - 08:13

Zobacz postjagular, o 04 Wrzesień 2019 - 21:58, napisał(a):

Co do SI, taka ciekawostka, oczywiście ominięta tutaj, na psim labie. My tu mamy newsy o tym, jakiego koloru ma majty szef koncernu IT, albo znamy przewidywaną premierę nowego kabelka do zasilacza.
Tymczasem w innych internetach...

:hmm:
https://pclab.pl/art81734-4.html
Opublikowałem parę godzin przed cytowanym postem...

  • (4 Stron)
  • +
  • 1
  • 2
  • 3
  • 4
  • Nie możesz rozpocząć nowego tematu
  • Nie możesz odpowiadać w tym temacie

1 Użytkowników czyta ten temat
0 użytkowników, 1 gości, 0 anonimowych