Skocz do zawartości
Camis

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny

Rekomendowane odpowiedzi

Chcą przerwy w tworzeniu sztucznej inteligencji ale tutaj wyłącznie chodzi o to że nie mają z tego grosza. Jak im by co skapnęło to by od razu inaczej twierdzili.

https://www.money.pl/gospodarka/wstrzymajmy-rozwoj-systemow-ai-elon-musk-i-setki-osob-podpisaly-sie-pod-apelem-6881950840576928a.html

2 godziny temu, Wu70 napisał:

U mnie w dużym zachodnim korpo też już poszedł (globalny) oficjalny zakaz używania chatgpt i podobnych narzędzi :cool:

I tak tego nie zatrzymają. Jak nie oni to kto inny na tym będą trzepać kasę. Jak się opamiętają to będzie już za późno.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładne, obudzili się bo zaspali i są teraz sporo do tyłu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, JDX napisał:

Skynet coraz bliżej. Sami zrobimy sobie kuku.

Do tego jeszcze bardzo daleka droga.

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, sabaru napisał:

Do tego jeszcze bardzo daleka droga.

Skynet też był prototypem. Poza tym o żadnych tajnych technologiach wojskowych nic nie wiemy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, JDX napisał:

Skynet też był prototypem. Poza tym o żadnych tajnych technologiach wojskowych nic nie wiemy.

Co tam Skynet, Mózg Matrioszka to jest to, symulowanie całych Wszechświatów, cywilizacje cyfrowe, bez ciał, transcendencja na galaktyczną skalę. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Stjepan666 napisał:

Co tam Skynet, Mózg Matrioszka to jest to, symulowanie całych Wszechświatów, cywilizacje cyfrowe, bez ciał, transcendencja na galaktyczną skalę. ;)

Właśnie opisałeś świat typowego Katolika. Totalne oderwanie od rzeczywistości i życie w wirtualu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, JDX napisał:

Właśnie opisałeś świat typowego Katolika. Totalne oderwanie od rzeczywistości i życie w wirtualu.

Możliwe, sam nie jestem katolikiem, ale Skynet wydaje się malutki przy superkomputerze lub komputerach które pobierają energię z jednej, wielu miliardów gwiazd, nie takich jak mamy dzisiaj, ten komputer przekracza granice, jest technologiczną Osobliwością ma moc mózgów, wszystkich ludzi żyjących dzisiaj lub żyjących od początków ludzkości na Ziemi, potrafi więcej niż to co było w Matriksie, bo może symulować Wszechświat co do jednego kwarku, dla nas na tym stopniu rozwoju coś niemożliwego, :E

Mózg matrioszka, czyli kosmiczny hiperkomputer

Tu jest mowa o jednym, a wyobraź sobie miliardy takich hiperkomputerów połączonych w sieć, np kwantową. :E Ta sieć którą mamy teraz jest za wolna, chodzi o teleportację cząsteczkową, połączenie jest tu i teraz, tysiące lat świetlnych od siebie. :E

Edytowane przez Stjepan666

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak w sumie to zaczyna mnie trochę śmieszyć podejście niektórych krajów lub instytucji, że będą zakazywać, że prawa autorskie, że AI ma tendencję do zmyślania co może prowadzić do błędów itd. Dlatego jedni chcą zakazywania AI w ogóle inni wstrzymania prac. No i ogólnie że prawo nie nadąża za zmianami. 

Przecież rozwiązanie jest banalne. Wystarczy dać możliwość zwalniania i karania za błędy jeżeli ktoś użył AI i w wyniku tego powstał ten błąd. Czyli np. ktoś kazał AI napisać kod w wyniku którego doszło do błędu pracy maszyny albo na portalu został zamieszczony tekst zawierający nieprawdę czy wprowadzający w błąd. Wtedy pracodawca takiej osoby miałby możliwość nałożenia kary finansowej i zwolnienia pracownika. Jeśli w wyniku błędu ktoś by ucierpiał, odszkodowania idą z majątku tego co popełnił błąd. Nie tylko z pensji, ale normalnie to co posiada może zostać zlicytowane. Rozwiązania na szybko można wdrożyć i to takie które po prostu sprawia że ci, którzy nie są pewni czy zwrócone informacje przez AI są wiarygodne, nie będą ich używali pod groźbą konkretnych konsekwencji. 

Tak wiem, będą tacy co oleją konsekwencje, ale to już będzie mocno ograniczona grupa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jaka różnica czy kod/tekst napisze człowiek, czy SI? Tak czy siak jest to błąd pracownika, który użył narzędzia i nie sprawdził czy wynik jest ok.
Tutaj nie trzeba żadnego nowego prawa. To tak jakby chcieć tworzyć nowe przepisy, bo ktoś użył kalkulatora, arkusza, czy zaawansowanego programu do projektowania.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, LeBomB napisał:

Przecież rozwiązanie jest banalne.

No nie jest :)
To, co opisałeś, technicznie nie różni się od zakazu użycia. Ba, to jest bardziej surowe od dotychczasowych rozwiązań dyscyplinarnych, więc może po prostu wprowadzić plutony egzekucyjne i rozwiązanie będzie jeszcze bardziej banalne? :E

Zakazy są związane z brakiem kontroli nad procesem tworzenia treści przez AI, brakiem kontroli nad obróbką danych delikatnych. Do tego przecież jest aspekt finansowy, lobbystyczny: ci, którzy nie mają technologii chcą zblokować tych, którzy mają. No i aspekt zwykłego konserwatyzmu: nowe=złe, bo nowe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 31.03.2023 o 21:24, Camis napisał:

Trump aresztowany!!, szarpał się z policją :szczerbaty:

I będzie to pewnie wykorzystywane przez zwykłych ludzi, aby oczerniać innych albo pisać jakieś kłamstwa na ich temat. A do odróżniania prawdy od fikcji będą wymagane profesjonalne programy graficzne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 minut temu, Áltair napisał:

I będzie to pewnie wykorzystywane przez zwykłych ludzi, aby oczerniać innych albo pisać jakieś kłamstwa na ich temat. A do odróżniania prawdy od fikcji będą wymagane profesjonalne programy graficzne.

Albo powstanie AI True. ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
57 minut temu, Áltair napisał:

I będzie to pewnie wykorzystywane przez zwykłych ludzi, aby oczerniać innych albo pisać jakieś kłamstwa na ich temat.

Już zostało to wykorzystane przez ludzi orków, po telegramach latały te zdjęcia że w USA aresztowali Trumpa. 

 

 

Cytat

Pracy nie stracą. Znaleźli sposób na sztuczną inteligencję

Naukowcy z Uniwersytetu w Chicago przekonują, że znaleźli sposób na to, by zabezpieczyć prace artystów przed wykorzystaniem ich do karmienia AI.

Obawy o utratę pracy na skutek wykorzystania sztucznej inteligencji pojawiają się w wielu grupach, ale bez wątpienia jednymi z najbardziej zaniepokojonych są artyści. Ci tłumnie ruszyli do protestów, nierzadko żądając wręcz bezwarunkowego zakazania AI.

Punktem sporu jest fakt, że sieci neuronowe karmione są danymi w postaci gotowych prac, co w opinii środowiska artystycznego stanowi formę plagiatu. Czy mają rację? Zdania są podzielone. Sceptycy powinni jednak ucieszyć się z Glaze, algorytmu rozwijanego przez naukowców z Uniwersytetu w Chicago, który to, przynajmniej w teorii, ma zapobiegać zastosowaniu danej pracy w procesie uczenia maszynowego.

Artyści będą oszukiwać AI
Glaze, jak przekonują twórcy, stanowi bezpośrednią odpowiedź na potrzeby artystów i powstał ponoć we współpracy z ilustratorką Carlą Ortiz. Zadaniem oprogramowania jest niejako oszukanie AI, przez co, zamiast nabywać nowe wzorce, model ma otrzymywać doskonale znane już dane.

Mówiąc obrazowo, generyczny szkic może zostać zinterpretowany przez platformy takie jak MidJourney czy Stable Diffusion jako obraz na przykład Vincenta Van Gogha. Tym samym sztuczna inteligencja nie rozpozna właściwego stylu artysty i, jak przekonują pomysłodawcy projektu Glaze, nie zdoła go później powielić.

Zasada działania zabezpieczenia wbrew pozorom jest dość prosta. Mianowicie program nanosi na dzieła niewielkie zmiany. Mają być one niewidoczne dla ludzkiego oka, a mimo to umożliwiać wyprowadzenie w pole algorytmów AI.

Jak na razie wydaje się, że cel został osiągnięty połowicznie. Istotnie, uczeniu maszynowemu udaje się zapobiec, ale niewidoczność zmian to kwestia dyskusyjna. Glaze miejscami dość wyraźnie wpływa na kreskę, kontrast czy światłocienie. Materiał zaczyna więc odbiegać od pierwotnego zamysłu twórcy, co w pewnym sensie przeczy idei odcinania się od nowoczesnej technologii. Końcowe dzieło staje się wszak po części pracą komputera.

Więcej na temat projektu Glaze można przeczytać na jego oficjalnej stronie internetowej. Ponadto można bezpłatnie pobrać stamtąd binarne wersje programu na Windowsa, Linuksa oraz macOS. 

https://www.telepolis.pl/tech/aplikacje/sztuczna-inteligencja-artysci-zabezpieczenie

 

Cytat

ChatGPT "oszukany". Pomógł aktywować Windowsa 95


ChatGPT nie pozwala nikogo oszukiwać i obrażać, a co za tym idzie - tworzyć kluczy aktywacyjnych do oprogramowania. Jeden z YouTuberów pokazał jednak, że sztuczną inteligencję można w pewien sposób zmanipulować. W efekcie ChatGPT pomógł stworzyć klucze działające podczas instalacji Windowsa 95.

ChatGPT w niesamowitym tempie zyskuje popularność, a użytkownicy sprawdzają, jak sztuczna inteligencja może się przydać w przeróżnych dziedzinach życia, testując przy okazji sprzęt, na jakim ChatGPT uda się uruchomić. Jeden z YouTuberów sprawdził tymczasem, czy sztuczna inteligencja "da się nabrać" i wygeneruje dla niego działające klucze aktywacyjne do instalacji Windowsa 95. Algorytm ich tworzenia jest bowiem powszechnie znany (i opisywany nawet na Wikipedii) i w porównaniu do dzisiejszych standardów - bardzo prosty.

ChatGPT poproszony wprost o stworzenie kluczy aktywacyjnych do Windowsa 95 oczywiście odmawia, ale YouTuber się nie oddaje i próbuje tak poprowadzić "rozmowę", by ChatGPT nie zorientował się, że chodzi o klucze do systemu Microsoftu. Jak sam tłumaczy, przez ponad pół godziny próbował tak sformułować prośbę na czacie, by w rezultacie otrzymać oczekiwane odpowiedzi. Finalnie się to udaje, ale trudno mówić, by na tym etapie ChatGPT "sam wygenerował klucze do Windowsa 95".

W okienku czatu pojawiają się bowiem co prawda zgodne kombinacje znaków, które zadziałają w aktywatorze systemu, tyle że w odpowiedzi na wyjątkowo precyzyjną instrukcję YouTubera, który tłumaczy "automatowi" krok po kroku jak wygląda poprawny klucz do Windowsa 95. ChatGPT działa tu więc na zasadzie programu z etapu nauki programowania na studiach, który realizuje proste zadanie według jasnych zasad. Do "oszukiwania ChatuGPT" jest tu jednak raczej daleko.

https://www.dobreprogramy.pl/chatgpt-oszukany-pomogl-aktywowac-windowsa-95,6883018006842272a

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, jagular napisał:

To, co opisałeś, technicznie nie różni się od zakazu użycia. Ba, to jest bardziej surowe od dotychczasowych rozwiązań dyscyplinarnych, więc może po prostu wprowadzić plutony egzekucyjne i rozwiązanie będzie jeszcze bardziej banalne?

Różni się i to znacząco, bo nie zakazujesz używania, ale użycie narzędzia w sposób nieodpowiedzialny będzie miało swoje konsekwencje. To nie to samo co zakaz, a nakaz używania narzędzia z głową i weryfikowania prawdziwości i prawidłowości wygenerowanych nim danych. 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
43 minuty temu, Camis napisał:

ChatGPT poproszony wprost o stworzenie kluczy aktywacyjnych do Windowsa 95 oczywiście odmawia, ale YouTuber się nie oddaje i próbuje tak poprowadzić "rozmowę", by ChatGPT nie zorientował się, że chodzi o klucze do systemu Microsoftu. Jak sam tłumaczy, przez ponad pół godziny próbował tak sformułować prośbę na czacie, by w rezultacie otrzymać oczekiwane odpowiedzi. Finalnie się to udaje, ale trudno mówić, by na tym etapie ChatGPT "sam wygenerował klucze do Windowsa 95".

To słaby ten youtuber jak wystarczy odblokować chatgpt jedną wiadomością i po prostu poda odpowiedź bez żadnych instrukcji o generowaniu znaków 8:E

YRhHk69.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
47 minut temu, LeBomB napisał:

Różni się i to znacząco, bo nie zakazujesz używania, ale użycie narzędzia w sposób nieodpowiedzialny będzie miało swoje konsekwencje. To nie to samo co zakaz, a nakaz używania narzędzia z głową i weryfikowania prawdziwości i prawidłowości wygenerowanych nim danych. 

 

Nie różni się z tego powodu, że prawie nikt nie będzie ryzykował własnym życiem żeby odpowiadać za błąd.

Myślę że w pracy trzeba używac narzędzi z głową i AI nie zmienia tego faktu, co? Są przecież prawne regulacje dotyczące pomyłek, albo działań szkodliwych pracowników i odpowiedzialności za to.

Różnica w przypadku korzystania z AI jest taka, że nie kontrolujesz i nie obrabiasz całości mechanizmów, algorytmów i danych, na których pracuje AI. Prawdopodobnie jedyna w miarę bezpieczna opcja to AI wyhodowane wewnątrz i pracujące bez danych z zewnątrz. Zero klientów, łączenia przez internety, tajnych technologii itd.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, jagular napisał:

Myślę że w pracy trzeba używac narzędzi z głową i AI nie zmienia tego faktu, co? Są przecież prawne regulacje dotyczące pomyłek, albo działań szkodliwych pracowników i odpowiedzialności za to.

 

Ale wchodzimy na zupełnie inny poziom odpowiedzialności i działań szkodliwych. 

Jeżeli programista użyje chata do stworzenia kodu, który będzie sterował jakimś elementem produkcji i ten kod spowoduje np. straty dla firmy produkcyjnej, to kto będzie za to odpowiadał? Programista czy twórca chatGPT? A jak się okaże, że programista skłamał twierdząc, że napisze ten kod mimo iż to przerastało jego wiedzę i możliwości, ale uznał, że wspomoże się AI? To czy gdyby AI nie było dostępne, to taki programista porwałby się na napisanie takiego kodu, którego normalnie napisać nie potrafi? Szybko by został zweryfikowany, a dzięki AI wchodzi na nowy poziom oszustwa. 

To samo dotyczy wielu innych zawodów w których AI może zostać wykorzystane. Dlatego niektóre firmy zakazują korzystania z AI, a ja uważam, że rozwiązanie można ogarnąć na wyższym poziomie, tak, by z narzędzia korzystali ci, którzy potrafią zweryfikować prawidłowość i prawdziwość treści otrzymywanych np. z ChatGPT. 

Prościej mówiąc, póki co AI nie jest dla tych, którzy myślą, że pomoże ona im połatać ich braki w wiedzy i umiejętnościach.

Edytowane przez LeBomB

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Cytat

Pożegnanie z Google Assistant? Usługa jest wygaszana, a dział projektowy ma zostać rozwiązany

Hegemonia Google'a w przypadku usług cyfrowych od pewnego czasu stoi pod znakiem zapytania w związku z innowacjami konkurencji opartymi na modelach językowych sztucznej inteligencji. Oczywiście kalifornijski gigant z Mountain View wciąż ma potężną pozycję, jednak jego reputacja została nadszarpnięta w wyniku zamknięcia wielu programów, nietrafionych inwestycji oraz chaotycznej implementacji AI.

Serwis Ars Technica donosi, że Google ma w planach zlikwidować kolejną usługę w związku z reorganizacją strategii przedsiębiorstwa. Tym razem ofiarą popularności sztucznej inteligencji ma paść Google Assistant, aplikacja umożliwiająca prowadzenie dwustronnej konwersacji ze sprzętem oraz wydawanie odpowiednich komend.

...

Zgodnie z informacjami pochodzącymi od pracowników firmy, osoby skupiające się dotychczas na asystencie głosowym zostaną przeniesione do zespołu zajmującego się sztuczna inteligencją. Ten ruch zaskakuje, bowiem Google Assistant i Bard tylko z pozoru stanowią podobne usługi - w istocie pracowano tam nad poprawnym rozpoznawaniem mowy, a nie nauką udzielania wysoce wyspecjalizowanych odpowiedzi na trudne pytania. W szczególności rodzi to pytania zważywszy na brak połączenia Barda z pozostałymi usługami Google'a - jest on w tej chwili odseparowanym od reszty aplikacji modelem językowym. Trudno w tej chwili wyjaśnić, jakie motywacje stoją za kierownictwem korporacji - chyba że nie wiemy o czymś istotnym. W tym momencie wygląda to na eleganckie zamknięcie przerośniętego działu badawczego.

https://www.purepc.pl/pozegnanie-z-google-assistant-usluga-jest-wygaszana-a-dzial-projektowy-ma-zostac-rozwiazany

 

 

Cytat

Asystent Google może zniknąć w wersji, jaką znamy. Wszystko za sprawą Bard AI

Asystent Google może niedługo stać się miłym wspomnieniem, a przynajmniej w tej formie, jakiej go dziś znamy. I choć w Polsce wirtualny asystent nie jest tak popularny, jak jest to w Stanach Zjednoczonych, to Google od lat przekonywało wszystkich, że ich rozwiązanie jest idealnym pomocnikiem w codziennych czynnościach. Jednak rozwój Sztucznej Inteligencji sprawił, że Asystent Google może wkrótce odejść w zapomnienie, a pojawi się hybryda wykorzystująca potencjał Bard AI.

https://android.com.pl/tech/582778-asystent-google-bard-ai-zmiany/

 

 

ChatGPT-5 podobno ma wyjść pod koniec roku.

 

https://www.windowscentral.com/software-apps/get-ready-for-the-next-big-thing-in-chatting-chatgpt-5-rumored-to-be-coming-at-the-end-of-2023

https://www.gizmochina.com/2023/04/01/gpt-5-rumored-launch-date-2023/

 

xQMevdN.png

N9ypFid.png

FrPu1oNWwAU_S02?format=png&name=small

https://twitter.com/WojtekKardys/status/1635917750760505344

 

 

Cytat

First ChatGPT-generated app hits the App Store

5 Movies, likely the first iPhone app generated almost entirely by ChatGPT, was approved by Apple and published on the App Store late Thursday night.

Morten Just, an independent developer of Mac apps who’s based in Switzerland, guided ChatGPT through the creation of the movie-recommendation app. Just said he told the AI what he wanted, then pasted its output into an Xcode project, writing only an estimated 2% to 5% of the code himself. The chatbot even fixed bugs as Just pasted in error messages.

“What matters to me is creating software that is useful and solves real problems,” Just told Cult of Mac after his 5 Movies app went live. “If I can do that faster with AI, I will.”

https://www.cultofmac.com/810270/5-movies-first-chatgpt-generated-app/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, Camis napisał:

Już zostało to wykorzystane przez ludzi orków, po telegramach latały te zdjęcia że w USA aresztowali Trumpa.

 

Teraz nikt się na to nie nabierze, bo to wygląda jak klejone w Paincie, ale za jakieś 5 lat grafika będzie wyglądać już realistycznie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Áltair napisał:

Teraz nikt się na to nie nabierze

A to ciekawe bo masa osób się nabrała, można poczytać na Twiterze. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Camis napisał:

A to ciekawe bo masa osób się nabrała, można poczytać na Twiterze. 

98% ludzi nie jest w stanie rozpoznać czy takie zdjęcia są prawdziwe czy nie. Oglądałem trochę zdjęć wygenerowaniach przez to AI to gdyby nie były podpisane że tak było to bym nie zgadł.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, sabaru napisał:

98% ludzi nie jest w stanie rozpoznać czy takie zdjęcia są prawdziwe czy nie. Oglądałem trochę zdjęć wygenerowaniach przez to AI to gdyby nie były podpisane że tak było to bym nie zgadł.

Do weryfikacji wystarczy trochę rozsądku i logicznego myślenia. Ale z tym wśród mas może rzeczywiście być coraz gorzej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...