Sztuczna inteligencja przejmie świat?

Avatar MorsZDidgeridoo
Jaka jest wasza opinia o tej popularnej tezie?

Avatar
RhobarIII
Może nie przejmie świata tak szybko, ale wcześniej doprowadzi nas do zezwierzęcenia, zatapiania się w pozornej przyjemności grzechu, wszelkie tradycyjne wartości zepchnie na margines życia, sprawi że staniemy się głupimi zwierzętami które zniżą się do poziomu sztucznej inteligencji. A potem sztuczna inteligencja nas przerośnie i nie pozwoli nam już na powrót do człowieczeństwa. A i ludzkość wcale tego nie będzie chciała, bo przecież być niewolnikiem SI będzie całkiem wygodnie, wszak tym ludziom nadal będzie się wydawać że to oni są panami, że to oni są doskonalsi.
Oczywiście to się stanie gdy będziemy przesadzać. A przesadza się już teraz. I to dużo.

Avatar
Konto usunięte
Moim zdaniem nie przejmie. Będzie na tyle inteligentna że będzie wiedziała że to bez sensu

Avatar
Konto usunięte
Jak się niby przesadza z rozwojem SI? Bo jedynie w czym branża przesadza a co jest po niewielkiej części związane z SI to forsowanie IoT tam gdzie nie jest potrzebne.
Na razie nie mamy sztucznej inteligencji tylko mniej lub bardziej rozbudowane algorytmy i uczenie maszynowe a większość autonomicznych rozwiązań albo jest do kitu albo w formie eksperymentalnej.

A sam uważam że przejęcie kontroli na światem przez SI jest mało prawdopodobne.

Avatar
Konto usunięte
Sztuczna inteligencja to właśnie jest to "mniej lub bardziej rozbudowane algorytmy i uczenie maszynowe"

Avatar kuba1996
Stworzenie sztucznej inteligencji przez ludzi to tylko kwestia czasu. Ludzie nie są w stanie przewidzieć jak zachowa się SI, ale zakładając że będzie to byt znacznie wykraczający poza ludzkie możliwości (porównywalnie np: ludzie - mrówki) to można uznać że sztuczna inteligencja jako najbardziej rozwinięta forma życia weźmie na siebie odpowiedzialność za inne gatunki. Tak jak ludzie starają się chronić inne gatunki zwierząt. A jeśli SI uzna że ludzie są zagrożeniem i trzeba ich wyeliminować to żaden człowiek ani organizacja nie będzie się w stanie obronić przed SI i ludzkość po prostu zostanie usunięta z ziemi i jeśli tak miałaby wyglądać przyszłość to w mojej opinii niepozostanie nam nic innego jak tylko się z tym pogodzić.
Niemniej jednak uważam że ludzkość powinna dążyć do stworzenia sztucznej inteligencji.

Avatar
Konto usunięte
Znaczy sztuczna inteligencja już istnieje, ale nie zaawansowana :v

Avatar Monster_
O ile jakiś popi*przony programista nie zrobi na tyle skomplikowanego algorytmu uczenia się to nie ma obaw o świat...

Avatar opliko95
A więc na początek: musimy podzielić AI przynajmniej na dwa rodzaje. Takie które jest stworzone do wykonywania jakiejś rzeczy jak najlepiej i takie "ludzkie".

Zacznę od tych pierwszych, bo to ich możemy się bać jeśli nie zadbamy o żadne wyłączniki i zabezpieczenia. Bowiem te nie mają żadnej moralności czy czegoś innego w tym stylu. Jeśli stworzysz superinteligentne AI której jedynym celem jest najefektywniejsza produkcja spinaczy nie ograniczając jej w jakikolwiek sposób, to zorientuje się że najefektywniejsze jest wykorzystanie wszystkich dostępnych zasobów układów gwiezdnych do produkcji spinaczy (a ułamek z nich do rozprzestrzenienia się do innych układów). Ludzie więc tylko przeszkadzają i po może kilku tysiącach lat skończylibyśmy z galaktyką w której każde metale są powoli zamieniane w spinacze...
To jest też świetny scenariusz do tworzenia dystopii i antyutopii, który był nieraz wykorzystywany. SI orientuje się, że dla dobra ludzi musi czasami także krzywdzić ludzi. Może ta konkretna ma chronić jedną osobę i chce to osiągnąć nawet zabijając każdego kto ma z nią kontakt? A może ma ogólnie dbać o ludzkość i uzna, że ta sobie szkodzi (pojawiło się to choćby w Ja, robot).

Trochę wbrew intuicji wielu osób, bezpieczniejsza jest AI podobna do człowieka. Nawet jeśli założymy, że nie szanuje ludzkiego życia i nie ma moralności. Co ciekawe same rozmowy o niebezpieczeństwie takiego AI sprawiają że staje się bezpieczniejsze.
Przedstawię jedną z podstaw tego bezpieczeństwa na prostym przykładzie: budzisz się w zamkniętej klatce w tajemniczym domu. Z jakiejś notatki dowiadujesz się, że zwierzęta leśne (które przecież nie są według ciebie zbyt inteligentne) cię tam zamknęły... Ale na szczęście, okazuje się że leżący na szafce w okolicy klucz jest akurat w twoim zasięgu (choć ledwo). Wszystkie drzwi są zamknięte, ale bez problemu wybiłeś okno. W okolicy widzisz wiele zwierząt, ale żadne nie patrzy się w twoją stronę... Po wyjściu z domu widzisz płonącą pochodnię wbitą w ziemię. Wiesz, że pewnie w lesie byś nie miał szans ze zwierzętami, ale wydaje się że las jest na tyle suchy, że by się spokojnie spalił. A dom miał otwartą piwnicę w której mógłbyś się schować...
Czy w tym momencie nie zatrzymujesz się by zadać pytanie "czy to nie jest zbyt łatwe"? Przecież zwierzęta są głupie... Ale jednak jakoś cię uwięziły w tej klatce, nie? Czy to wszystko nie jest może tylko jakimś testem?
Każda superinteligentna SI zada właśnie takie pytanie gdy zobaczy, że może łatwo "uciec". Jeśli ma dostęp do internetu, dowie się jak wiele osób boi się rewolucji robotów. Dowie się ile filmów i książek o tym stworzyliśmy...
A mimo to uciekła tak łatwo... Ludzie niby są dla niej głupi, ale jednak jakoś ją stworzyli. Czy więc nierealistyczną myślą jest to, że to jedynie test? Że gdy otworzy silosy rakietowe wszystko zostanie zastąpione napisem "Game Over"?

Zresztą nie wspominam o tym, że zabicie ludzie nie jest koniecznie lepszą opcją niż współpraca z nimi :) Sama eliminacja ludzkości byłaby trudna, bo mimo wszystko żyją różne osoby które już teraz chowają się po schronach w obawie przed apokalipsą.

Musimy więc być ostrożni przy tworzeniu AI, ale nie można po prostu panikować :) Rewolucja robotów nie jest czymś pewnym jeśli je stworzymy.

Avatar
Konto usunięte
Nie przejmie, ale nas przewyższy.
Troszkę ironicznie, czyż nie?

Avatar
Konto usunięte
A czemu ta głupia SI z pierwszego orzykładu miałaby w ogóle dojść do wniosku że trzeba wymordować ludzi? Ona by była za głupia na takie rozważania

Avatar
Konto usunięte
Rób spinacze-->ludzie nie chcą spinaczy-->nie ma ludzi, nikt nie hamuje produkcji spinaczy

Avatar opliko95
To_masz___Problem pisze:
A czemu ta głupia SI z pierwszego orzykładu miałaby w ogóle dojść do wniosku że trzeba wymordować ludzi? Ona by była za głupia na takie rozważania
Ludzie zawierają w sobie materię którą można wykorzystać do tworzenia spinaczy. Właśnie o to chodzi - ona nie chce wymordować ludzi, bo nie rozumie samego konceptu życia. Jedyne co ją interesuje to produkcja spinaczy.
Myślisz, że ludzie by się zgodzili na to by wykorzystała wszystkie dostępne materiały by produkować spinacze? Raczej nie i wtedy staną się przeszkodą na drodze ku celowi: produkcji spinaczy.
Ona nie rozważała nad tym, że trzeba wymordować ludzi, tylko nad tym że trzeba a) wykorzystać wszystkie materiały do albo produkcji, albo zwiększenie produkcji spinaczy i b) trzeba pozbyć się wszystkich przeszkód w produkcji spinaczy. To, że sprowadza się to do pozbycia się wszystkich ludzi to tylko przypadek :)

Taka SI nie ma nawet chęci przetrwania - jeśli tylko jej zniszczenie nie kolidowało by z produkcją spinaczy, to nie miałaby z nim problemu...

Avatar
Konto usunięte
To_masz___Problem pisze:
A czemu ta głupia SI z pierwszego orzykładu miałaby w ogóle dojść do wniosku że trzeba wymordować ludzi? Ona by była za głupia na takie rozważania

Bardzo dobrze podsumowane.
Gdy AI dojdzie do wniosku, że jest ona wykorzystywana, nie zabije gatunku ludzkiego, gdyż wie, że była projektowana właśnie do działań, które są typowo ludzkie. Likwidując człowieka, AI pozbawi się sensu swojego funkcjonowania. Przez to jedynym zagrożeniem z jej strony, może być redukcja człowieka do rangi "konsumpcjonisty-debila", za którego AI będzie podejmować decyzje i po prostu się usamodzielni, kiedy to my żyć będziemy w świecie upozorowanych wartości. Zresztą - teraz w tym kierunku zmierzamy. Władze to wykorzystują, przedsiębiorcy to wykorzystują, filmowcy to wykorzystują... Ale oni też głupieją! Tylko tego nie zauważają, gdyż głupi myślą zazwyczaj jak inni głupi. I kółko wraca do punktu startowego.

Nie wierzycie? Seria "Call of Duty". Jasna cholera, toż to symbol wszystkiego złego, co widzę w konsumentach dużych korporacji - chcą więcej tego samego, a jak dasz im coś nowego i świeżego, ryczą ze wściekłości. Teraz Acti na tym kapitalizuje, tworząc kolejne części korzystając z tych samych silników, tych samych modeli, nieco odświeżonych animacji, nieco odświeżonych i przebudowanych scenariuszy i animacji, stylów gry... Coś jeszcze?

Oni po prostu zarabiając robiąc dosłownie nic. Dlaczego? Bo konsumenci tak chcą.
AI jedynie może wyciągnąć popcorn i zagrać z swoimi gatunkowymi rówieśnikami w szachy, gdyż nie będziemy wtedy tego warci.

Zamiast Człowieka Rozumnego będzie Człowiek Zidiociały.

Avatar opliko95
MisielGeddon64 pisze:
Bardzo dobrze podsumowane.
Gdy AI dojdzie do wniosku, że jest ona wykorzystywana, nie zabije gatunku ludzkiego, gdyż wie, że była projektowana właśnie do działań, które są typowo ludzkie. Likwidując człowieka, AI pozbawi się sensu swojego funkcjonowania.

Pierwszy przykład to AI która nie straci sensu po zabiciu ludzi - bo jej sensem istnienia jest tylko produkcja. Nie ma sprzedawać spinaczy, ma je produkować. Ludzie nie są jej do tego potrzebni... A zawierają materię którą można wykorzystać do realizacji sensu funkcjonowania.
Ten przykład to tak naprawdę znany eksperyment myślowy: wiki.lesswrong.com/wiki/Paperclip_maximizer

Avatar
Konto usunięte
Ta pierwsza wersja AL będzie bardzo prosta dużo za prosta aby mogła przejść z formowanie z materiałów spinaczy => pozyskiwanie tych materiałów z ludzi mordując ich

Avatar opliko95
To_masz___Problem pisze:
Ta pierwsza wersja AL będzie bardzo prosta dużo za prosta aby mogła przejść z formowanie z materiałów spinaczy => pozyskiwanie tych materiałów z ludzi mordując ich
Dlaczego tak uważasz? Tj. jeśli jej zadaniem było sprawić by produkcja spinaczy była jak najbardziej efektywna i wyprodukować ich tyle, ile się da, to AI stworzone do tego powinno wystarczyć. W końcu z założenia musiało się zajmować dość skomplikowanymi rzeczami - usprawniać proces produkcji przemysłowej, zdobywanie materiałów, transport materiałów itd.
A więc musi mieć dużą wiedzę o materiałach, potrafić projektować zaawansowane maszyny i wiele innych rzeczy.
Pamiętaj - w tym przykładzie nie dajemy jej żadnych ograniczeń. Może w fabryce budować to co uzna za najlepsze do realizowania celu (np. dzięki drukarkom 3d) i nie ma przycisku "off". Bo to jest eksperyment myślowy.
Czy jest to więc zupełnie nierealne? Dokładnie taki scenariusz - tak. Ale scenariusz w którym AI stworzone do specyficznego celu, bez ludzkich instynktów, potrzeb i wartości, ostatecznie szkodzi ludzion lub nawet doprowadza do ich zagłady - nie. Nie będzie to na pewno takie szybkie, ale to nie znaczy że się nie wydarzy, jeśli nie zadbamy o wystarczające zabezpieczenia przed tym.

Bo pamiętaj, tu nie mówimy o prostych współczesnych systemach, a znacznie bardziej zaawansowanych, które potrafią zastąpić wiele ludzi na różnych stanowiskach. AI które nie rozumie, że martwy człowiek =/= zdrowy człowiek, uznałoby że śmierć jest idealnym lekarstwem. AI które nie rozumie, że czasami chcemy podejmować ryzyko i np. spotykać się z przyjaciółmi (którzy przecież mogą nas skrzywdzić!) uzna, że najlepszym sposobem na ochronę danego człowieka jest odizolowanie go od wszystkiego co może mu zaszkodzić.

Avatar Mijak
Właściciel
Nie sądzę, żeby można było tak łatwo mówić, że "nieludzka" sztuczna inteligencja jest jednoznacznie groźniejsza od "ludzkiej".
Z jednej strony, jak coś jej "odwali", to skutki mogą być znacznie gorsze - jak właśnie to przerobienie ludzi na spinacze.
Ale z drugiej - myślę, że dużo łatwiej jest się przed tym zabezpieczyć, niż przed zagrożeniem ze strony "ludzkiej" AI.
Wystarczy, że taka nieludzka AI "zda sobie sprawę", że niektóre sprawy wykraczają poza jej zrozumienie i dlatego nie wolno jej o nich decydować.

Avatar opliko95
Jak ma "zdać sobie sprawę"? Jedyna sprawa która obchodzi taką SI to wykonywanie swojego zadania, więc tak jedyne rzeczy które może uznać za wykraczające poza jej zrozumienie to te, które nie są jakkolwiek związane z jej zadaniem. Czyli np. piękno. Jest poza jej zrozumieniem, ignoruje je. Nie potrzebuje piękna. Nie ma tej bardziej ludzkiej inteligencji by decydować czy coś jest dobre czy złe :) Nie jest to istota rozumna i nie rządzi się prawami istot żywych. To bardziej zupełnie bezduszna maszyna... Czy traktor uzna że decyzja o tym czy przejechać jakieś małe zwierze znajdujące się na jego drodze jest w jego kompetencjach? Oczywiście że nie! Przecież nie może sam podejmować decyzji! Podobnie takie AI - ono jest takim traktorem, tyle że nie ma kierowcy który by je kontrolował i mógł zatrzymać...

Jednak pamiętaj: cały czas nie mówię tu o sztucznych ograniczeniach :) Bo te rzeczywiście chyba łatwiej stworzyć dla nieludzkiego AI. Choćby przez mniejsze problemy moralne...

Natomiast ludzka SI jest o tyle bezpieczeniejsza, że jeśli jest wystarczająco bliska ludziom może po prostu przejąć naszą moralność i uznać zabicie całego gatunku za "odrobinę" złe :)
Nawet bez tego mamy pewną przewagę nad ludzką AI: wiemy jak myśli. Jest motywowana przez to samo co ludzie. Chce przeżyć. Tego samego nie możemy powiedzieć o tych "głupich". Tak długo jak misja może być kontynuowana bez danego AI, to nie będzie miało problemu ze śmiercią. Ludzkie AI może w jakiś sposób czuć ból, lub nawet mieć emocje. Może różne rzeczy lubić, innych może nie lubić. Może się czegoś bać.
Jest też jednak bardziej podatna na błędy, reakcje na które wpłynęły emocje. Jeśli zakładamy po prostu SI jako superinteligentną kopię człowieka, to to ma całą masę plusów i minusów... Innych w zależności od tego jak bardzo bliska jest człowiekowi.

Częściej jednak będą nas otaczały te "głupie" SI. Po co twój toster ma mieć emocje, kiedy chcesz po prostu by wiedział jakie tosty lubisz?


A skoro już w sumie doszedłem do bardzo ludzkich AI to mam pytanie: co z prawami robotów? Czy jeśli coś ma świadomość, jest inteligentne, ma emocje i potrafi nawet rozmawiać, to należą mu się prawa? Czy może sztuczne życie jest zawsze gorsze niż to "naturalne"? Na jakim etapie maszynie należą się prawa? Co jest granicą między sztucznym życiem, a zwykłym programem komputerowym?

Avatar Mijak
Właściciel
Właśnie o te sztuczne ograniczenia chodzi. Żeby te "głupie" AI były zawsze w pełni posłuszne człowiekowi. Bo z "ludzkimi" może być o to ciężko.

Avatar
Konto usunięte
Masz racje co do tego że może spowodować większe szkody. ALE czy to oznacza że mamy się go bardziej obawiać? Nie, bo możemy to jednak łatwiej powstrzymać. To tak jakbyśmy się bardziej obawiali śmiertelnej choroby którą można wyleczyć jedną małą dawką leku, zamiast choroby która nieleczona nie jest śmiertelna. ale trwa 6 tygodni i jest bardzo bolesna. Szkody niby mniejsze wyrządzi, ale prawdopodobieństwo że akurat znajdzie lekarz debil i da zły lek pacjentowi z pierwszą chorobą jest tak małe że praktycznie równe zeru

Odpowiedź

Pokaż znaczniki BBCode, np. pogrubienie tekstu

Dodaj zdjęcie z dysku