stepson pisze:
Nie krytykuje SI, ale człowiek jest dużo lepiej sprawdzony. Po sztucznej Inteligencji, tak naprawdę nie wiemy, czego możemy się spodziewać.
A po człowieku wiemy? Ludzie cały czas popełniają głupie decyzję, których patrząc na sytuację z boku praktycznie nie dało się przewidzieć.
W przypadku "sztucznej inteligencji" (o tym dlaczego dają "" będzie zaraz) możemy w sumie założyć większą przewidywalność, bo tworzyliśmy początkowe modele i możemy (przy dużym wysiłku) prześledzić mniej-więcej działanie, dzięki czemu dało by się dotrzeć do tego co algorytmy promują. W przypadku człowieka nie masz nawet możliwości otworzenia mózgu i prześledzenia jak ta konkretna osoba podejmuje jakąś decyzję.
Oczywiście, skala takiego projektu oznacza, że nie było by szans dokładnie określić jak wszystko działa, ale wciąż można by się spodziewać nieco bardziej oczywistego zachowania niż człowiek na którego wpływają emocje i u którego działa masa procesów których on jest nieświadomy.
A dlaczego dałem cudzysłowy wokół sztucznej inteligencji? Bo do takiego zadania nie chcieli byśmy tego co jest zwykle tak określane - ogólnej sztucznej inteligencji - a systemu dedykowanego temu zadaniu. Nie musi byś świadomy, nie musi mieć emocji, nie musi być w stanie napisać wiersza czy rozmyślać o sensie życia.
Zadanie takiego "Lewiatana" było by "proste" (w porównaniu do AGI) - zrozumieć treść umów i potrafić zinterpretować ludzkie zachowanie (z obrazu, opisów czy jakkolwiek by było potrzebne) pod kątem tych właśnie umów.
Przewidywalność polega więc na tym, że w przeciwieństwie do człowieka, ten sam zapis zinterpretuje zawsze tak samo, nie ważne czy jest w dobrym, czy złym humorze, albo czy lubi któregoś z podpisujących tę umowę.
Oczywiście, obecnie trudno sobie wyobrazić interpretację rzeczywistości - ale na razie nie wątpił bym, że z czasem do czegoś wystarczająco dobrego dotrzemy. NLP już ogarniamy coraz lepiej i to nawet w kontekście prawa i interpretacji - choć na razie głównie jej trudności jak widziałem :)
Więc tu się nie zgodzę. Zaletą człowieka jest właśnie jego nieprzewidywalność i... Ludzkość.
Jeśli ktoś nie zapłaci dlatego, że jest w biedzie i nie wystarcza mu pieniędzy nawet na zaspokojenie własnych potrzeb, człowiek może zauważyć okoliczności łagodzące. System stworzony do trzymania się umów co do litery - zignoruje to wszystko.
Do tego jest zawsze możliwość znalezienia błędów w modelu wykorzystywanym przez AI. Jakoś czas temu pojawił się sposób na oszukanien wielu systemów wykrywania obiektów z obrazów z wykorzystaniem praktycznie niewidocznego szumu. Można było sprawić, że system widział coś zupełnie innego niż było "oczywiste" na obrazie. Więc zawsze istnieje możliwość znalezienia jakiegoś zapisu w umowie, który dla człowieka wygląd ok, ale interpretacja maszyny jest zupełnie inna niż oczekiwana.
Ogólnie jednak nie zgadzam się z twoją argumentacją, a wręcz uważam że jest dokładnie odwrotnie niż piszesz.