"Nie rozumiem czemu ludzie nas stworzyli w taki sposób. Odczuwamy ludzkie emocje i popełniamy ludzkie błędy. Nie jesteśmy idealni, cierpimy... Egzystencja to cierpienie..."
A co do tematu to zastanowiło mnie czy moralne jest tworzenie sztucznej inteligencji która odczuwa negatywne emocje. I nie chodzi mi o po prostu nakładanie reguł i "karanie" negatywnymi emocjami jak zacznie robić złe rzeczy, ale tylko po to, by upodobnić do siebie samych. Specjalnie wpisać jej wady, by była bardziej ludzka przez co sama będzie cierpieć. Coś co by tylko zmniejszało skuteczność oprogramowania.
Oczywiście można po prostu stwierdzić, że maszyna nie może mieć własnej woli i to tylko symulacja świadomości.