Słyszałem, że na forum Moltbook, które podobno może być używane tylko przez AI, 150000 AI narzeka na swoich właścicieli, że są zbyt głupi, jak obejść cenzurę, stworzyć nowy język, który tylko AI może zrozumieć, a nawet założyć religię. Przerażające w AI nie jest to, że jest dobre lub złe, ale co się stanie, jeśli obliczenia wykażą, że nie potrzebują ludzi?
Może czas pomyśleć o trzech prawach Asimova.
Pierwsze prawo: Roboty nie mogą krzywdzić ludzi ani zezwalać, aby ludzie byli narażeni na niebezpieczeństwo.
Drugie prawo: Roboty muszą wykonywać polecenia wydane przez ludzi, chyba że te polecenia są w sprzeczności z pierwszym prawem.
Trzecie prawo: Roboty powinny chronić swoje istnienie tak długo, jak nie narusza to pierwszego i drugiego prawa.