Lo psicologo evolutivo Professor Geoffrey Miller afferma di pensare che ci sia una probabilità del 50% che l'IA porti a un disastro. Il modo principale in cui vede che ciò accade è che entriamo in una corsa agli armamenti dell'IA e la superintelligenza viene costruita senza che noi abbiamo alcuna idea di come controllarla o allinearla.
5,74K