La Superinteligencia Artificial se siente como una tecnología que debemos desbloquear en 200-300 años. Como especie, absolutamente no estamos listos para ello. Esto se siente como darle a un campesino medieval acceso a uranio de grado armamentístico. Las matemáticas y los algoritmos detrás del aprendizaje por refuerzo no son increíblemente difíciles de entender, lo que significa que cualquier civilización que haya descubierto álgebra matricial, teoría de probabilidades y cálculo podría lograr esto con computación. Lo que hemos aprendido es que lo que llamamos inteligencia es independiente del sustrato y puede escalarse dramáticamente con computación. Nadie conoce los límites superiores de esto. Creo que George Hotz estaba en lo correcto cuando dijo que necesita haber un campo completamente nuevo de investigación científica que tenga poder predictivo sobre la capacidad de un modelo y predicciones sobre cualquier límite superior de lo que llamamos inteligencia, si es que existen. La ASI destruirá cualquier noción que tengamos de la sociedad moderna actual. Nuestro mundo en los años 2100 nos mirará como si fuéramos hombres primitivos. Las curvas exponenciales significan que cada año el progreso se comprime, logrando en 1 año lo que tomaría de 10 a 100 años. El cerebro humano no está construido para manejar este entorno.
5,52K