El hombre que podría RESOLVER la alineación de la IA 🦸‍♂️ El Dr. Steven Byrnes (@steve47285) es una de las pocas personas que entiende por qué la alineación es difícil y está tomando un enfoque técnico serio para resolverlo. Tiene un impresionante 90% de P(Doom), pero argumenta que los LLM alcanzarán un punto de meseta antes de volverse realmente peligrosos, y la verdadera amenaza vendrá de la próxima generación de "AGI similar al cerebro" basada en el aprendizaje por refuerzo actor-crítico. Después de su doctorado en física en UC Berkeley y su postdoctorado en Harvard, se convirtió en investigador de seguridad de AGI en @AsteraInstitute. Ahora está profundamente inmerso en la neurociencia de la ingeniería inversa de cómo funcionan realmente los cerebros humanos, un conocimiento que podría ayudarnos a resolver el problema técnico de la alineación de la IA. En este episodio inusualmente profundo — porque con todo el respeto a mis otros invitados, no tuve que perder tiempo discutiendo con él sobre problemas superficiales obvios — hablamos sobre su modelo de "dos subsistemas" del cerebro, por qué los enfoques actuales de seguridad de la IA no dan en el blanco, sus desacuerdos con los enfoques de evolución social y por qué entender la neurociencia humana es importante para construir AGI alineada.
Busca "Doom Debates" en tu reproductor de podcast o míralo en YouTube:
¡El raro episodio en el que el invitado tiene RAZÓN!
Liron Shapira
Liron Shapira30 jul 2025
Most of my Doom Debates guests, with all due respect, are obviously wrong. This week we finally have someone who's ~100% right about everything, and has great credentials to back it up. Get ready for @steve47285…
9,14K