L'uomo che potrebbe RISOLVERE l'allineamento dell'IA 🦸‍♂️ Il Dr. Steven Byrnes (@steve47285) è una delle poche persone che comprende sia perché l'allineamento sia difficile, sia che sta affrontando seriamente il problema con un approccio tecnico. Ha un impressionante 90% P(Doom), ma sostiene che i LLM raggiungeranno un plateau prima di diventare veramente pericolosi, e la vera minaccia arriverà dalla prossima generazione di "AGI simile al cervello" basata sull'apprendimento per rinforzo attore-critico. Dopo il suo dottorato in fisica all'UC Berkeley e il post-dottorato ad Harvard, è diventato un ricercatore sulla sicurezza dell'AGI presso @AsteraInstitute. Ora è profondamente immerso nelle neuroscienze per decifrare come funzionano realmente i cervelli umani, una conoscenza che potrebbe plausibilmente aiutarci a risolvere il problema tecnico dell'allineamento dell'IA. In questo episodio insolitamente profondo — perché con tutto il rispetto per i miei altri ospiti, non ho dovuto perdere tempo a discutere con lui su questioni superficiali ovvie — parliamo del suo modello "a due sottosistemi" del cervello, perché gli attuali approcci alla sicurezza dell'IA mancano il bersaglio, le sue disaccordi con gli approcci di evoluzione sociale, e perché comprendere le neuroscienze umane è importante per costruire un'AGI allineata.
Cerca "Doom Debates" nel tuo lettore podcast o guarda su YouTube:
Il raro episodio in cui l'ospite ha RAGIONE!
Liron Shapira
Liron Shapira30 lug 2025
Most of my Doom Debates guests, with all due respect, are obviously wrong. This week we finally have someone who's ~100% right about everything, and has great credentials to back it up. Get ready for @steve47285…
9,14K