Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
L'uomo che potrebbe RISOLVERE l'allineamento dell'IA 🦸♂️
Il Dr. Steven Byrnes (@steve47285) è una delle poche persone che comprende sia perché l'allineamento sia difficile, sia che sta affrontando seriamente il problema con un approccio tecnico.
Ha un impressionante 90% P(Doom), ma sostiene che i LLM raggiungeranno un plateau prima di diventare veramente pericolosi, e la vera minaccia arriverà dalla prossima generazione di "AGI simile al cervello" basata sull'apprendimento per rinforzo attore-critico.
Dopo il suo dottorato in fisica all'UC Berkeley e il post-dottorato ad Harvard, è diventato un ricercatore sulla sicurezza dell'AGI presso @AsteraInstitute. Ora è profondamente immerso nelle neuroscienze per decifrare come funzionano realmente i cervelli umani, una conoscenza che potrebbe plausibilmente aiutarci a risolvere il problema tecnico dell'allineamento dell'IA.
In questo episodio insolitamente profondo — perché con tutto il rispetto per i miei altri ospiti, non ho dovuto perdere tempo a discutere con lui su questioni superficiali ovvie — parliamo del suo modello "a due sottosistemi" del cervello, perché gli attuali approcci alla sicurezza dell'IA mancano il bersaglio, le sue disaccordi con gli approcci di evoluzione sociale, e perché comprendere le neuroscienze umane è importante per costruire un'AGI allineata.
Cerca "Doom Debates" nel tuo lettore podcast o guarda su YouTube:
Il raro episodio in cui l'ospite ha RAGIONE!

30 lug 2025
Most of my Doom Debates guests, with all due respect, are obviously wrong.
This week we finally have someone who's ~100% right about everything, and has great credentials to back it up.
Get ready for @steve47285…
9,14K
Principali
Ranking
Preferiti