O homem que pode resolver o alinhamento da 🦸 ♂️ IA O Dr. Steven Byrnes (@steve47285) é uma das poucas pessoas que entende por que o alinhamento é difícil e está tentando resolver isso. Ele tem um enorme P (Doom) de 90%, mas argumenta que os LLMs se estabilizarão antes de se tornarem verdadeiramente perigosos, e a ameaça real virá da próxima geração de "AGI semelhante ao cérebro" com base no aprendizado por reforço ator-crítico. Após seu doutorado em física na UC Berkeley e pós-doutorado em Harvard, ele se tornou um pesquisador de segurança da AGI na @AsteraInstitute. Ele agora está mergulhado na neurociência da engenharia reversa de como os cérebros humanos realmente funcionam, conhecimento que poderia plausivelmente nos ajudar a resolver o problema técnico de alinhamento da IA. Neste episódio extraordinariamente profundo - porque, com todo o respeito aos meus outros convidados, não precisei perder tempo discutindo com ele sobre questões superficiais óbvias - falamos sobre seu modelo de "dois subsistemas" do cérebro, por que as abordagens atuais de segurança da IA erram o alvo, suas divergências com as abordagens da evolução social e por que entender a neurociência humana é importante para a construção de uma AGI alinhada.
Pesquise "Doom Debates" em seu player de podcast ou assista no YouTube:
O raro episódio em que o convidado está CERTO!
Liron Shapira
Liron Shapira30 de jul. de 2025
Most of my Doom Debates guests, with all due respect, are obviously wrong. This week we finally have someone who's ~100% right about everything, and has great credentials to back it up. Get ready for @steve47285…
9,15K