Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O homem que pode resolver o alinhamento da 🦸 ♂️ IA
O Dr. Steven Byrnes (@steve47285) é uma das poucas pessoas que entende por que o alinhamento é difícil e está tentando resolver isso.
Ele tem um enorme P (Doom) de 90%, mas argumenta que os LLMs se estabilizarão antes de se tornarem verdadeiramente perigosos, e a ameaça real virá da próxima geração de "AGI semelhante ao cérebro" com base no aprendizado por reforço ator-crítico.
Após seu doutorado em física na UC Berkeley e pós-doutorado em Harvard, ele se tornou um pesquisador de segurança da AGI na @AsteraInstitute. Ele agora está mergulhado na neurociência da engenharia reversa de como os cérebros humanos realmente funcionam, conhecimento que poderia plausivelmente nos ajudar a resolver o problema técnico de alinhamento da IA.
Neste episódio extraordinariamente profundo - porque, com todo o respeito aos meus outros convidados, não precisei perder tempo discutindo com ele sobre questões superficiais óbvias - falamos sobre seu modelo de "dois subsistemas" do cérebro, por que as abordagens atuais de segurança da IA erram o alvo, suas divergências com as abordagens da evolução social e por que entender a neurociência humana é importante para a construção de uma AGI alinhada.
Pesquise "Doom Debates" em seu player de podcast ou assista no YouTube:
O raro episódio em que o convidado está CERTO!

30 de jul. de 2025
Most of my Doom Debates guests, with all due respect, are obviously wrong.
This week we finally have someone who's ~100% right about everything, and has great credentials to back it up.
Get ready for @steve47285…
9,15K
Melhores
Classificação
Favoritos