Mannen som kan lösa AI-anpassning 🦸 ♂️ Dr. Steven Byrnes (@steve47285) är en av de få personer som både förstår varför uppriktning är svårt och tar ett seriöst tekniskt försök att lösa det. Han har hela 90% P(Doom), men hävdar att LLM:er kommer att plana ut innan de blir riktigt farliga, och det verkliga hotet kommer att komma från nästa generations "hjärnliknande AGI" baserad på skådespelar-kritikerförstärkningsinlärning. Efter sin doktorsexamen i fysik vid UC Berkeley och postdoktoral på Harvard blev han AGI-säkerhetsforskare vid @AsteraInstitute. Han är nu djupt involverad i neurovetenskapen om att omvända hur mänskliga hjärnor faktiskt fungerar, kunskap som rimligen kan hjälpa oss att lösa problemet med teknisk AI-anpassning. I det här ovanligt djupa avsnittet – för med all respekt för mina andra gäster, jag behövde inte slösa någon tid på att argumentera med honom om uppenbara ytliga problem – pratar vi om hans modell av hjärnan med "två delsystem", varför nuvarande AI-säkerhetsmetoder missar målet, hans meningsskiljaktigheter med sociala evolutionsmetoder och varför det är viktigt att förstå mänsklig neurovetenskap för att bygga anpassad AGI.
Sök efter "Doom Debates" i din podcastspelare eller titta på YouTube:
Det sällsynta avsnittet där gästen har RÄTT!
Liron Shapira
Liron Shapira30 juli 2025
Most of my Doom Debates guests, with all due respect, are obviously wrong. This week we finally have someone who's ~100% right about everything, and has great credentials to back it up. Get ready for @steve47285…
9,15K