Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Majoritatea invitaților mei de la Doom Debates, cu tot respectul, greșesc în mod evident.
Săptămâna aceasta avem în sfârșit pe cineva care are ~ 100% dreptate în orice și are acreditări grozave pentru a susține acest lucru.
Pregătește-te pentru @steve47285...
Iată episodul!!

2 aug., 03:12
Omul care ar putea rezolva alinierea 🦸 ♂️ AI
Dr. Steven Byrnes (@steve47285) este unul dintre puținii oameni care înțeleg de ce alinierea este dificilă și face o încercare tehnică serioasă de a o rezolva.
El are un P(Doom) de 90%, dar susține că LLM-urile se vor plafona înainte de a deveni cu adevărat periculoase, iar adevărata amenințare va veni de la următoarea generație "AGI-like cerebrală" bazată pe învățarea prin întărire a actorilor-critici.
După doctoratul în fizică la UC Berkeley și postdoctoratul la Harvard, a devenit cercetător în siguranță AGI la @AsteraInstitute. Acum este adânc implicat în neuroștiința ingineriei inverse a modului în care funcționează de fapt creierul uman, cunoștințe care ne-ar putea ajuta să rezolvăm problema alinierii tehnice a inteligenței artificiale.
În acest episod neobișnuit de profund – pentru că, cu tot respectul pentru ceilalți invitați, nu a trebuit să pierd timpul discutând cu el despre probleme evidente de suprafață – vorbim despre modelul său de "două subsisteme" al creierului, de ce abordările actuale de siguranță AI ratează ținta, dezacordurile sale cu abordările de evoluție socială și de ce înțelegerea neuroștiinței umane contează pentru construirea unui AGI aliniat.
5,3K
Limită superioară
Clasament
Favorite