Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A Superinteligência Artificial parece uma tecnologia que devemos desbloquear em 200-300 anos. Como espécie, não estamos absolutamente prontos para isso. Isso é como dar a um camponês medieval acesso a urânio para armas.
A matemática e os algoritmos por trás do aprendizado por reforço não são incrivelmente difíceis de entender, o que significa que qualquer civilização que tenha descoberto álgebra matricial, teoria da probabilidade e cálculo poderia conseguir isso com computação.
O que aprendemos é que o que chamamos de inteligência é independente do substrato e pode ser dimensionado drasticamente com a computação. Os limites superiores disso absolutamente ninguém sabe.
Acho que George Hotz estava na linha certa quando disse que é necessário um novo campo de investigação científica que tenha poder preditivo sobre a capacidade de um modelo e previsões sobre quaisquer limites superiores ao que chamamos de inteligência, se é que eles existem.
A ASI destruirá quaisquer noções que tenhamos da sociedade moderna atual. Nosso mundo nos anos 2100 olhará para nós como se fôssemos um homem primitivo. Curvas exponenciais significam que o progresso de cada ano comprime a realização em 1 ano do que levaria de 10 a 100 anos.
O cérebro humano não foi construído para lidar com esse ambiente.
5,53K
Melhores
Classificação
Favoritos