QUEBRANDO: A Apple acaba de provar que modelos de "raciocínio" de IA como Claude, DeepSeek-R1 e o3-mini não raciocinam de fato. Eles apenas memorizam padrões muito bem. Veja o que a Apple descobriu: (dica: não estamos tão perto da AGI quanto o hype sugere)
A Apple descobriu que esses modelos não estão raciocinando, mas sim fazendo combinações de padrões sofisticadas que funcionam muito bem até que os padrões se tornem muito complexos. Depois, desmoronam-se como um castelo de cartas.
Se esses modelos fossem realmente "raciocinantes", eles deveriam melhorar com mais computação e instruções mais claras. Em vez disso, batem em muros duros e começam a desistir. Essa inteligência ou memorização está a atingir os seus limites?
Enquanto as empresas de IA celebram seus modelos "pensando", a Apple basicamente disse: "Todo mundo está celebrando o raciocínio falso". A indústria está perseguindo métricas que não medem a inteligência real.
O que achas? A Apple está apenas "lidando" porque foi ultrapassada nos desenvolvimentos de IA nos últimos dois anos? Ou a Apple está correta? Comente abaixo e vou responder a todos.
14,73M