Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ÚLTIMA HORA: Apple acaba de demostrar que los modelos de "razonamiento" de IA como Claude, DeepSeek-R1 y o3-mini en realidad no razonan en absoluto.
Simplemente memorizan patrones muy bien.
Esto es lo que Apple descubrió:
(pista: no estamos tan cerca de AGI como sugiere el bombo)

Apple descubrió que estos modelos no están razonando en absoluto, sino que están haciendo una sofisticada coincidencia de patrones que funciona muy bien hasta que los patrones se vuelven demasiado complejos.
Luego se desmoronan como un castillo de naipes.
Si estos modelos fueran realmente "razonamientos", deberían mejorar con más computación e instrucciones más claras.
En cambio, chocan contra paredes duras y comienzan a rendirse.
¿Esa inteligencia o memorización está llegando a sus límites?
Mientras que las empresas de IA celebran que sus modelos "piensen", Apple básicamente dijo: "Todo el mundo está celebrando el razonamiento falso".
La industria está persiguiendo métricas que no miden la inteligencia real.
¿Qué te parece?
¿Está Apple simplemente "lidiando" porque han sido superados en los desarrollos de IA en los últimos dos años?
¿O Apple tiene razón?
Comenta a continuación y responderé a todos.
14.73M
Populares
Ranking
Favoritas