Apple vient de prouver que les modèles de « raisonnement » de l’IA comme Claude, DeepSeek-R1 et o3-mini ne raisonnent pas du tout. Ils mémorisent très bien les motifs. Voici ce qu’Apple a découvert : (indice : nous ne sommes pas aussi proches de l’AGI que le battage médiatique le suggère)
Apple a découvert que ces modèles ne raisonnent pas du tout, mais font plutôt une correspondance de motifs sophistiquée qui fonctionne très bien jusqu’à ce que les motifs deviennent trop complexes. Puis ils s’effondrent comme un château de cartes.
Si ces modèles étaient vraiment « raisonnants », ils devraient s’améliorer avec plus de calcul et des instructions plus claires. Au lieu de cela, ils se heurtent à des murs durs et commencent à abandonner. Cette intelligence ou cette mémorisation atteignent-elles leurs limites ?
Alors que les entreprises d’IA célèbrent la « pensée » de leurs modèles, Apple a essentiellement déclaré que « tout le monde célèbre le faux raisonnement ». L’industrie est à la recherche d’indicateurs qui ne mesurent pas l’intelligence réelle.
Qu’en penses-tu? Apple est-ce qu’elle « s’en sort » parce qu’elle a été dépassée dans les développements de l’IA au cours des deux dernières années ? Ou Apple a-t-il raison ? Commentez ci-dessous et je répondrai à tous.
14,73M