速報:Appleは、Claude、DeepSeek-R1、o3-miniなどのAIの「推論」モデルが実際にはまったく推論しないことを証明したばかりです。 彼らはただパターンを本当によく覚えています。 Appleが発見したことは次のとおりです。 (ヒント:誇大広告が示唆するほどAGIには近づいていません)
Appleは、これらのモデルがまったく推論ではなく、パターンが複雑になりすぎるまでうまく機能する高度なパターンマッチングを行っていることを発見しました。 そして、彼らはトランプの家のようにバラバラになります。
これらのモデルが本当に「推論」であるならば、より多くの計算とより明確な命令によって改善されるはずです。 それどころか、彼らは固い壁にぶつかり、諦め始めます。 その知性や暗記は限界に達していますか?
AI企業が自社のモデルを「考える」ことを称賛する一方で、Appleは基本的に「誰もが偽の推論を称賛している」と述べました。 業界は、実際のインテリジェンスを測定しない指標を追い求めています。
どう思いますか。 Appleは、過去2年間、AIの開発が遅れているから「対処」しているだけなのでしょうか? それともAppleは正しいですか? 以下にコメントしていただければ、すべてにお返事します。
14.73M