СРОЧНО: Apple только что доказала, что модели ИИ "рассуждений", такие как Claude, DeepSeek-R1 и o3-mini, на самом деле не рассуждают вовсе. Они просто очень хорошо запоминают шаблоны. Вот что обнаружила Apple: (подсказка: мы не так близки к AGI, как предполагает ажиотаж)
Apple обнаружила, что эти модели вовсе не рассуждают, а вместо этого выполняют сложное сопоставление шаблонов, которое отлично работает, пока шаблоны не становятся слишком сложными. Тогда они разваливаются, как карточный домик.
Если бы эти модели действительно "размышляли", они должны были бы становиться лучше с увеличением вычислительных мощностей и более четкими инструкциями. Вместо этого они сталкиваются с серьезными препятствиями и начинают сдаваться. Это интеллект или пределы запоминания?
Пока компании ИИ празднуют, что их модели "думают", Apple в основном сказала: "Все празднуют ложное рассуждение." Отрасль гонится за метриками, которые не измеряют реальный интеллект.
Что вы думаете? Apple просто "справляется" с ситуацией, потому что их обошли в разработках ИИ за последние два года? Или Apple права? Комментируйте ниже, и я отвечу всем.
14,73M