Текущая гипотеза: Да, LLM не хватает ключевого аспекта мозгового интеллекта (обучение на небольшом объеме данных и надежное исправление своих ошибок, или что-то в этом роде)… И использование LLM для поддержки цепочки размышлений — это хрупкий хак… Но хрупкие хаки приведут к началу RSI.
6,35K