热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
我刚刚读了一篇谷歌的研究论文,完全让我大脑崩溃 😳
这些研究人员使用了常规的语言模型——大家都说的“其实不能思考”的那些——然后尝试了一些非常简单的事情。与其要求快速回答,他们只是说:“嘿,给我展示一下你是如何一步一步解决这个问题的。”
就这样。没有复杂的训练。没有特殊的算法。只是更好的提示。
结果呢?绝对疯狂。
那些让这些模型感到困惑的数学问题?突然间它们左解右解。我们说的是准确率从18%飙升到57%,在同一个模型上。相同的大脑,不同的对话。
但事情变得奇怪的地方在于。这只在非常大的模型上有效。较小的模型?它们实际上变得更糟。开始胡言乱语,听起来聪明但毫无意义。
不过在1000亿个参数左右,发生了一些神奇的事情。模型开始……思考。就像,实际的逻辑推理链可以跟随。没有人教它这个。它只是自然而然地出现了。
我一直以来都在错误地使用ChatGPT和Claude。与其想要即时答案,我应该问“带我一步一步走过这个。”
他们在所有方面都进行了测试。数学、常识问题、逻辑难题。到处都是相同的模式。这些模型一直有能力做这些事情——我们只是从未知道如何提问。
让我想知道这些系统还有什么我们尚未发现的能力。比如,如果推理在你扩大规模并以不同方式提问时突然出现,那么当有人找出正确的提示方式来激发创造力、规划或解决真正困难的问题时,会发生什么?
最疯狂的部分是,这些模型甚至不需要重新训练。它们已经具备这种能力,只是在等待有人用正确的对话来解锁它。
我们一直以来都在与AI进行错误的对话。

热门
排行
收藏