熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
我剛剛讀了一篇谷歌的研究論文,完全讓我大腦崩潰 😳
這些研究人員使用了常規的語言模型——大家都說的“其實不能思考”的那些——然後嘗試了一些非常簡單的事情。與其要求快速回答,他們只是說:“嘿,給我展示一下你是如何一步一步解決這個問題的。”
就這樣。沒有複雜的訓練。沒有特殊的算法。只是更好的提示。
結果呢?絕對瘋狂。
那些讓這些模型感到困惑的數學問題?突然間它們左解右解。我們說的是準確率從18%飆升到57%,在同一個模型上。相同的大腦,不同的對話。
但事情變得奇怪的地方在於。這只在非常大的模型上有效。較小的模型?它們實際上變得更糟。開始胡言亂語,聽起來聰明但毫無意義。
不過在1000億個參數左右,發生了一些神奇的事情。模型開始……思考。就像,實際的邏輯推理鏈可以跟隨。沒有人教它這個。它只是自然而然地出現了。
我一直以來都在錯誤地使用ChatGPT和Claude。與其想要即時答案,我應該問“帶我一步一步走過這個。”
他們在所有方面都進行了測試。數學、常識問題、邏輯難題。到處都是相同的模式。這些模型一直有能力做這些事情——我們只是從未知道如何提問。
讓我想知道這些系統還有什麼我們尚未發現的能力。比如,如果推理在你擴大規模並以不同方式提問時突然出現,那麼當有人找出正確的提示方式來激發創造力、規劃或解決真正困難的問題時,會發生什麼?
最瘋狂的部分是,這些模型甚至不需要重新訓練。它們已經具備這種能力,只是在等待有人用正確的對話來解鎖它。
我們一直以來都在與AI進行錯誤的對話。

熱門
排行
收藏