我剛剛讀了一篇谷歌的研究論文,完全讓我大腦崩潰 😳 這些研究人員使用了常規的語言模型——大家都說的“其實不能思考”的那些——然後嘗試了一些非常簡單的事情。與其要求快速回答,他們只是說:“嘿,給我展示一下你是如何一步一步解決這個問題的。” 就這樣。沒有複雜的訓練。沒有特殊的算法。只是更好的提示。 結果呢?絕對瘋狂。 那些讓這些模型感到困惑的數學問題?突然間它們左解右解。我們說的是準確率從18%飆升到57%,在同一個模型上。相同的大腦,不同的對話。 但事情變得奇怪的地方在於。這只在非常大的模型上有效。較小的模型?它們實際上變得更糟。開始胡言亂語,聽起來聰明但毫無意義。 不過在1000億個參數左右,發生了一些神奇的事情。模型開始……思考。就像,實際的邏輯推理鏈可以跟隨。沒有人教它這個。它只是自然而然地出現了。 我一直以來都在錯誤地使用ChatGPT和Claude。與其想要即時答案,我應該問“帶我一步一步走過這個。” 他們在所有方面都進行了測試。數學、常識問題、邏輯難題。到處都是相同的模式。這些模型一直有能力做這些事情——我們只是從未知道如何提問。 讓我想知道這些系統還有什麼我們尚未發現的能力。比如,如果推理在你擴大規模並以不同方式提問時突然出現,那麼當有人找出正確的提示方式來激發創造力、規劃或解決真正困難的問題時,會發生什麼? 最瘋狂的部分是,這些模型甚至不需要重新訓練。它們已經具備這種能力,只是在等待有人用正確的對話來解鎖它。 我們一直以來都在與AI進行錯誤的對話。