現在の仮説: ええ、LLM には脳のような知能の重要な側面 (小さな入力から学習し、間違いをしっかりと修正するなど) が欠けています... そして、LLM を使用して思考連鎖の推論を強化することは、壊れやすいハックです... しかし、脆弱なハッキングはRSIをブートストラップするでしょう。
6.34K