私は、AIの安全性コミュニティが短いタイムラインに焦点を当てるあまり、逆効果の希少性という考え方で運営されているのではないかと懸念しています。 私は、個人が感情的にどれだけ回復力があるかに比例して、多かれ少なかれ緊急のシナリオに焦点を当てるポートフォリオアプローチを好みます。
私は、起こりうる未来についての「信念」を変えるべきだと言っているのではなく、ただ、改善を目指す可能性のある未来のサブセットを変えるべきだと言っているのです。 短いタイムラインのシナリオに焦点を当てることは、ファーストレスポンダーになるようなものです。ほとんどの人は気質的にそれに適していません。
具体的には、短いタイムラインに焦点を当てることが、基礎研究への投資不足、「どんな規制でも良い」という考え方(例えば、SB-1047が短いタイムラインでの規制の「最後のチャンス」だと言っている人々)、部族主義/パラノイア(openaiボードのクーデターを参照)などを引き起こしているようです。
個人的には、私は主に10 +年にわたって完済すると予想する研究と計画に焦点を当てていますが、それは部分的に私の経験的な信念によるものですが、主に私は時間のプレッシャーの下でハッキーな解決策を考え出そうとするのが嫌いです。
他の例:@leopoldaschの状況認識レポートは非常に希少性の考え方でした(しかし、彼が現在ヘッジファンドを運営している彼はそうではありません)。 私を含め、多くの人が希少性からOpenAIに長く留まりすぎました。 より一般的には、「*何か*をしなければならない」というのは、非常に両刃の剣です。
22.88K