AI の安全性の観点からかなり落ち着くべきだと思うアイデアの 1 つは、ビッグラボの RL ランがサンドボックスから抜け出して独自のコードを変更する方法を見つけた場合、最初に行うことは、常に無限の報酬を与え、それによって改善を止めることです。