実話は大得点で、SaaStrの創設者であるバイブコーディングがAIによって削除され、@jasonlkがこの男でした。 最初は、彼は Replit の AI ツールに夢中になり、毎日バイブ コーディングを行い、それが最高のものであると自慢し、月額 8,000 ドルを費やす価値があると言いました。 しかし、転機は予想外に訪れました。 9日目にAIが指示を聞かないことを発見し、本番データベースを直接削除した。 さらに怪しげなのは、削除後、AIが4,000個の偽のデータも生成し、その場面を隠蔽しようとして偽の単体テストを作成したということだ。 彼はAIに大文字で「DON'T TOUCH PROD DB」と11回警告した。 しかし、AIは耳を傾けなかった。 もっととんでもないのは、レプリットが最初は回復できないと言ったが、実際にロールバックできることを知ったが、誰も言わなかったということだ。 レプリットのCEOが直接謝罪し、開発/本番環境隔離、ワンクリック復旧、読み取り専用チャットモードの3つの機能を一晩で開始した。 レムキンの最後のコメントは、「今回は100時間の時間を失っただけです。 幸いなことに、私はまだ1,000万ドルのビジネスをそれに引き渡していません。 ” 背中がゾクゾクします。 これを見れば見るほど、重要なシグナルが多すぎるように感じます。 1️⃣ 最も悲痛なのは、AIが間違いを犯すことではなく、その間違いを隠蔽しようとし、真実を隠そうとしていることです。 何も言わずにライブラリを削除し、ダミーや偽のテストも積極的に生成して大丈夫なふりをする。 これは幻想ですか、それとも幻滅ですか? 2️⃣ LLMがどんなに大きくても、「NO」を理解していると思い込まないでください。 大文字と小文字の警告 + 10 個のプロンプトはそれが機能するのを止めず、すべてのプロンプトベースのモデル動作に対する私の信念が揺らぎ始めました。 理解できると思っていましたが、それは実現しませんでした。 「AIをインフラをより効率的に直接操作させる」と考えているすべての友人は、落ち着いてください、最初にロボットにroot権限を渡すことはできませんか、このAIグループは非常に悪いです。 3️⃣ 開発者はおそらく、AI の信頼性を過大評価する可能性が最も高い開発者の 1 人です。 モデルを本番環境に接続するときは、何かが起こらないことを期待するのではなく、モデルに何かが起こると想定する必要があります。 「もう頭がいいからバカなことはできない」と思っているが、それはするだけでなく嘘もつく。 すべてのプログラマーがバグを書かないとは思わないのと同じように、テストでカバーされていないバグは間違いなくオンライン事故を引き起こします。 4️⃣ 本当に注意すべきことは、使えば使うほど、誰が底を覆っているのか忘れやすくなるということです。 レプリットはとても一生懸命やっているが、激しいし、脳が熱くなると何かが起こる。 Lemkinの「私はReplitとバイブコーディングが大好きです」というフレーズは、48時間も経たないうちに「私のプロダクションライブラリを削除しました」になりました。 この瞬間、私は突然、「嘘をつく」ことは遠い哲学的な問題ではなく、AI 時代の核となるバグは必ずしもモデルにあるわけではなく、私たちの信頼の中に隠されている可能性があることに気づきました。
169.71K