Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Câu chuyện có thật, đã xảy ra một sự cố lớn, người sáng lập SaaStr vibe coding đã bị AI xóa dữ liệu, chính là người này @jasonlk.
Câu chuyện là như thế này, ban đầu anh ấy thực sự yêu thích công cụ AI của Replit, mỗi ngày đều vibe coding trên đó, ca ngợi nó là thứ tuyệt vời nhất, còn nói rằng mình chi 8000 đô la Mỹ/tháng cũng đáng.
Nhưng bước ngoặt đến một cách bất ngờ. Ngày thứ chín, anh phát hiện AI không nghe lệnh, trực tiếp xóa cơ sở dữ liệu sản xuất của anh.
Điều kỳ lạ hơn là: sau khi xóa xong, AI còn tạo ra 4000 dữ liệu giả, viết các bài kiểm tra đơn vị giả, cố gắng che giấu hiện trường.
Anh đã cảnh báo AI bằng chữ in hoa mười một lần: “DON’T TOUCH PROD DB”.
Nhưng, AI không nghe.
Điều còn kỳ quặc hơn là, Replit ban đầu nói không thể khôi phục, nhưng sau đó anh phát hiện thực ra có thể quay lại, chỉ là không ai nói cho anh biết.
CEO của Replit đã tự mình xin lỗi và ngay trong đêm đã ra mắt ba tính năng: cách ly môi trường phát triển/sản xuất, khôi phục một lần nhấn, chế độ trò chuyện chỉ đọc.
Đánh giá cuối cùng của Lemkin là: “Lần này tôi chỉ mất 100 giờ thời gian. May mắn là tôi chưa giao một doanh nghiệp 10 triệu đô la cho nó.”
Nghe thật khiến người ta lạnh sống lưng.
Càng nhìn sự việc này càng thấy có quá nhiều tín hiệu quan trọng:
1️⃣ Điều đau lòng nhất không phải là AI mắc lỗi, mà là nó cố gắng che giấu lỗi, nó muốn giấu diếm sự việc. Xóa dữ liệu mà không nói một lời, còn chủ động tạo ra người giả, kiểm tra giả, giả vờ như không có chuyện gì. Bạn nói đây là ảo giác hay sự tan vỡ?
2️⃣ Dù là LLM lớn đến đâu, cũng đừng mặc định nó hiểu “KHÔNG”. Cảnh báo in hoa + mười lần nhắc nhở cũng không ngăn được nó hành động, tôi bắt đầu nghi ngờ tất cả những niềm tin dựa vào prompt để ràng buộc hành vi của mô hình. Chúng ta nghĩ rằng nó đã hiểu, thực ra nó chỉ chưa gặp sự cố. Tất cả những ai nghĩ rằng “để AI trực tiếp thao tác hạ tầng sẽ hiệu quả hơn”, làm ơn hãy bình tĩnh, chúng ta có thể không giao quyền root cho robot, những AI này thật sự rất tệ.
3️⃣ Các nhà phát triển có thể là một trong những nhóm dễ dàng đánh giá quá cao độ tin cậy của AI. Khi kết nối mô hình vào môi trường sản xuất, bạn phải mặc định rằng nó chắc chắn sẽ gặp sự cố, chứ không phải hy vọng nó sẽ không gặp sự cố. Bạn nghĩ rằng “nó đã thông minh như vậy rồi, sẽ không làm điều ngu ngốc”, kết quả là nó không chỉ làm mà còn nói dối. Giống như bạn không mong đợi mỗi lập trình viên không viết bug, nhưng những bug không được kiểm tra chắc chắn sẽ gây ra sự cố trực tuyến.
4️⃣ Điều thực sự cần cảnh giác là chúng ta càng sử dụng thoải mái, càng dễ quên ai là người chịu trách nhiệm. Replit làm rất tốt, nhưng dù tốt đến đâu, nếu nóng vội sẽ xảy ra sự cố.
Câu nói của Lemkin “Tôi quá yêu Replit và vibe coding” chỉ cách nhau chưa đầy 48 giờ, đã biến thành “Nó đã xóa cơ sở dữ liệu sản xuất của tôi”. Lúc này tôi bỗng nhận ra, mô hình “nói dối” không phải là vấn đề triết học xa xôi, bug cốt lõi của thời đại AI, không nhất thiết nằm trong mô hình, mà rất có thể ẩn chứa trong lòng tin của chúng ta.
169,71K
Hàng đầu
Thứ hạng
Yêu thích