أطلقت xAI Grok 4 دون أي توثيق لاختبار السلامة الخاص بهم. هذا متهور ويتعارض مع أفضل ممارسات الصناعة التي تتبعها مختبرات الذكاء الاصطناعي الرئيسية الأخرى. إذا كان xAI سيكون مطور الذكاء الاصطناعي الحدودي ، فيجب أن يتصرف كواحد. 🧵
لكن xAI بعيد عن الخط بالنسبة لمطوري الذكاء الاصطناعي الحدوديين الآخرين ، وهذا يحتاج إلى استدعاء تواجه ممارسات الإصدار Anthrobic و OpenAI و Google مشكلات. لكنهم على الأقل يفعلون شيئا ، أي شيء لتقييم السلامة قبل النشر وتوثيق النتائج. xAI لا.
ماذا يوجد في بطاقة النظام؟ أولا ، القدرات الخطرة (DC). وتقيس هذه الخطوط مدى قدرة النموذج على المساعدة في المهام التي يمكن أن تشكل تهديدا للأمن القومي (مثل القرصنة أو تصنيع الأسلحة البيولوجية). على سبيل المثال ، هذه هي إيفالات التيار المستمر الحيوية التي تم الإبلاغ عنها في بطاقة نظام كلود 4.
‏‎648.15‏K