xAI запустила Grok 4 без будь-якої документації про тестування їхньої безпеки. Це нерозсудливо і суперечить найкращим практикам галузі, яких дотримуються інші великі лабораторії штучного інтелекту. Якщо xAI збирається бути передовим розробником штучного інтелекту, вони повинні діяти як один. 🧵
Але xAI далеко не відповідає вимогам порівняно з іншими розробниками передового штучного інтелекту, і це потрібно визнати Практики випуску Anthropic, OpenAI та Google мають проблеми. Але вони принаймні щось роблять, будь-що, щоб оцінити безпеку перед розгортанням і задокументувати результати. xAI – ні.
Що входить до складу системної картки? По-перше, небезпечні можливості (DC). Вони вимірюють, наскільки добре модель може допомогти у виконанні завдань, які можуть становити загрозу національній безпеці (наприклад, хакерство або синтез біологічної зброї). Наприклад, це біо DC evals, про які повідомляється в системній картці Claude 4.
648,16K