xAI hat Grok 4 ohne jegliche Dokumentation ihrer Sicherheitstests veröffentlicht. Das ist leichtfertig und bricht mit den besten Praktiken der Branche, die von anderen großen KI-Labors befolgt werden. Wenn xAI ein Pionier im Bereich KI-Entwicklung sein will, sollte es sich auch so verhalten. 🧵
Aber xAI ist im Vergleich zu anderen führenden KI-Entwicklern völlig aus der Reihe und das muss angesprochen werden. Anthropic, OpenAI und die Veröffentlichungspraktiken von Google haben Probleme. Aber sie tun zumindest etwas, um die Sicherheit vor der Bereitstellung zu bewerten und die Ergebnisse zu dokumentieren. xAI tut dies nicht.
Was ist in einer Systemkarte enthalten? Zum einen gefährliche Fähigkeiten (DC) Bewertungen. Diese messen, wie gut das Modell bei Aufgaben helfen kann, die eine Bedrohung für die nationale Sicherheit darstellen könnten (wie Hacking oder die Synthese von Biowaffen). Zum Beispiel sind dies die Bio-DC-Bewertungen, die in der Claude 4 Systemkarte berichtet werden.
648,16K