xAI spustila Grok 4 bez jakékoli dokumentace o jejich bezpečnostním testování. To je bezohledné a je to v rozporu s osvědčenými postupy v oboru, kterými se řídí další velké laboratoře umělé inteligence. Pokud má být xAI hraničním vývojářem umělé inteligence, měl by se tak chovat. 🧵
Ale xAI je ve srovnání s ostatními hraničními vývojáři umělé inteligence úplně mimo a na to je třeba upozornit Postupy společností Anthropic, OpenAI a Google při vydávání mají problémy. Ale alespoň něco dělají, cokoliv pro posouzení bezpečnosti před nasazením a zdokumentují zjištění. xAI ne.
Co je součástí systémové karty? Za prvé, nebezpečné schopnosti (DC) evals. Ty měří, jak dobře může model pomoci s úkoly, které by mohly představovat hrozbu pro národní bezpečnost (jako je hackování nebo syntéza biologických zbraní). Např. se jedná o bio DC evaly uvedené v systémové kartě Claude 4.
648,15K