A xAI lançou o Grok 4 sem qualquer documentação dos seus testes de segurança. Isso é imprudente e quebra as melhores práticas da indústria seguidas por outros grandes laboratórios de IA. Se a xAI vai ser um desenvolvedor de IA de ponta, deve agir como tal. 🧵
Mas a xAI está muito fora de linha em relação a outros desenvolvedores de IA de ponta, e isso precisa ser destacado. A Anthropic, a OpenAI e as práticas de lançamento do Google têm problemas. Mas pelo menos fazem algo, qualquer coisa, para avaliar a segurança antes da implementação e documentar as descobertas. A xAI não o faz.
O que está num cartão de sistema? Para começar, avaliações de capacidades perigosas (DC). Estas medem quão bem o modelo pode ajudar em tarefas que podem representar uma ameaça à segurança nacional (como hacking ou síntese de armas biológicas). Por exemplo, estas são as avaliações de DC biológicas reportadas no cartão de sistema Claude 4.
648,15K