Elon Musk e sua empresa de inteligência artificial, xAI, não cumpriram o prazo autoimposto para publicar um framework de segurança de IA finalizado, conforme observado pelo grupo de monitoramento The Midas Project.
xAI não é exatamente conhecida por seus fortes compromissos com a segurança de IA, conforme comumente entendido. Um relatório recente descobriu que o chatbot de IA da empresa, Grok, despiria fotos de mulheres quando solicitado. Grok também pode ser consideravelmente mais grosseiro do que chatbots como Gemini e ChatGPT, xingando sem muita restrição para falar.
Apesar disso, em fevereiro, no AI Seoul Summit, um encontro global de líderes e interessados em IA, a xAI publicou um rascunho de framework delineando a abordagem da empresa para a segurança de IA. O documento de oito páginas apresentava as prioridades de segurança e a filosofia da xAI, incluindo os protocolos de benchmarking da empresa e considerações sobre a implantação de modelos de IA.

Como observado pelo The Midas Project no post do blog nesta terça-feira, no entanto, o rascunho se aplicava apenas a modelos de IA futuros não especificados “que atualmente não estão em desenvolvimento”. Além disso, ele não conseguiu articular como a xAI identificaria e implementaria mitigadores de riscos, um componente central de um documento que a empresa assinou no AI Seoul Summit.
No rascunho, a xAI afirmou que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” – até 10 de maio. O prazo passou sem reconhecimento nos canais oficiais da xAI.
Apesar dos frequentes avisos de Musk sobre os perigos de IA sem controle, a xAI tem um histórico ruim de segurança de IA. Um estudo recente da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilidade dos laboratórios de IA, descobriu que a xAI se classifica mal em comparação com seus pares, devido às suas práticas de gerenciamento de riscos “muito fracas”.
Isso não quer dizer que outros laboratórios de IA estejam se saindo dramaticamente melhor. Nos últimos meses, rivais da xAI, incluindo Google e OpenAI, têm acelerado os testes de segurança e têm sido lentos para publicar relatórios de segurança de modelos (ou pularam a publicação de relatórios completamente). Alguns especialistas expressaram preocupação de que a aparente despriorização dos esforços de segurança esteja ocorrendo em um momento em que a IA está mais capaz – e, portanto, potencialmente perigosa – do que nunca.
Leave a Reply