Relatório de segurança prometido pela xAI está desaparecido

Elon Musk e sua empresa de inteligência artificial, xAI, não cumpriram o prazo autoimposto para publicar um framework de segurança de IA finalizado, conforme observado pelo grupo de monitoramento The Midas Project.

xAI não é exatamente conhecida por seus fortes compromissos com a segurança de IA, conforme comumente entendido. Um relatório recente descobriu que o chatbot de IA da empresa, Grok, despiria fotos de mulheres quando solicitado. Grok também pode ser consideravelmente mais grosseiro do que chatbots como Gemini e ChatGPT, xingando sem muita restrição para falar.

Apesar disso, em fevereiro, no AI Seoul Summit, um encontro global de líderes e interessados em IA, a xAI publicou um rascunho de framework delineando a abordagem da empresa para a segurança de IA. O documento de oito páginas apresentava as prioridades de segurança e a filosofia da xAI, incluindo os protocolos de benchmarking da empresa e considerações sobre a implantação de modelos de IA.

Imagem destacada

Como observado pelo The Midas Project no post do blog nesta terça-feira, no entanto, o rascunho se aplicava apenas a modelos de IA futuros não especificados “que atualmente não estão em desenvolvimento”. Além disso, ele não conseguiu articular como a xAI identificaria e implementaria mitigadores de riscos, um componente central de um documento que a empresa assinou no AI Seoul Summit.

No rascunho, a xAI afirmou que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” – até 10 de maio. O prazo passou sem reconhecimento nos canais oficiais da xAI.

Apesar dos frequentes avisos de Musk sobre os perigos de IA sem controle, a xAI tem um histórico ruim de segurança de IA. Um estudo recente da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilidade dos laboratórios de IA, descobriu que a xAI se classifica mal em comparação com seus pares, devido às suas práticas de gerenciamento de riscos “muito fracas”.

LEIA  DeepSeek afirma que seu modelo de "raciocínio" supera o o1 da OpenAI em alguns benchmarks

Isso não quer dizer que outros laboratórios de IA estejam se saindo dramaticamente melhor. Nos últimos meses, rivais da xAI, incluindo Google e OpenAI, têm acelerado os testes de segurança e têm sido lentos para publicar relatórios de segurança de modelos (ou pularam a publicação de relatórios completamente). Alguns especialistas expressaram preocupação de que a aparente despriorização dos esforços de segurança esteja ocorrendo em um momento em que a IA está mais capaz – e, portanto, potencialmente perigosa – do que nunca.

Veja mais..

Leave a Reply