Mark Zuckerberg, CEO da Meta, prometeu disponibilizar a inteligência artificial geral (AGI) – definida como a capacidade da IA de realizar qualquer tarefa que um humano possa fazer – um dia. No entanto, em um novo documento de política, a empresa sugere que existem cenários em que ela pode não liberar um sistema de IA altamente capaz que tenha sido desenvolvido internamente.
O documento, chamado de Framework AI Frontier da Meta, identifica dois tipos de sistemas de IA que a empresa considera muito arriscados para serem liberados: sistemas de “alto risco” e sistemas de “risco crítico”.
Segundo a definição da Meta, tanto os sistemas de “alto risco” quanto os de “risco crítico” são capazes de ajudar em ataques de segurança cibernética, químicos e biológicos, sendo que a diferença é que os sistemas de “risco crítico” poderiam resultar em um “resultado catastrófico [que] não pode ser mitigado no contexto de implantação proposto”. Os sistemas de alto risco, por outro lado, podem facilitar um ataque, mas não de forma tão confiável ou confiável como um sistema de risco crítico.
Mas que tipos de ataques estamos falando aqui? A Meta dá alguns exemplos, como a “comprometimento automatizado de ponta a ponta de um ambiente corporativo em escala protegido por melhores práticas” e a “proliferação de armas biológicas de alto impacto”. A lista de possíveis catástrofes no documento da Meta está longe de ser exaustiva, reconhece a empresa, mas inclui aquelas que a Meta acredita serem “as mais urgentes” e plausíveis de surgir como resultado direto da liberação de um sistema de IA poderoso.
De maneira surpreendente, de acordo com o documento, a Meta classifica o risco do sistema não com base em um único teste empírico, mas com base nas contribuições de pesquisadores internos e externos que estão sujeitos a revisão por “tomadores de decisão de nível sênior”. Porquê? A Meta afirma que não acredita que a ciência da avaliação seja “suficientemente robusta para fornecer métricas quantitativas definitivas” para decidir sobre a periculosidade de um sistema.

Se a Meta determinar que um sistema é de alto risco, a empresa afirma que limitará o acesso ao sistema internamente e não o lançará até que implemente medidas para “reduzir o risco para níveis moderados”. Se, por outro lado, um sistema for considerado de risco crítico, a Meta afirma que implementará proteções de segurança não especificadas para evitar que o sistema seja exfiltrado e interromperá o desenvolvimento até que o sistema possa ser tornado menos perigoso.
O Framework AI Frontier da Meta, que a empresa diz que evoluirá com o cenário de IA em mudança e que a Meta se comprometeu anteriormente a publicar antes da Cúpula de Ação de IA da França deste mês, parece ser uma resposta às críticas da abordagem “aberta” da empresa para o desenvolvimento de sistemas. A Meta adotou uma estratégia de disponibilizar sua tecnologia de IA abertamente – embora não seja de código aberto pela definição comummente entendida – em contraste com empresas como a OpenAI que optam por proteger seus sistemas atrás de uma API.
Para a Meta, a abordagem de lançamento aberto tem se mostrado uma bênção e uma maldição. A família de modelos de IA da empresa, chamada Llama, acumulou centenas de milhões de downloads. Mas o Llama também teria sido usado por pelo menos um adversário dos EUA para desenvolver um chatbot de defesa.
Ao publicar seu Framework AI Frontier, a Meta pode estar também contrastando sua estratégia de IA aberta com a da empresa chinesa de IA DeepSeek. A DeepSeek também disponibiliza seus sistemas abertamente. Mas a IA da empresa tem poucas salvaguardas e pode ser facilmente direcionada para gerar resultados tóxicos e prejudiciais.
“Acreditamos que considerando tanto os benefícios quanto os riscos ao tomar decisões sobre como desenvolver e implantar IA avançada”, escreve a Meta no documento, “é possível fornecer essa tecnologia à sociedade de uma maneira que preserve os benefícios dessa tecnologia para a sociedade, mantendo ao mesmo tempo um nível adequado de risco”.
Leave a Reply