De acordo com o novo relatório, a OpenAI foi alvo de um ataque cibernético no ano passado, mas optou por não divulgar a informação ao público.

Um indivíduo com habilidades em informática encontrou informações sobre os avanços em inteligência artificial da OpenAI em 2021, como foi relatado pelo The New York Times. A pessoa teria acessado dados sigilosos de um fórum de debates onde colaboradores discutiam os modelos mais recentes da empresa.

O New York Times foi informado por fontes anônimas de que o incidente foi revelado, mas enfatizou que o hacker violou apenas o fórum, não os sistemas principais da OpenAI que alimentam os algoritmos e a estrutura de IA.

A OpenAI divulgou a violação aos colaboradores em uma reunião geral em abril de 2023 e também comunicou ao conselho de administração. Apesar disso, os líderes da OpenAI optaram por tornar a informação pública.

Por que a OpenAI optou por não divulgar a violação?

Conforme reportado pelo The New York Times, a Open AI optou por não divulgar o hack ao público pois não houve roubo de informações dos clientes.

A companhia também optou por não informar a invasão ao FBI ou a qualquer outra autoridade policial.

De acordo com o jornal, os executivos não viram o incidente como uma ameaça à segurança nacional, pois acreditavam que o hacker era uma pessoa particular sem conexões evidentes com um governo estrangeiro.

De acordo com informações do New York Times, alguns colaboradores da OpenAI demonstraram preocupação com a possibilidade de concorrentes chineses conseguirem acessar e copiar os segredos de inteligência artificial da empresa, o que representaria um risco para a segurança nacional dos Estados Unidos.

Leopold Aschenbrenner, que era o chefe da equipe de superalinhamento da OpenAI naquele momento, expressou preocupações semelhantes em relação à segurança do lax, considerando-o vulnerável a ataques de adversários estrangeiros.

LEIA  CrowdStrike enfrenta interrupção: Os cibercriminosos provavelmente tentarão aproveitar situações como essa.

Aschenbrenner afirmou que foi dispensado no começo deste ano por enviar um documento interno a três pesquisadores externos em busca de “feedback”. Ele sugere que sua demissão foi injusta; ele escaneou o documento para proteger informações confidenciais e argumenta que é comum que os colaboradores da OpenAI consultem outros especialistas para obter uma segunda opinião.

No entanto, de acordo com o The New York Times, os estudos conduzidos por Anthropic e OpenAI indicam que a inteligência artificial não representa um perigo substancialmente maior do que os motores de busca, como o Google.

Apesar disso, as empresas de inteligência artificial precisam assegurar que sua segurança seja rigorosa. Autoridades estão pressionando por regulamentações que estabeleçam penalidades significativas para empresas que possuem tecnologias de IA que resultam em prejuízos sociais.

– OpenAI

Veja mais..

Leave a Reply

+ There are no comments

Add yours