Conforme os governos estaduais e federais buscam regular a inteligência artificial, o Google tem compartilhado suas próprias opiniões sobre o assunto.
Na quarta-feira, a empresa de tecnologia divulgou um artigo chamado “7 princípios para a regulação correta da IA”. O texto destaca a importância de regular a inteligência artificial, mas sem prejudicar a inovação. Kent Walker, presidente de assuntos globais da Google e da Alphabet, ressaltou que estamos em uma competição tecnológica global, onde o sucesso não depende apenas de quem inventa primeiro, mas de quem implementa de forma eficaz em diversos setores.
As empresas Google e OpenAI se uniram para defender uma abordagem colaborativa em relação à regulação da inteligência artificial, alertando sobre os riscos existenciais envolvidos. O CEO do Google, Sundar Pichai, participou de fóruns no Senado sobre inteligência artificial para orientar o Congresso sobre como legislar nesse campo. Por outro lado, aqueles que apoiam um ambiente de IA menos regulamentado e mais aberto têm criticado o Google e outras empresas, acusando-as de exagerar os medos para obter vantagens regulatórias.
“Yann LeCun, cientista-chefe de IA da Meta, mencionou que Altman, Hassabis e Amodei estão atualmente envolvidos em intensa pressão corporativa. Se os esforços deles para gerar medo forem bem-sucedidos, isso pode levar a uma situação catastrófica, onde um pequeno grupo de empresas terá o controle da inteligência artificial.”
Walker mencionou a ordem executiva da Casa Branca sobre Inteligência Artificial, o esboço da política de IA apresentado pelo Senado dos EUA e as recentes propostas de legislação de IA na Califórnia e Connecticut. O Google expressou apoio a esses esforços, destacando a importância de que a regulamentação da IA se concentre em resultados específicos do desenvolvimento dessa tecnologia, em vez de leis amplas que possam prejudicar o progresso. Walker enfatizou a necessidade de intervir em áreas de dano real para impulsionar a inovação, em vez de impor restrições que limitem a pesquisa, observando que nos EUA foram propostas mais de 600 contas relacionadas à questão.
O comunicado do Google mencionou rapidamente a questão da violação de direitos autorais e a utilização de dados para treinar inteligência artificial. Empresas que desenvolvem modelos de IA argumentam que o uso de dados públicos na internet é legítimo, mas têm sido acusadas por empresas de mídia e, mais recentemente, por grandes gravadoras, de infringir direitos autorais e obter lucro com isso.
Walker reafirma a importância do uso justo, porém destaca a necessidade de maior transparência e controle em relação aos dados de treinamento de inteligência artificial. Ele sugere que os donos de sites devem poder empregar ferramentas legíveis por máquina para evitar que o conteúdo de seus sites seja utilizado sem autorização na formação de IA.
O conceito de “apoiar a inovação responsável” aborda de forma ampla os “riscos conhecidos”, porém não especifica medidas regulatórias para prevenir distorções evidentes em respostas geradas por IA que poderiam promover desinformação e causar prejuízos.
Para ser justo, não houve quem tenha levado a sério a sugestão absurda do resumo de IA do Google de adicionar cola a uma pizza. No entanto, esse incidente recente ilustra a importância da reflexão contínua sobre a responsabilidade pelas informações falsas produzidas pela IA e a necessidade de uma implantação responsável.
– Google oferece suporte técnico para dispositivos informáticos