IA aberta, descobertas privilegiadas e até mesmo um pedido de investigação governamental… ‘A segurança da IA ​​fica em segundo plano’


(Imagem = obturador)
(Imagem = obturador)


As descobertas internas sobre a segurança da inteligência artificial (IA) continuam na Open AI. O GPT-4o, lançado em maio passado, teria sido lançado às pressas, sem sequer ignorar o processo interno de segurança, e houve até um pedido de autoridades governamentais para rescindir o contrato que proíbe denúncias de segurança.


O Washington Post (WP) informou no dia 12 (horário local), citando três funcionários que solicitaram anonimato, que a OpenAI concluiu apressadamente os procedimentos internos de testes de segurança para cumprir a data de lançamento do GPT-4o.


Assim, e apesar da oposição dos funcionários, a Open AI reduziu o período de testes de segurança para apenas uma semana. Além disso, caso surja algum problema durante os testes, um plano de backup é preparado para lançar uma versão anterior que já foi determinada como segura. Sabe-se que planejaram uma festa para comemorar o lançamento do GPT-4o antes mesmo do término dos testes.


A este respeito, um responsável da OpenAI admitiu que “uma semana é suficiente para completar o teste, mas é verdade que houve pressão”. Ele acrescentou: “É verdade que este não é o melhor método”, e acrescentou: “Estamos reconsiderando completamente o método de teste”.


A OpenAI emitiu um comunicado oficial dizendo: “A empresa não tomou atalhos no processo de segurança, mas percebemos que a equipe estava sobrecarregada”. “Realizamos extensos testes internos e externos e inicialmente evitamos usar alguns recursos multimídia para continuar o trabalho de segurança”, acrescentou.


A empresa fez muitas promessas e políticas em relação à segurança da IA. Após um compromisso voluntário de segurança de IA com seis grandes empresas em julho do ano passado, em fevereiro deste ano, nos juntamos ao Consórcio de Segurança de IA liderado pela Casa Branca, composto por 200 empresas. Também em maio passado, lançaram um “comitê de segurança” composto por funcionários internos e membros do conselho, e anunciaram que anunciariam novos produtos após 90 dias de testes e com aprovação do conselho.

READ  [믹서 트럭] Em 2023, a Comissão de Acompanhamento da Oferta e da Procura de Equipamentos de Construção decidiu prorrogar por mais dois anos a monitorização da oferta e da procura com base em dados científicos.


Mas apesar destas promessas repetidas, a segurança fica em segundo plano. É por isso que, há pouco tempo, funcionários de segurança deixaram a empresa, um após o outro, dizendo que estavam decepcionados com a empresa. Também em junho, nove funcionários atuais e antigos escreveram uma carta aberta instando “a não proibir os avisos de risco de IA”.


(Imagem = obturador)
(Imagem = obturador)


Então, no dia 13, WP obteve um documento enviado por alguns funcionários da OpenAI à Comissão de Valores Mobiliários dos EUA (SEC) e afirmava que a empresa havia assinado um contrato com funcionários que os puniria caso vazassem segredos internos.


Um documento enviado à Comissão de Valores Mobiliários no início deste mês dizia que a OpenAI forçou os funcionários a assinar acordos de confidencialidade, uma violação da política de proteção de denunciantes do governo dos EUA, e instou a empresa a investigar.


Esta questão foi notada pela primeira vez quando a equipe de segurança interna foi dissolvida em maio passado. Na época, o CEO Sam Altman anunciou que resolveria o problema. A OpenAI também disse: “Já fizemos mudanças significativas em nossos procedimentos de rescisão para remover a disposição anti-depreciação”.


A série de eventos surgiu em meio a críticas de que a Open AI, uma organização sem fins lucrativos com missão altruísta, prioriza os lucros em detrimento da segurança. Além disso, os rigorosos acordos de confidencialidade das empresas tecnológicas são um problema que há muito atormenta os trabalhadores e os reguladores.


Espera-se que estas questões dêem força a alguns legisladores que estão a pressionar por leis fortes para regular a inteligência artificial. Nos Estados Unidos, as empresas de IA operam em grande parte num vazio jurídico e os decisores políticos não podem criar eficazmente novas políticas de IA sem a ajuda de denunciantes que possam explicar as ameaças potenciais representadas pelas tecnologias em rápida evolução.

READ  Proprietário é Yul...Tenant Wars | Hankyung. com


Entretanto, não se sabe se a SEC lançou uma investigação formal. No entanto, ao partilhar este documento com o Congresso, ele teria enfatizado: “Devemos tomar medidas rápidas e decisivas para resolver estes contratos ilegais”.


Repórter Lim Da Jun ydj@aitimes.com




Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *