Anunciando o desenvolvimento do modelo de inteligência artificial da próxima geração
Formação de um novo comitê de segurança e proteção
A OpenAI anunciou no dia 28 que iniciou o treinamento no modelo GPT-4 de próxima geração.
Neste dia, a Open AI anunciou uma declaração em seu blog intitulada “Formação do Conselho de Administração e do Comitê de Segurança e Proteção da Open AI”. “Começamos a treinar o modelo de fronteira da próxima geração”, confirmou a OpenAI, acrescentando: “Esperamos que os resultados forneçam um nível mais alto de capacidade no caminho para a inteligência artificial geral (AGI)”. A OpenAI continuou explicando: “Estamos orgulhosos de ter construído e lançado um modelo líder do setor em termos de funcionalidade e segurança, mas acolhemos com satisfação a discussão ao vivo neste momento importante”.
A inteligência artificial geral (AGI) foi proposta por Mark Gubrud, professor da Universidade da Carolina do Norte, no seu artigo de 1997 “Nanotecnologia e Segurança Internacional”, no qual imaginou uma IA militar com um sistema auto-replicante. Em teoria, a inteligência artificial geral (AGI) é o sonho da inteligência artificial que pode tomar decisões autônomas que excedem o nível da inteligência humana sem comandos humanos.
A OpenAI permaneceu em silêncio sobre qual modelo lançará para suceder o GPT-4.0 Turbo. No entanto, espera-se que o modelo continue na linhagem multimodal de frases, imagens, vídeos e sons. Em particular, a Open AI realizou extensas pesquisas sobre modelos universais gerais que elevam a capacidade de pensar ao nível humano.
Além disso, a OpenAI disse que está formando um novo comitê de segurança e proteção para abordar os riscos representados por novos modelos e tecnologias futuras. “Estamos orgulhosos de desenvolver e lançar os melhores modelos de capacidade e segurança, mas acolhemos com satisfação um debate robusto neste momento importante”, disse OpenAI.
À medida que a OpenAI treina novos modelos, um novo comité de segurança trabalhará para melhorar as políticas e processos para proteger a tecnologia, disse ele. O comitê inclui o CEO Altman e os membros do conselho da OpenAI, Brett Taylor, Adam D’Angelo e Nicole Seligman. A explicação é que a diretoria estará envolvida para garantir a segurança.
A política de segurança deverá ocorrer daqui a 90 dias. No início deste mês, a OpenAI enfrentou problemas de segurança quando Ilya Sutskever, cofundador e líder da equipe Super Alignment, deixou a empresa. A equipe é liderada por outro cofundador, John Shulman.
Se você gostou deste artigo, Por favor clique em curtir.
ótimo Um
“Aficionado de TV ao longo da vida. Fã de mídia social. Estudioso de gastronomia premiado. Escritor. Fanático por música.”