O Reino Unido e os EUA assinaram um acordo para desenvolver métodos para testar a segurança da inteligência artificial
Os EUA e o Reino Unido assinaram um acordo para verificar a segurança de grandes modelos de linguagem (LLMs) que sustentam sistemas de inteligência artificial.
O acordo, ou Memorando de Entendimento (MoU, na sigla em inglês), assinado na segunda-feira em Washington pela secretária de Comércio dos EUA, Gina Raimondo, e pela secretária de Tecnologia do Reino Unido, Michelle Donelaan, exige o alinhamento das abordagens científicas de ambos os países e o trabalho em conjunto para desenvolver conjuntos de avaliação para modelos, sistemas e agentes de IA.
Segundo Raimondo, o trabalho de criação de mecanismos para testar a segurança de modelos de IA, como os desenvolvidos pela OpenAI e Google, será imediatamente transferido para o novo Instituto Britânico para a Segurança da IA (AISI) e seu homólogo americano.
O acordo ocorre meses depois que o governo do Reino Unido sediou a Cúpula Global de Segurança de IA em setembro passado, onde vários países, incluindo China, EUA, UE, Índia, Alemanha e França, concordaram em trabalhar juntos em segurança de IA.
Os países assinaram um acordo apelidado de Declaração de Bletchley para formar uma linha de pensamento comum que monitorará o desenvolvimento da IA e garantirá o desenvolvimento seguro da tecnologia.
O acordo vem depois que centenas de líderes da indústria de tecnologia, cientistas e outras figuras públicas assinaram uma carta aberta em maio passado alertando que o desenvolvimento da IA poderia levar à extinção da humanidade.
Os EUA também tomaram medidas para regular os sistemas de IA e LLMs relacionados. Em novembro passado, o governo Biden emitiu uma ordem executiva há muito esperada que explicitou regras claras e medidas de supervisão projetadas para garantir que a IA seja contida enquanto cria as condições para seu desenvolvimento.
No início deste ano, o governo dos EUA criou o AI Security Advisory Group, que inclui criadores, usuários e cientistas de IA, com o objetivo de estabelecer certos limites para o uso e desenvolvimento de IA.
Um grupo consultivo chamado U.S. AI Security Institutes Consortium (AISIC) e parte do Instituto Nacional de Padrões e Tecnologia foi encarregado de desenvolver recomendações para redistribuir sistemas de IA, avaliar recursos de IA, gerenciar riscos, garantir segurança e marcar conteúdo gerado por IA.
Várias grandes empresas de tecnologia, incluindo OpenAI, Google, Microsoft, Amazon, Intel e Nvidia, se juntaram ao consórcio para garantir o desenvolvimento seguro de IA.
Postar um comentário em "O Reino Unido e os EUA assinaram um acordo para desenvolver métodos para testar a segurança da inteligência artificial"
Postar um comentário