A Inteligência Artificial é cada vez mais uma preocupação das empresas e dos governos, e a segurança é um ponto na ordem do dia.
16 empresas que trabalham diretamente com a inteligência artificial, incluindo Google (DeepMind), Meta, OpenAI (ChatGPT), Microsoft (Copilot) e Amazon, assumiram novos compromissos para garantir o desenvolvimento da IA de forma segura, anunciou o governo britânico, listando os signatários:
- Amazon
- Anthropic
- Cohere
- Google DeepMind
- G42
- IBM
- Inflection AI
- Meta
- Microsoft
- Mistral AI
- Naver
- OpenAI
- Samsung Electronics
- Technology Innovation Institute
- xAI
- Zhipu.ai
“Esses compromissos garantem que as principais empresas de Inteligência Artificial do mundo serão transparentes e responsáveis pelos seus planos para desenvolver IA segura”, disse o primeiro-ministro britânico, Rishi Sunak, numa afirmação publicada pelo Departamento de Ciência, Inovação e Tecnologia do Reino Unido.
O acordo baseia-se no consenso alcançado na primeira cimeira global de segurança da IA, no ano passado, em Bletchley Park, no Reino Unido. A segunda cimeira, em Seul, é organizada conjuntamente pelos governos sul-coreano e britânico. As empresas de IA que ainda não divulgaram a forma como avaliam a segurança das tecnologias que desenvolvem estão empenhadas em fazê-lo. Isto inclui determinar quais os riscos que são considerados intoleráveis e o que as empresas farão para garantir que esses limites não sejam ultrapassados.
Nas circunstâncias mais extremas, as empresas também concordam em não desenvolver ou implementar um modelo ou sistema se as medidas de mitigação não conseguirem manter os riscos abaixo dos limites estabelecidos. Estes limiares serão definidos antes da próxima cimeira sobre Inteligência Artificial, em 2025, que se irá realizar em França.
O medo assombra a Inteligência Artificial
O sucesso deslumbrante do ChatGPT após o seu lançamento em 2022 desencadeou uma corrida no campo da IA generativa, com empresas de tecnologia em todo o mundo a investir milhares de milhões de dólares no desenvolvimento dos seus próprios modelos. Mas os defensores dos direitos humanos, e os governos, temem a sua utilização indevida numa vasta gama de situações, incluindo para manipular os eleitores através de notícias falsas ou fotos e vídeos falsos de líderes políticos.