O que você precisa saber
- O Google, juntamente com outras seis empresas, se comprometeu voluntariamente a promover práticas de segurança de IA.
- O compromisso das empresas será estendido, conquistando a confiança do público, segurança mais forte e relatórios públicos sobre seus sistemas.
- Isso ecoa uma colaboração semelhante que o Google tem com a UE, chamada de "Pacto de IA".
Google anuncia que ela, juntamente com outras seis empresas líderes em IA, está se unindo para promover "práticas responsáveis no desenvolvimento de inteligência artificial". Google, Amazon, Antrópica, Inflection, Meta, Microsoft e OpenAI se comprometeram voluntariamente com essas novas práticas avançadas e se reunirão com a administração Biden-Harris na Casa Branca em julho 21.
Um dos maiores compromissos, sem dúvida, é construir confiança na IA ou, como afirmou a Casa Branca em seu ficha técnica, "ganhando a confiança do público." O Google cita o Princípios de IA foi criado em 2018 para ajudar as pessoas a entender e se sentir à vontade com seu software de inteligência artificial.
No entanto, como afirma a administração Biden-Harris, as empresas devem se comprometer a desenvolver maneiras de informar aos usuários quando o conteúdo é gerado por IA. Algumas maneiras incluem marcas d'água, metadados e outras ferramentas para permitir que os usuários saibam de onde algo, como uma imagem, se origina.
Essas empresas também têm a tarefa de pesquisar os riscos que os sistemas de IA representam para a sociedade, como "preconceito prejudicial, discriminação e proteção da privacidade".
Em seguida, as empresas devem relatar continuamente sobre seus sistemas de IA publicamente para que todos, incluindo o governo e outros na indústria, podem entender onde eles estão em um fator de risco social e de segurança nível. O desenvolvimento de IA para ajudar a resolver problemas de saúde e mudanças ambientais está incluído na lista de compromissos.
A segurança é outro assunto polêmico e, como afirma o informativo da Casa Branca, todas as sete empresas devem investir em medidas de segurança cibernética e "protocolos de ameaças internas" para proteger pesos de modelos proprietários e inéditos. Este último foi considerado o mais importante ao desenvolver os protocolos de segurança corretos para sistemas de IA.
As empresas também são obrigadas a facilitar a descoberta de terceiros e relatar quaisquer vulnerabilidades em seus sistemas.
Tudo isso deve ser feito antes que as empresas possam lançar novos sistemas de IA ao público, afirma a Casa Branca. As sete empresas precisam realizar testes de segurança internos e externos de seus sistemas de IA antes do lançamento. Além disso, as informações precisam ser compartilhadas com a indústria, o governo, a sociedade civil e a academia sobre as melhores práticas de segurança e outras ameaças aos seus sistemas.
Segurança e conforto com inteligência artificial são necessários, pois empresas como o Google alertaram seus funcionários para precaução no exercício ao usar chatbots de IA por questões de segurança. Essa não é a primeira instância de tal medo, pois a Samsung teve um grande susto quando um engenheiro enviou acidentalmente código confidencial da empresa para um chatbot de IA.
Por fim, o Google se compromete voluntariamente com o avanço de práticas seguras de IA, juntamente com vários outros, dois meses depois de se juntar à UE para um acordo semelhante. A empresa colaborou para criar o "Pacto IA”, um novo conjunto de diretrizes que as empresas da região foram instadas a concordar voluntariamente em controlar o software de IA antes que vá longe demais.