Android Central

Google e outros concordam em promover práticas de segurança de IA com a Casa Branca

protection click fraud

O que você precisa saber

  • O Google, juntamente com outras seis empresas, se comprometeu voluntariamente a promover práticas de segurança de IA.
  • O compromisso das empresas será estendido, conquistando a confiança do público, segurança mais forte e relatórios públicos sobre seus sistemas.
  • Isso ecoa uma colaboração semelhante que o Google tem com a UE, chamada de "Pacto de IA".

Google anuncia que ela, juntamente com outras seis empresas líderes em IA, está se unindo para promover "práticas responsáveis ​​no desenvolvimento de inteligência artificial". Google, Amazon, Antrópica, Inflection, Meta, Microsoft e OpenAI se comprometeram voluntariamente com essas novas práticas avançadas e se reunirão com a administração Biden-Harris na Casa Branca em julho 21.

Um dos maiores compromissos, sem dúvida, é construir confiança na IA ou, como afirmou a Casa Branca em seu ficha técnica, "ganhando a confiança do público." O Google cita o Princípios de IA foi criado em 2018 para ajudar as pessoas a entender e se sentir à vontade com seu software de inteligência artificial.

No entanto, como afirma a administração Biden-Harris, as empresas devem se comprometer a desenvolver maneiras de informar aos usuários quando o conteúdo é gerado por IA. Algumas maneiras incluem marcas d'água, metadados e outras ferramentas para permitir que os usuários saibam de onde algo, como uma imagem, se origina.

Essas empresas também têm a tarefa de pesquisar os riscos que os sistemas de IA representam para a sociedade, como "preconceito prejudicial, discriminação e proteção da privacidade".

Bardo no Google IO 2023
(Crédito da imagem: Android Central)

Em seguida, as empresas devem relatar continuamente sobre seus sistemas de IA publicamente para que todos, incluindo o governo e outros na indústria, podem entender onde eles estão em um fator de risco social e de segurança nível. O desenvolvimento de IA para ajudar a resolver problemas de saúde e mudanças ambientais está incluído na lista de compromissos.

A segurança é outro assunto polêmico e, como afirma o informativo da Casa Branca, todas as sete empresas devem investir em medidas de segurança cibernética e "protocolos de ameaças internas" para proteger pesos de modelos proprietários e inéditos. Este último foi considerado o mais importante ao desenvolver os protocolos de segurança corretos para sistemas de IA.

As empresas também são obrigadas a facilitar a descoberta de terceiros e relatar quaisquer vulnerabilidades em seus sistemas.

Executando o ChatGPT em um Google Pixel Watch com o aplicativo WearGPT
(Crédito da imagem: Nicholas Sutrich / Android Central)

Tudo isso deve ser feito antes que as empresas possam lançar novos sistemas de IA ao público, afirma a Casa Branca. As sete empresas precisam realizar testes de segurança internos e externos de seus sistemas de IA antes do lançamento. Além disso, as informações precisam ser compartilhadas com a indústria, o governo, a sociedade civil e a academia sobre as melhores práticas de segurança e outras ameaças aos seus sistemas.

Segurança e conforto com inteligência artificial são necessários, pois empresas como o Google alertaram seus funcionários para precaução no exercício ao usar chatbots de IA por questões de segurança. Essa não é a primeira instância de tal medo, pois a Samsung teve um grande susto quando um engenheiro enviou acidentalmente código confidencial da empresa para um chatbot de IA.

Por fim, o Google se compromete voluntariamente com o avanço de práticas seguras de IA, juntamente com vários outros, dois meses depois de se juntar à UE para um acordo semelhante. A empresa colaborou para criar o "Pacto IA”, um novo conjunto de diretrizes que as empresas da região foram instadas a concordar voluntariamente em controlar o software de IA antes que vá longe demais.

instagram story viewer