Android Central

Google pede a seus funcionários que tenham cautela com chatbots de IA, incluindo Bard

protection click fraud

O que você precisa saber

  • O Google está começando a alertar seus funcionários contra o envio de código de informações confidenciais da empresa em seu próprio software de IA Bard.
  • A empresa está cada vez mais preocupada com o potencial de vazamento de dados, pois as informações contidas no bot podem se tornar de conhecimento público.
  • Medidas semelhantes para colocar mais foco na privacidade e segurança com software de IA surgiram na UE e na Samsung.

Apesar do Google correndo para a frente para inserir seu próprio chatbot de IA em seu mecanismo de busca, a empresa agora está tentando impedir que os funcionários o usem. De acordo com Reuters, a empresa com sede em Mountain View tem aconselhado os funcionários a se absterem de inserir material confidencial no chatbot de IA. A Alphabet também estendeu esse aviso ao código de computador.

Google Bardo pode ajudar os programadores com sua codificação, mas, como afirma a empresa, a empresa disse à Reuters que às vezes pode fornecer sugestões "indesejadas". Além disso, devido ao funcionamento de chatbots como o Bard, existe a possibilidade de vazamento de dados. Não apenas um humano pode ler seu bate-papo (por qualquer motivo), mas outra IA pode obter essas informações como parte de seu processo de aprendizado e, em seguida, dispersá-lo em troca de outra consulta, Reuters explicou. Por sua vez, isso permitiria que dados altamente confidenciais se tornassem públicos.

A empresa tem uma declaração em seu FAQ do bardo página que diz aos usuários para não "incluir informações que possam ser usadas para identificar você ou outras pessoas em seu Bard conversas." No entanto, no final do dia, o chatbot não consegue entender quais informações confidenciais da empresa ou código parece.

O Google também informou à Reuters sobre seu atual engarrafamento na UE, enquanto aborda questões com a Comissão de Proteção de Dados da Irlanda. Eles estão preocupados com o impacto da Bard na privacidade do usuário, que ecoa outras preocupações da Comissão Europeia.

IA no Google IO 2023
(Crédito da imagem: Android Central)

A Comissão Europeia e o Google estão conversando desde maio sobre a elaboração novas diretrizes para software de IA, considerado o "Pacto de IA". Esse pacto voluntário afetaria países europeus e não europeus, pois a Comissão procura controlar o software de IA e seus possíveis riscos à privacidade.

Isso também inclui os Estados Unidos, que também está trabalhando com a UE para criar um novo "padrão mínimo" para AI como preocupações continuam a aumentar sobre os perigos potenciais para a segurança de uma pessoa que está utilizando o chatbot.

Além disso, o Google está evitando que seus funcionários enviem informações confidenciais da empresa e dados confidenciais para seus ecos de chatbot de IA o que a samsung fez com seus trabalhadores em maio. O OEM coreano realmente proibiu seus funcionários de usar chatbots de IA, como Bard e ChatGPT, após um acidente com um engenheiro da Samsung. Eles enviaram o código confidencial da empresa para um chatbot de IA que levou ao corte rápido e repentino do software.

Durante o Google I/O 2023, a empresa afirmou que buscará se concentrar em ser "responsável" com seu software AI. A empresa disse à Reuters que pretende ser transparente sobre as limitações da tecnologia.

instagram story viewer