Centrale Androïde

Google exhorte ses employés à faire preuve de prudence avec les chatbots IA, dont Bard

protection click fraud

Que souhaitez-vous savoir

  • Google commence à mettre en garde ses employés contre la soumission de code d'informations confidentielles sur l'entreprise dans son propre logiciel d'intelligence artificielle Bard.
  • L'entreprise est de plus en plus préoccupée par le potentiel d'une fuite de données, car les informations contenues dans le bot pourraient devenir publiques.
  • Des mesures similaires visant à mettre davantage l'accent sur la confidentialité et la sécurité avec les logiciels d'intelligence artificielle ont fait leur apparition dans l'UE et chez Samsung.

Malgré Google se précipiter vers l'avant Pour intégrer son propre chatbot IA dans son moteur de recherche, l'entreprise essaie maintenant de dissuader les employés de l'utiliser. Selon Reuter, la société basée à Mountain View a conseillé aux employés de s'abstenir de couler du matériel confidentiel dans le chatbot AI. Alphabet a également étendu cet avertissement au code informatique.

Barde Google peut aider les programmeurs avec leur codage mais, comme l'indique la société, la société a déclaré à Reuters qu'elle peut parfois fournir des suggestions "indésirées". De plus, en raison du fonctionnement des chatbots comme Bard, il existe un risque de fuite de données. Non seulement un humain peut lire votre chat (pour une telle raison), mais une autre IA pourrait prendre cette information dans le cadre de son processus d'apprentissage, puis le disperser en échange d'une autre requête, Reuters expliqué. À son tour, cela permettrait à des données hautement sensibles de devenir publiques.

La société a une déclaration sur son FAQ barde page qui dit aux utilisateurs de ne pas "inclure d'informations pouvant être utilisées pour vous identifier ou identifier d'autres personnes dans votre Bard conversations." Cependant, en fin de compte, le chatbot ne peut pas comprendre quelles informations confidentielles de l'entreprise ou le code ressemble.

Google a également informé Reuters de son embouteillage actuel dans l'UE alors qu'il répondait aux questions de la Commission irlandaise de protection des données. Ils sont préoccupés par l'impact de Bard sur la vie privée des utilisateurs, ce qui fait écho à d'autres préoccupations de la Commission européenne.

L'IA à Google IO 2023
(Crédit image: Android Central)

La Commission européenne et Google sont en pourparlers depuis mai sur la rédaction nouvelles directives pour les logiciels d'IA, considéré comme le "Pacte d'IA". Ce pacte volontaire affecterait les pays européens et non européens alors que la Commission cherche à maîtriser les logiciels d'IA et leurs risques potentiels pour la vie privée.

Cela inclut également les États-Unis qui travaillent également avec l'UE pour créer une nouvelle "norme minimale" pour AI alors que les inquiétudes continuent de croître quant aux dangers potentiels pour la sécurité d'une personne qui utilise le chatbot.

De plus, Google évite à ses employés de soumettre des informations confidentielles sur l'entreprise et des données sensibles à son chatbot IA. ce que Samsung a fait avec ses ouvriers en mai. L'OEM coréen a en fait interdit à ses employés d'utiliser des chatbots IA tels que Bard et ChatGPT après un incident avec un ingénieur Samsung. Ils ont soumis un code d'entreprise confidentiel dans un chatbot IA, ce qui a provoqué la coupure rapide et soudaine du logiciel.

Lors de Google I/O 2023, la société a déclaré qu'elle chercherait à se concentrer sur "responsable" avec son logiciel d'IA. La société a déclaré à Reuters qu'elle visait à être transparente sur les limites de la technologie.

instagram story viewer