Centro De Android

Google insta a sus empleados a tener precaución con los chatbots de IA, incluido Bard

protection click fraud

Lo que necesitas saber

  • Google está comenzando a advertir a sus empleados que no envíen el código de información confidencial de la empresa a su propio software de IA, Bard.
  • La empresa está cada vez más preocupada por la posibilidad de una fuga de datos, ya que la información del bot podría convertirse en conocimiento público.
  • Medidas similares para centrarse más en la privacidad y la seguridad con software de IA han surgido en la UE y Samsung.

a pesar de google corriendo hacia adelante Para incorporar su propio chatbot de IA en su motor de búsqueda, la compañía ahora está tratando de evitar que los empleados lo usen. De acuerdo a Reuters, la empresa con sede en Mountain View ha estado aconsejando a los empleados que se abstengan de introducir material confidencial en el chatbot de IA. Alphabet también ha extendido esta advertencia al código informático.

Bardo de Google puede ayudar a los programadores con su codificación pero, como afirma la compañía, la compañía dijo a Reuters que a veces puede ofrecer sugerencias "no deseadas". Además, debido a la forma en que funcionan los chatbots como Bard, existe la posibilidad de una fuga de datos. No solo un humano puede leer su chat (por cualquier motivo), sino que otra IA podría tomar esa información como parte de su proceso de aprendizaje y luego dispersarlo a cambio de otra consulta, Reuters explicado. A su vez, esto permitiría que los datos altamente confidenciales se hicieran públicos.

La compañía tiene una declaración sobre su Preguntas frecuentes de bardo página que les dice a los usuarios que no "incluyan información que pueda usarse para identificarlo a usted o a otros en su Bard conversaciones". Sin embargo, al final del día, el chatbot no puede entender qué información confidencial de la empresa o parece el código.

Google también informó a Reuters de su embotellamiento actual en la UE mientras responde preguntas con la Comisión de Protección de Datos de Irlanda. Están preocupados por el impacto de Bard en la privacidad del usuario, lo que se hace eco de otras preocupaciones de la Comisión Europea.

IA en Google IO 2023
(Crédito de la imagen: Android Central)

La Comisión Europea y Google han estado en conversaciones desde mayo sobre la redacción nuevas pautas para el software de IA, considerado el "Pacto de IA". Este pacto voluntario afectaría a los países europeos y no europeos, ya que la Comisión busca controlar el software de inteligencia artificial y sus posibles riesgos para la privacidad.

Esto también incluye a los Estados Unidos, que también está trabajando con la UE para crear un nuevo "estándar mínimo" para AI a medida que aumentan las preocupaciones sobre los peligros potenciales para la seguridad de una persona que utiliza el chatbot.

Además, Google evita que sus empleados envíen información confidencial de la empresa y datos confidenciales a sus ecos de chatbot de IA. lo que hizo samsung con sus trabajadores en mayo. El OEM coreano prohibió a sus empleados usar chatbots de IA como Bard y ChatGPT después de un percance con un ingeniero de Samsung. Enviaron el código confidencial de la empresa a un chatbot de IA, lo que provocó el corte rápido y repentino del software.

Durante Google I/O 2023, la compañía declaró que buscará enfocarse en ser "responsable" con su software de IA. La compañía dijo a Reuters que pretende ser transparente sobre las limitaciones de la tecnología.

instagram story viewer