Centrale Android

Google esorta i suoi dipendenti a prestare attenzione ai chatbot AI, incluso Bard

protection click fraud

Cosa hai bisogno di sapere

  • Google sta iniziando a mettere in guardia i propri dipendenti dall'invio di codici di informazioni aziendali riservate nel proprio software di intelligenza artificiale Bard.
  • La società sta diventando sempre più preoccupata per la potenziale fuga di dati poiché le informazioni nel bot potrebbero diventare di dominio pubblico.
  • Misure simili per porre maggiore attenzione alla privacy e alla sicurezza con il software AI sono emerse nell'UE e in Samsung.

Nonostante Google correndo in avanti per integrare il proprio chatbot AI nel suo motore di ricerca, l'azienda sta ora cercando di impedire ai dipendenti di utilizzarlo. Secondo Reuters, la società con sede a Mountain View ha consigliato ai dipendenti di astenersi dall'affondare materiale riservato nel chatbot AI. Alphabet ha anche esteso questo avviso anche al codice del computer.

Google Bardo può assistere i programmatori con la loro codifica ma, come afferma la società, la società ha dichiarato a Reuters che a volte può fornire suggerimenti "indesiderati". Inoltre, a causa del modo in cui funzionano i chatbot come Bard, esiste la possibilità di una fuga di dati. Non solo un essere umano può leggere la tua chat (per qualsiasi motivo), ma un'altra intelligenza artificiale potrebbe prendere tali informazioni come parte del suo processo di apprendimento e poi disperderlo in cambio di un'altra query, Reuters spiegato. A sua volta, ciò consentirebbe di rendere pubblici dati altamente sensibili.

La società ha una dichiarazione in merito Domande frequenti sul bardo pagina che dice agli utenti di non "includere informazioni che possono essere utilizzate per identificare te o altri nel tuo Bard conversazioni." Tuttavia, alla fine della giornata, il chatbot non riesce a capire quali informazioni aziendali riservate o codice sembra.

Google ha anche informato Reuters del suo attuale ingorgo nell'UE mentre affronta le domande con la Commissione irlandese per la protezione dei dati. Sono preoccupati per l'impatto di Bard sulla privacy degli utenti che fa eco ad altre preoccupazioni della Commissione europea.

AI a Google IO 2023
(Credito immagine: Android Central)

La Commissione europea e Google sono in trattative da maggio sulla redazione nuove linee guida per il software AI, considerato il "Patto AI". Questo patto volontario interesserebbe i paesi europei e non europei poiché la Commissione cerca di gestire il software di intelligenza artificiale e i suoi potenziali rischi per la privacy.

Ciò include anche gli Stati Uniti che stanno anche lavorando con l'UE per creare un nuovo "standard minimo" per AI in quanto continuano a crescere le preoccupazioni sui potenziali pericoli per la sicurezza di una persona che sta utilizzando il chatbot.

Inoltre, Google impedisce ai suoi dipendenti di inviare informazioni aziendali riservate e dati sensibili ai suoi echi di chatbot AI quello che ha fatto Samsung con i suoi lavoratori a maggio. L'OEM coreano ha effettivamente vietato ai suoi dipendenti di utilizzare chatbot AI come Bard e ChatGPT dopo un incidente con un ingegnere Samsung. Hanno inviato un codice aziendale riservato a un chatbot di intelligenza artificiale che ha provocato la rapida e improvvisa interruzione del software.

Durante Google I/O 2023, la società ha dichiarato che si concentrerà sull'essere "responsabile" con il suo software AI. La società ha dichiarato a Reuters che intende essere trasparente sui limiti della tecnologia.

instagram story viewer