Android Sentral

Google oppfordrer sine ansatte til å utvise forsiktighet med AI-chatboter, inkludert Bard

protection click fraud

Hva du trenger å vite

  • Google begynner å advare sine ansatte mot å sende inn konfidensiell selskapsinformasjonskode i sin egen AI-programvare Bard.
  • Selskapet blir stadig mer opptatt av potensialet til en datalekkasje ettersom informasjon i boten kan bli offentlig kjent.
  • Lignende tiltak for å sette mer fokus på personvern og sikkerhet med AI-programvare har dukket opp i EU og Samsung.

Til tross for Google suser fremover å bake inn sin egen AI-chatbot i søkemotoren sin, prøver selskapet nå å styre ansatte unna å bruke den. I følge Reuters, har det Mountain View-baserte selskapet rådet ansatte til å avstå fra å senke konfidensielt materiale inn i AI-chatboten. Alphabet har også utvidet denne advarselen til datakode.

Google Bard kan hjelpe programmerere med kodingen deres, men som selskapet sier, sa selskapet til Reuters at det til tider kan levere "uønskede" forslag. I tillegg, på grunn av hvordan chatbots som Bard fungerer, er det potensial for en datalekkasje. Ikke bare kan et menneske lese chatten din (av en slik grunn), men en annen AI kan ta den informasjonen som en del av læringsprosessen, og deretter spre det til gjengjeld for et nytt spørsmål, Reuters forklart. Dette vil igjen gjøre det mulig for svært sensitive data å bli offentlige.

Selskapet har en uttalelse om sin Vanlige spørsmål om Bard side som forteller brukere om ikke å "inkludere informasjon som kan brukes til å identifisere deg eller andre i din Bard samtaler." Men på slutten av dagen kan chatboten ikke forstå hvilken konfidensiell selskapsinformasjon eller koden ser ut som.

Google informerte også Reuters om den nåværende trafikkorken i EU da den tar opp spørsmål med Irlands databeskyttelseskommisjon. De er bekymret for Bards innvirkning på brukernes personvern som gjenspeiler andre bekymringer fra EU-kommisjonen.

AI på Google IO 2023
(Bildekreditt: Android Central)

EU-kommisjonen og Google har vært i samtaler siden mai om utkast nye retningslinjer for AI-programvare, ansett som "AI-pakten." Denne frivillige pakten vil påvirke europeiske og ikke-europeiske land ettersom kommisjonen ser ut til å få tak i AI-programvare og dens potensielle personvernrisiko.

Dette inkluderer også USA som også samarbeider med EU for å lage en ny «minimal standard» for AI når det gjelder bekymringer fortsetter å øke om de potensielle farene for en persons sikkerhet som bruker chatbot.

I tillegg styrer Google sine ansatte bort fra å sende inn konfidensiell selskapsinformasjon og sensitive data til AI chatbot-ekkoene. hva Samsung gjorde med sine arbeidere i mai. Den koreanske OEM forbød faktisk sine ansatte å bruke AI-chatbots som Bard og ChatGPT etter et uhell med en Samsung-ingeniør. De sendte inn konfidensiell selskapskode til en AI-chatbot som førte til en rask og plutselig avskjæring av programvaren.

Under Google I/O 2023 uttalte selskapet at det vil se fokus på å være "ansvarlig" med sin AI-programvare. Selskapet sa til Reuters at det har som mål å være transparente om begrensningene til teknologien.

instagram story viewer