Android Sentral

Google og andre er enige om å fremme AI-sikkerhetspraksis med Det hvite hus

protection click fraud

Hva du trenger å vite

  • Google, sammen med seks andre selskaper, har frivillig forpliktet seg til å fremme AI-sikkerhetspraksis.
  • Selskapenes engasjement vil spenne over, tjene publikums tillit, sterkere sikkerhet og offentlig rapportering om systemene deres.
  • Dette gjenspeiler et lignende samarbeid Google har med EU kalt «AI-pakten».

Google kunngjør at det, sammen med seks andre ledende AI-selskaper, går sammen for å fremme "ansvarlig praksis i utviklingen av kunstig intelligens." Google, Amazon, Anthropic, Inflection, Meta, Microsoft og OpenAI har alle frivillig forpliktet seg til disse nye avanserte praksisene og møter Biden-Harris-administrasjonen i Det hvite hus i juli 21.

En av de største forpliktelsene er uten tvil å bygge tillit til AI eller, som Det hvite hus uttalte i sin faktaark, "tjene publikums tillit." Google siterer AI-prinsipper den ble opprettet tilbake i 2018 for å hjelpe folk å forstå og føle seg komfortabel rundt sin kunstige intelligens-programvare.

Imidlertid, som Biden-Harris-administrasjonen sier, må selskaper forplikte seg til å utvikle måter å gi brukere beskjed om når innhold er AI-generert. Noen få måter inkluderer vannmerking, metadata og andre verktøy for å fortelle brukerne hvor noe, for eksempel et bilde, kommer fra.

Disse selskapene har også i oppgave å undersøke risikoen for samfunnet AI-systemer utgjør, for eksempel «skadelig skjevhet, diskriminering og beskyttelse av personvern».

Bard på Google IO 2023
(Bildekreditt: Android Central)

Deretter må bedrifter kontinuerlig rapportere om sine AI-systemer offentlig slik at alle, inkludert myndigheter og andre i bransjen kan forstå hvor de er på en sikkerhets- og samfunnsrisikofaktor nivå. Utvikling av AI for å hjelpe til med å løse helseproblemer og miljøendringer er inkludert på forpliktelseslisten.

Sikkerhet er et annet hett tema, og som det står i Det hvite hus sitt faktaark, skal alle de sju selskapene investere i cybersikkerhetstiltak og "insider-trusselsprotokoller" for å beskytte proprietære og ikke-utgitte modellvekter. Sistnevnte har blitt ansett for å være det viktigste når man skal utvikle de riktige sikkerhetsprotokollene for AI-systemer.

Selskaper er også pålagt å legge til rette for tredjeparts oppdagelse og rapportere eventuelle sårbarheter i systemene sine.

Kjøre ChatGPT på en Google Pixel Watch med WearGPT-appen
(Bildekreditt: Nicholas Sutrich / Android Central)

Alt dette må gjøres før selskaper kan rulle ut nye AI-systemer til publikum, fastslår Det hvite hus. De syv selskapene må gjennomføre interne og eksterne sikkerhetstester av AI-systemene sine før utgivelse. I tillegg må informasjon deles på tvers av industrien, regjeringen, sivilsamfunnet og akademia om beste praksis for sikkerhet og andre slike trusler mot systemene deres.

Sikkerhet og komfort med kunstig intelligens er påkrevd som selskaper som Google har advart sine ansatte om utvise forsiktighet når du bruker AI chatbots over sikkerhetshensyn. Det er ikke det første tilfellet av en slik frykt, da Samsung ble veldig redd da en ingeniør ved et uhell sendte inn konfidensiell selskapskode til en AI chatbot.

Til slutt, Google som frivillig forplikter seg til å fremme sikker AI-praksis sammen med flere andre kommer to måneder etter at de ble med i EU for en lignende avtale. Selskapet samarbeidet for å lage "AI-pakten," ble et nytt sett med retningslinjer bedrifter i regionen oppfordret til å frivillig godta å få tak i AI-programvare før det går for langt.

instagram story viewer