Android Central

Google og andre er enige om at fremme AI-sikkerhedspraksis med Det Hvide Hus

protection click fraud

Hvad du behøver at vide

  • Google har sammen med seks andre virksomheder frivilligt forpligtet sig til at fremme AI-sikkerhedspraksis.
  • Virksomhedernes engagement vil spænde over, hvilket tjener offentlighedens tillid, stærkere sikkerhed og offentlig rapportering om deres systemer.
  • Dette afspejler et lignende samarbejde Google har med EU kaldet "AI-pagten".

Google meddeler at det sammen med seks andre førende AI-virksomheder går sammen for at fremme "ansvarlig praksis i udviklingen af ​​kunstig intelligens." Google, Amazon, Anthropic, Inflection, Meta, Microsoft og OpenAI har alle frivilligt forpligtet sig til denne nye avancerede praksis og mødes med Biden-Harris Administration i Det Hvide Hus i juli 21.

En af de største forpligtelser er uden tvivl at opbygge tillid til kunstig intelligens eller, som Det Hvide Hus sagde i sin faktaark, "tjener offentlighedens tillid." Google citerer AI-principper det blev oprettet tilbage i 2018 for at hjælpe folk med at forstå og føle sig godt tilpas omkring dets kunstige intelligens-software.

Men som Biden-Harris Administration siger, skal virksomheder forpligte sig til at udvikle måder at fortælle brugerne, når indhold er AI-genereret. Nogle få måder omfatter vandmærkning, metadata og andre værktøjer til at lade brugerne vide, hvor noget, såsom et billede, stammer fra.

Disse virksomheder har også til opgave at undersøge de risici for samfundet AI-systemer udgør, såsom "skadelig bias, diskrimination og beskyttelse af privatlivets fred."

Bard hos Google IO 2023
(Billedkredit: Android Central)

Dernæst skal virksomheder løbende rapportere om deres AI-systemer offentligt, så alle, inklusive regering og andre i branchen, kan forstå, hvor de er på en sikkerheds- og samfundsmæssig risikofaktor niveau. Udvikling af kunstig intelligens til at hjælpe med at løse sundhedsproblemer og miljøændringer er inkluderet på forpligtelseslisten.

Sikkerhed er et andet varmt emne, og som det fremgår af Det Hvide Hus' faktaark, skal alle syv virksomheder investere i cybersikkerhedsforanstaltninger og "insider-trusselsprotokoller" for at beskytte proprietære og ikke-udgivne modelvægte. Sidstnævnte er blevet anset for at være det vigtigste, når man skal udvikle de rigtige sikkerhedsprotokoller til AI-systemer.

Virksomheder er også forpligtet til at lette tredjeparts opdagelse og rapportere eventuelle sårbarheder i deres systemer.

Køre ChatGPT på et Google Pixel Watch med WearGPT-appen
(Billedkredit: Nicholas Sutrich / Android Central)

Alt dette skal gøres, før virksomheder kan udrulle nye AI-systemer til offentligheden, fastslår Det Hvide Hus. De syv virksomheder skal udføre interne og eksterne sikkerhedstests af deres AI-systemer før frigivelse. Derudover skal informationer deles på tværs af industrien, regeringen, civilsamfundet og den akademiske verden om bedste praksis for sikkerhed og andre sådanne trusler mod deres systemer.

Sikkerhed og komfort med kunstig intelligens er påkrævet, som virksomheder som Google har advaret deres ansatte om udvise forsigtighed når du bruger AI-chatbots over sikkerhedsproblemer. Det er ikke det første tilfælde af en sådan frygt, da Samsung var ret bange, da en ingeniør ved et uheld indsendte fortrolig virksomhedskode til en AI-chatbot.

Endelig forpligter Google sig frivilligt til at fremme sikker AI-praksis sammen med flere andre to måneder efter, at Google sluttede sig til EU for en lignende aftale. Virksomheden samarbejdede om at skabe "AI-pagten," blev et nyt sæt retningslinjer, virksomheder i regionen opfordret til frivilligt at acceptere at få styr på AI-software, før det går for vidt.

instagram story viewer