Android Central

Google и други се съгласяват да усъвършенстват практиките за безопасност на ИИ с Белия дом

protection click fraud

Какво трябва да знаете

  • Google, заедно с шест други компании, доброволно се ангажира да усъвършенства практиките за безопасност на AI.
  • Ангажиментът на компаниите ще обхваща печелене на доверието на обществеността, по-силна сигурност и публично отчитане на техните системи.
  • Това отразява подобно сътрудничество, което Google има с ЕС, наречено „AI Pact“.

Google обявява че тя, заедно с шест други водещи компании за изкуствен интелект, се обединяват, за да усъвършенстват „отговорни практики в развитието на изкуствения интелект“. Google, Amazon, Anthropic, Inflection, Meta, Microsoft и OpenAI доброволно се ангажираха с тези нови усъвършенствани практики и се срещат с администрацията на Байдън-Харис в Белия дом на юли 21.

Един от най-големите ангажименти, безспорно, е изграждането на доверие в AI или, както Белият дом заяви в своя информационен лист, „спечелване на общественото доверие“. Google цитира Принципи на ИИ той създаде още през 2018 г., за да помогне на хората да разберат и да се чувстват комфортно около неговия софтуер за изкуствен интелект.

Въпреки това, както заявява администрацията на Байдън-Харис, компаниите трябва да се ангажират с разработването на начини за уведомяване на потребителите, когато съдържанието е генерирано от AI. Няколко начина включват воден знак, метаданни и други инструменти, за да уведомят потребителите откъде произхожда нещо, като например изображение.

Тези компании също имат задачата да проучат рисковете за обществото, които системите за изкуствен интелект представляват, като „вредни пристрастия, дискриминация и защита на поверителността“.

Бард на Google IO 2023
(Кредит за изображение: Android Central)

След това компаниите трябва непрекъснато да докладват за своите AI системи публично, така че всички, включително правителството и други в индустрията, могат да разберат къде се намират по отношение на рисков фактор за сигурността и обществото ниво. Разработването на AI за подпомагане на решаването на проблеми със здравеопазването и промени в околната среда е включено в списъка с ангажименти.

Сигурността е друга гореща тема и както се посочва в информационния лист на Белия дом, всичките седем компании ще инвестират в мерките за киберсигурност и „протоколите за вътрешна заплаха“ за защита на частни и непубликувани тегла на модела. Последното се счита за най-важното, когато се разработват правилните протоколи за сигурност за системи с изкуствен интелект.

От компаниите също се изисква да улесняват откриването на трети страни и да докладват за всички уязвимости в своите системи.

Стартиране на ChatGPT на Google Pixel Watch с приложението WearGPT
(Кредит за изображение: Nicholas Sutrich / Android Central)

Всичко това трябва да бъде направено, преди компаниите да могат да пуснат нови AI системи за обществеността, заявява Белият дом. Седемте компании трябва да проведат вътрешни и външни тестове за сигурност на своите AI системи преди пускане. Освен това трябва да се споделя информация в индустрията, правителството, гражданското общество и академичните среди относно най-добрите практики за безопасност и други подобни заплахи за техните системи.

Безопасността и комфортът с изкуствения интелект са необходими, тъй като компании като Google предупредиха своите служители да внимавайте при използване на AI чатботове от съображения за сигурност. Това не е първият случай на такъв страх, тъй като Samsung имаше доста страх, когато инженер случайно изпрати поверителен фирмен код към AI чатбот.

И накрая, доброволното ангажиране на Google с напредване на безопасни практики за AI заедно с няколко други идва два месеца след като се присъедини към ЕС за подобно споразумение. Компанията си сътрудничи за създаването на "Пакт за ИИ," нов набор от насоки компаниите в региона бяха призовани доброволно да се съгласят да се справят със софтуера за изкуствен интелект, преди да се стигне твърде далеч.

instagram story viewer