Centrala Androida

Google i inni zgadzają się z Białym Domem rozwijać praktyki bezpieczeństwa AI

protection click fraud

Co musisz wiedzieć

  • Google wraz z sześcioma innymi firmami dobrowolnie zobowiązał się do rozwijania praktyk bezpieczeństwa związanych z sztuczną inteligencją.
  • Zaangażowanie firm będzie obejmować zdobycie zaufania opinii publicznej, silniejsze bezpieczeństwo i publiczne raportowanie o ich systemach.
  • Odzwierciedla to podobną współpracę, jaką Google ma z UE, zwaną „Paktem AI”.

Google ogłasza że wraz z sześcioma innymi wiodącymi firmami AI łączy siły, aby rozwijać „odpowiedzialne praktyki w rozwoju sztucznej inteligencji”. Google, Amazon, Antropiczny, Inflection, Meta, Microsoft i OpenAI dobrowolnie zobowiązały się do tych nowych zaawansowanych praktyk i spotkają się z administracją Bidena-Harrisa w Białym Domu w lipcu 21.

Prawdopodobnie jednym z największych zobowiązań jest budowanie zaufania do sztucznej inteligencji lub, jak stwierdził Biały Dom arkusz informacyjny, „zarabianie zaufania opinii publicznej”. Google powołuje się na Zasady sztucznej inteligencji stworzyła w 2018 roku, aby pomóc ludziom zrozumieć i czuć się komfortowo z oprogramowaniem sztucznej inteligencji.

Jednak, jak twierdzi administracja Bidena-Harrisa, firmy muszą zobowiązać się do opracowania sposobów informowania użytkowników, kiedy treść jest generowana przez sztuczną inteligencję. Kilka sposobów obejmuje znak wodny, metadane i inne narzędzia informujące użytkowników, skąd pochodzi coś, na przykład obraz.

Firmy te mają również za zadanie badanie zagrożeń dla społeczeństwa, jakie stwarzają systemy sztucznej inteligencji, takie jak „szkodliwe uprzedzenia, dyskryminacja i ochrona prywatności”.

Bard na Google IO 2023
(Źródło zdjęcia: Android Central)

Następnie firmy muszą stale publicznie informować o swoich systemach sztucznej inteligencji, aby wszyscy, w tym pracownicy rząd i inne osoby z branży mogą zrozumieć, na jakim etapie są czynniki ryzyka związane z bezpieczeństwem i społeczeństwem poziom. Rozwijanie sztucznej inteligencji, aby pomóc w rozwiązywaniu problemów zdrowotnych i zmian środowiskowych, znajduje się na liście zobowiązań.

Kolejnym gorącym tematem jest bezpieczeństwo, a jak wynika z biuletynu informacyjnego Białego Domu, wszystkie siedem firm ma inwestować w środkach bezpieczeństwa cybernetycznego i „protokołach zagrożeń wewnętrznych” w celu ochrony zastrzeżonych i niewydanych wag modeli. To ostatnie zostało uznane za najważniejsze przy opracowywaniu odpowiednich protokołów bezpieczeństwa dla systemów AI.

Firmy są również zobowiązane do ułatwiania stronom trzecim wykrywania i zgłaszania wszelkich luk w zabezpieczeniach swoich systemów.

Uruchamianie ChatGPT na Google Pixel Watch z aplikacją WearGPT
(Źródło zdjęcia: Nicholas Sutrich / Android Central)

Wszystko to musi zostać zrobione, zanim firmy będą mogły udostępnić publicznie nowe systemy sztucznej inteligencji, stwierdza Biały Dom. Siedem firm musi przeprowadzić wewnętrzne i zewnętrzne testy bezpieczeństwa swoich systemów AI przed wydaniem. Ponadto informacje o najlepszych praktykach w zakresie bezpieczeństwa i innych podobnych zagrożeniach dla ich systemów muszą być udostępniane w całym przemyśle, rządzie, społeczeństwie obywatelskim i środowisku akademickim.

Bezpieczeństwo i wygoda dzięki sztucznej inteligencji są wymagane, o czym firmy takie jak Google ostrzegały swoich pracowników Należy zachować ostrożność podczas korzystania z chatbotów AI w związku z kwestiami bezpieczeństwa. To nie pierwszy przypadek takiego strachu, jaki Samsung miał dość przestraszony, gdy inżynier przypadkowo się poddał poufny kod firmy do chatbota AI.

Wreszcie Google dobrowolnie zobowiązał się do rozwijania bezpiecznych praktyk sztucznej inteligencji wraz z kilkoma innymi podmiotami dwa miesiące po przystąpieniu do UE w celu zawarcia podobnej umowy. Firma współpracowała przy tworzeniu „Pakt AI”, wezwano firmy w regionie do dobrowolnego wyrażenia zgody na opanowanie oprogramowania AI, zanim posunie się to za daleko.

instagram story viewer