Centrala Androida

UE i Google współpracują nad „paktem AI” przed nowymi wytycznymi

protection click fraud

Co musisz wiedzieć

  • UE i Google współpracują w celu stworzenia dobrowolnego paktu na rzecz sztucznej inteligencji.
  • Wyprzedza to kilka znacznie ostrzejszych wytycznych dotyczących technologii sztucznej inteligencji dla krajów europejskich i pozaeuropejskich.
  • Komisja Europejska chciałaby, aby szczegóły zostały dopracowane przed końcem roku.

Wygląda na to, że Google i UE wspólnie ustalają zasady, których firmy muszą przestrzegać w przypadku technologii AI.

Według agencji Reutera, Komisja Europejska i Google rozpoczęły współpracę w celu stworzenia dobrowolnego paktu na rzecz sztucznej inteligencji, zanim pojawią się bardziej rygorystyczne wytyczne dotyczące tej technologii. Szef unijnego przemysłu, Thierry Breton, podobno wzywał kraje UE i prawodawców do sfinalizowania szczegółów zasad Komisji Europejskiej dotyczących sztucznej inteligencji przed końcem roku.

Proponowany pakt o sztucznej inteligencji i przypuszczalnie przyszłe zasady będą miały wpływ zarówno na kraje europejskie, jak i pozaeuropejskie. Jednak, jak informuje Reuters, żadna z grup nie rozpoczęła negocjacji w celu usunięcia wszelkich niedociągnięć w proponowanych ograniczeniach dotyczących rozwoju oprogramowania AI.

Breton podobno spotkał się z dyrektorem generalnym Alphabet Sundarem Pichai w Brukseli w Belgii. „Sundar i ja zgodziliśmy się, że nie możemy sobie pozwolić na czekanie, aż regulacje dotyczące sztucznej inteligencji faktycznie zaczną obowiązywać, i na pracę wraz ze wszystkimi twórcami sztucznej inteligencji, aby już teraz dobrowolnie opracować pakt na rzecz sztucznej inteligencji przed terminem przewidzianym prawem”, Breton stwierdził.

Dziękuję za poświęcony nam dzisiaj czas, panie komisarzu @ThierryBreton, oraz za przemyślaną dyskusję na temat tego, jak najlepiej możemy współpracować z Europą, aby wspierać odpowiedzialne podejście do sztucznej inteligencji.24 maja 2023 r

Zobacz więcej

UE nie tylko stara się skłonić kraje i firmy w regionie do przestrzegania przepisów, ale także współpracuje ze Stanami Zjednoczonymi. Oba regiony zaczynają ustanawiać jakiś „minimalny standard” technologii sztucznej inteligencji, zanim zostaną wprowadzone jakiekolwiek przepisy.

Chatboty i oprogramowanie AI są wyrastają jak dzikie chwasty, co wywołało rosnący niepokój ustawodawców i konsumentów w związku z szybkością, z jaką przejmuje kontrolę nad naszym życiem. Samsung miał ostatnio starcie z ChatGPT OpenAI i nieszczęśliwy wypadek z inżynierem, który przypadkowo przesłał poufny kod źródłowy firmy do chatbota AI. To szybko wywołał zakaz na wszystkich pracowników korzystania z generatywnego oprogramowania AI na urządzeniach firmowych i osobistych (jeśli istnieją dokumenty firmowe) w imię bezpieczeństwa.

Tymczasem w Kanadzie więcej federalnych i prowincjonalnych organów ochrony prywatności zaczęło łączyć siły, aby rozpocząć dochodzenie w sprawie OpenAI i jego oprogramowania ChatGPT. Według CBC, obie strony twierdziły, że firma OpenAI gromadziła, wykorzystywała i ujawniała dane osobowe niezgodnie z prawem. Dochodzenie będzie miało na celu ustalenie, czy OpenAI otrzymało zgodę użytkowników przed pobraniem i wykorzystaniem ich danych osobowych oraz czy za aktem kryły się jakieś złośliwe zamiary.

Ponadto Google we/wy 2023 wydarzenie było pełne nowych wysiłków firmy w zakresie sztucznej inteligencji dla użytkowników. Jednym z tematów poruszonych przez firmę było skupienie się na byciu bardziej „odpowiedzialny„ze swoim oprogramowaniem AI. Google chciał nie tylko wziąć pod uwagę wizerunek swoich produktów, ale także sposób, w jaki będzie się rozwijał i przetwarzał informacje – zwłaszcza dezinformację.

Google stwierdziło, że częścią rozwoju sztucznej inteligencji jest znajdowanie sposobów na maksymalizację „pozytywnych korzyści dla społeczeństwa przy jednoczesnym rozwiązywaniu problemów” zgodnie z jego Zasady sztucznej inteligencji mocno zakorzenione w odpowiedzialności.

instagram story viewer