الروبوت المركزي

توافق Google وغيرها على تعزيز ممارسات أمان الذكاء الاصطناعي مع البيت الأبيض

protection click fraud

ما تحتاج إلى معرفته

  • التزمت Google ، جنبًا إلى جنب مع ست شركات أخرى ، طوعًا بتعزيز ممارسات أمان الذكاء الاصطناعي.
  • سوف يمتد التزام الشركات ، ويكسب ثقة الجمهور ، وأمنًا أقوى ، وتقارير عامة عن أنظمتها.
  • وهذا يعكس تعاونًا مشابهًا بين Google والاتحاد الأوروبي يسمى "ميثاق الذكاء الاصطناعي".

جوجل تعلن أنها ، إلى جانب ست شركات رائدة أخرى في مجال الذكاء الاصطناعي ، تتكاتف معًا لتعزيز "الممارسات المسؤولة في تطوير الذكاء الاصطناعي". جوجل ، أمازون ، أنثروبيك ، التزم كل من Inflection و Meta و Microsoft و OpenAI طواعية بهذه الممارسات المتقدمة الجديدة ويجتمعون مع إدارة بايدن هاريس في البيت الأبيض في يوليو 21.

يمكن القول إن أحد أكبر الالتزامات هو بناء الثقة في الذكاء الاصطناعي أو كما ذكر البيت الأبيض في ذلك بيان حقائق، "كسب ثقة الجمهور". يستشهد Google ب مبادئ الذكاء الاصطناعي تم إنشاؤه في عام 2018 لمساعدة الأشخاص على فهم برنامج الذكاء الاصطناعي الخاص به والشعور بالراحة فيه.

ومع ذلك ، كما تنص إدارة بايدن-هاريس ، يجب على الشركات الالتزام بتطوير طرق لإعلام المستخدمين عندما يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي. تتضمن بعض الطرق العلامات المائية والبيانات الوصفية والأدوات الأخرى للسماح للمستخدمين بمعرفة مكان نشوء شيء ما ، مثل الصورة.

تم تكليف هذه الشركات أيضًا بالبحث عن المخاطر التي تشكلها أنظمة الذكاء الاصطناعي على المجتمع ، مثل "التحيز الضار والتمييز وحماية الخصوصية".

Bard في Google IO 2023
(رصيد الصورة: Android Central)

بعد ذلك ، يجب على الشركات الإبلاغ باستمرار عن أنظمة الذكاء الاصطناعي الخاصة بها بشكل علني حتى يتسنى للجميع ، بما في ذلك الحكومة وغيرها في الصناعة ، يمكن أن يفهموا أين هم في عامل الخطر الأمني ​​والمجتمعي مستوى. يتم تضمين تطوير الذكاء الاصطناعي للمساعدة في حل مشكلات الرعاية الصحية والتغيرات البيئية في قائمة الالتزامات.

الأمن هو موضوع ساخن آخر ، وكما جاء في صحيفة الوقائع الصادرة عن البيت الأبيض ، يتعين على جميع الشركات السبع الاستثمار في تدابير الأمن السيبراني و "بروتوكولات التهديد من الداخل" لحماية أوزان النماذج المسجلة الملكية وغير المنشورة. يعتبر هذا الأخير هو الأهم عند تطوير بروتوكولات الأمان المناسبة لأنظمة الذكاء الاصطناعي.

يتعين على الشركات أيضًا تسهيل اكتشاف الجهات الخارجية والإبلاغ عن أي ثغرات داخل أنظمتها.

تشغيل ChatGPT على Google Pixel Watch باستخدام تطبيق WearGPT
(رصيد الصورة: Nicholas Sutrich / Android Central)

يجب القيام بكل هذا قبل أن تتمكن الشركات من طرح أنظمة ذكاء اصطناعي جديدة للجمهور ، كما يقول البيت الأبيض. تحتاج الشركات السبع إلى إجراء اختبارات أمنية داخلية وخارجية لأنظمة الذكاء الاصطناعي الخاصة بها قبل إصدارها. بالإضافة إلى ذلك ، يجب مشاركة المعلومات عبر الصناعة والحكومة والمجتمع المدني والأوساط الأكاديمية حول أفضل الممارسات للسلامة والتهديدات الأخرى لأنظمتهم.

الأمان والراحة مع الذكاء الاصطناعي مطلوبان كما حذرت شركات مثل Google موظفيها تدرب بحرص عند استخدام روبوتات محادثة AI بسبب مخاوف أمنية. هذه ليست الحالة الأولى لمثل هذا الخوف حيث أن شركة Samsung كانت تخشى تمامًا عندما قدم مهندس عن طريق الخطأ كود الشركة السري إلى روبوت محادثة AI.

أخيرًا ، تلتزم Google طوعًا بتعزيز ممارسات الذكاء الاصطناعي الآمنة إلى جانب العديد من الممارسات الأخرى بعد شهرين من انضمامها إلى الاتحاد الأوروبي من أجل اتفاقية مماثلة. تعاونت الشركة لإنشاء "ميثاق الذكاء الاصطناعي، "تم حث مجموعة جديدة من الإرشادات للشركات في المنطقة على الموافقة طوعًا على التعامل مع برامج الذكاء الاصطناعي قبل أن تذهب بعيدًا.

instagram story viewer