الروبوت المركزي

لا يزال Google بطيئًا وحذرًا مع الذكاء الاصطناعي ولا يزال هذا أمرًا جيدًا

protection click fraud

هل تعلم أن هناك 100000 شخص يعيشون في القارة القطبية الجنوبية بدوام كامل؟ بالطبع ، لم تفعل لأنه لا يوجد. ولكن إذا كتب عدد كافٍ من الأشخاص ذلك على الإنترنت وادعوا أنه حقيقة ، فإن جميع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ستخبرك في النهاية أن هناك 100،000 شخص يقيمون في أنتاركتيكا.

هذا هو السبب في أن الذكاء الاصطناعي في وضعه الحالي ينكسر في الغالب دون تدخل بشري.

أحب أن أذكر الجميع - بمن فيهم أنا - أن الذكاء الاصطناعي ليس مصطنعًا ولا ذكيًا. تقوم بإرجاع نتائج يمكن التنبؤ بها للغاية بناءً على المدخلات المقدمة فيما يتعلق بالبيانات التي تم تدريبها عليها.

تعني هذه الجملة الغريبة أنك إذا قمت بإطعام نموذج لغوي بسطر بعد سطر من الممل وغير المضحك الأشياء التي يقولها جيري ثم اسأله عن أي شيء ، سيكرر أحد تلك الأشياء المملة وغير المضحكة التي لدي قال. نأمل أن يكون الرد على كل ما كتبته في الموجه.

باختصار ، هذا هو السبب في أن Google تريد أن تسير ببطء عندما يتعلق الأمر بالذكاء الاصطناعي المباشر على غرار الدردشة الموجهة للمستهلك. لها سمعة يجب حمايتها.

وسائل الإعلام حول المعلومات الخاطئة المحيطة بالهبوط على سطح القمر
(رصيد الصورة: جوجل)

أخبرني الإنترنت أن كل شيء مرتبط بالذكاء الاصطناعي رأيناه في

Google I / O 2023 كانت Google في حالة من الذعر واستجابة مباشرة لبعض الشركات الأخرى مثل Microsoft أو OpenAI.

أعتقد أن هذا هراء. الإصدار البطيء من الميزات هو بالضبط ما قال لنا جوجل حول كيفية التخطيط للتعامل مع المستهلك بالذكاء الاصطناعي مرارًا وتكرارًا. من الرائع أن تعتقد أن Google سارعت إلى ابتكار كل ما رأيناه في شهر واحد فقط ردًا على أحدث إصدار من ميزة Bingbot ، لكنها لم تفعل ذلك. في حين أن تخيله رائعًا ، فهذا أيضًا من الحماقة تصديقه.

هذا هو نهج Google الفعلي في كلماتها الخاصة:

"نعتقد أن نهجنا في الذكاء الاصطناعي يجب أن يكون جريئًا ومسؤولًا. يعني هذا بالنسبة لنا تطوير الذكاء الاصطناعي بطريقة تزيد من الفوائد الإيجابية للمجتمع مع مواجهة التحديات ، مسترشدين بذلك مبادئ الذكاء الاصطناعي. في حين أن هناك توترًا طبيعيًا بين الاثنين ، فإننا نعتقد أنه من الممكن - وفي الواقع حاسم - احتضان هذا التوتر بشكل مثمر. الطريقة الوحيدة لتكون جريئًا حقًا على المدى الطويل هي أن تكون مسؤولاً من البداية ".

إن تعظيم الإيجابيات وتقليل الضرر هو المفتاح. نعم ، هناك إخلاء شامل ينص على أن روبوتات المحادثة قد تقول أشياء فظيعة أو غير دقيقة مرتبطة بهذه الروبوتات ، لكن هذا لا يكفي. يجب أن تتحمل أي شركة تشارك في التطوير - وهذا يشمل إلقاء النقود على شركة تقوم بالعمل الفعلي - المسؤولية عندما تتجه الأمور إلى الجنوب. ليس إذا ومتى.

خلفية خادم Google Tensor على خشبة المسرح في Google IO 2023
(رصيد الصورة: مايكل هيكس)

هذا هو السبب في أنني أحب النهج البطيء والحذر الذي يحاول أن يكون أخلاقيًا وليس "دعنا نلقي الميزات !!!" النهج الذي نراه من بعض الشركات الأخرى مثل Microsoft. أنا متأكد من أن Microsoft مهتمة بالأخلاق والحساسية والدقة عندما يتعلق الأمر بالذكاء الاصطناعي ولكن حتى الآن يبدو أن Google فقط هي التي تضع ذلك أمام كل إعلان.

هذا أكثر أهمية بالنسبة لي منذ أن قضيت بعض الوقت في البحث عن بعض الأشياء حول الذكاء الاصطناعي الذي يواجه المستهلك. الدقة مهمة بالطبع وكذلك الخصوصية ، لكنني تعلمت بالطريقة الصعبة أن التصفية هي على الأرجح الجزء الأكثر أهمية.

لم أكن مستعدًا لما فعلته. معظمنا لن يكون مستعدًا لذلك أبدًا.

بحثت ووجدت بعض المواد التدريبية المستخدمة في روبوت ذكاء اصطناعي مشهور يخبره بما هو شديد السمية لاستخدامه داخل نموذج البيانات الخاص به. هذه هي الأشياء التي يجب أن تتظاهر بأنها غير موجودة.

تكونت البيانات من نصوص وصور تم تعديلها بشكل كبير ، وكلاهما أثر علي بالفعل. فكر في أسوأ شيء يمكنك تخيله - نعم ، الذي - التي شيء. بعض هذا أسوأ من ذلك. هذا محتوى ويب مظلم يتم إحضاره إلى الويب العادي في أماكن مثل Reddit والمواقع الأخرى حيث يوفر المستخدمون المحتوى. في بعض الأحيان ، يكون هذا المحتوى سيئًا ويبقى طويلاً بما يكفي لعرضه.

إخلاء مسؤولية Google Bard
(رصيد الصورة: المستقبل)

علمتني رؤية هذا ثلاثة أشياء:

1. الأشخاص الذين يتعين عليهم مراقبة وسائل التواصل الاجتماعي بحثًا عن هذا النوع من القمامة يحتاجون حقًا إلى شركات الدعم العقلي التي تقدمها. وزيادة رواتب ضخمة.

2. الإنترنت هو أداة رائعة يستخدمها أكثر الناس فظاعة على هذا الكوكب أيضًا. اعتقدت أن بشرتي سميكة بما يكفي لأكون مستعدًا لرؤيتها ، لكنني لم أكن مضطرًا حرفيًا إلى ترك العمل قبل بضع ساعات وقضاء بعض الوقت الإضافي مع الأشخاص الذين يحبونني.

3. لا تستطيع Google وكل الشركات الأخرى التي توفر الذكاء الاصطناعي على مستوى المستهلك السماح باستخدام مثل هذه البيانات كمواد تدريبية ، لكنها لن تكون قادرة على التقاطها وتصفيتها بالكامل.

الرقمان الأول والثاني أكثر أهمية بالنسبة لي ، لكن الرقم الثالث مهم بالنسبة إلى Google. النص الخام الذي يبلغ 7 جيجا بايت من "محتوى الويب المسيء" - جزء بسيط من المحتوى الذي قمت بالوصول إليه ، استخدمت كلمة "أوباما" أكثر من 330 ألف مرة بطريقة مسيئة. من المحتمل أن يكون عدد مرات استخدامه بطريقة خسيسة عبر الإنترنت بالكامل ضعف هذا الرقم أو ثلاثة أضعافه.

هذا هو ما يتم تدريب نماذج لغة الذكاء الاصطناعي للمستهلكين به. لا يوجد إنسان يقوم بإدخال شرائط من الكلمات المكتوبة بخط اليد في الكمبيوتر. بدلاً من ذلك ، ينظر "الكمبيوتر" إلى صفحات الويب ومحتواها. سيتم في النهاية تحليل صفحة الويب هذه واستخدامها كمدخلات. لذلك سوف تشان ميمي وصفحات الصور. وكذلك المدونات التي تتحدث عن أن الأرض مسطحة أو أن الهبوط على القمر مزيف.

إذا تطلب الأمر من Google التحرك ببطء للتخلص من أكبر قدر ممكن من الأشياء السيئة من الذكاء الاصطناعي للمستهلك ، فأنا جميعًا مع ذلك. يجب أن تكون كذلك ، لأن كل هذا يتطور في طريقه إلى الخدمات التي تستخدمها كل يوم في الهاتف الذي تخطط لشرائه بعد ذلك.

instagram story viewer