الروبوت المركزي

BingGPT سيء كما اعتقدت

protection click fraud

فتحت Microsoft بحث Bing المُحسّن من ChatGPT لمجموعة من الأشخاص مؤخرًا وقد ثبت أنها تُظهر مدى سوء الأمر. لا ينبغي أن نتفاجأ لأن هذا النوع من الذكاء الاصطناعي هو حداثة بنسبة 90٪ ، لكننا كذلك لأنه تم الترويج له باعتباره القادم القادم للقداسة التقنية.

ليست كذلك. إنه ليس خطأ Microsoft أيضًا - ستكون Google بنفس الطريقة - إنها فقط أن التقنية ليست مصممة للقيام بذلك ، وإذا كانت كذلك ، فلن تكون قريبة من الاستعداد. الشعب الوحيد متلهف للمزيد من هذا النوع من تكامل الذكاء الاصطناعي باستخدام التكنولوجيا الحالية هم الأشخاص الذين لا يفهمون حقًا حدودها.

حتى الرئيس التنفيذي لشركة OpenAI ، سام التمان ، قال "الناس يتوسلون ليصابوا بخيبة أمل وسيكونون كذلك"عندما يتعلق الأمر بـ ChatGPT (OpenAI هي الشركة التي أنشأت برنامج ChatGPT). لم يكن ذلك مهمًا لأن الناس رأوا الجميع يستمتعون به بينما يزعمون أيضًا أنه سيكون كذلك يطرد الناس من الوظائف أو يحول التعليم إلى وضع سهل لأنه يمكنه كتابة جميع الأوراق طلاب. كان على الشركات فقط الصعود إلى قطار الضجيج ومحاولة جني الأموال ، والعواقب هي اللعنة.

إذن ما هو الخطأ في BingGPT الذي تسأل عنه؟ كثير. لا تخشى ذلك

التخلص من الافتراءات العنصرية. لقد حصلت كل حقيقة خاطئة في العرض التوضيحي المبرمج عندما أعلنت Microsoft ذلك. إذا سألت ، فستفعل أخبرك أن النسور فازت بلقب سوبر بول اليوم السابق للعبها. ولكن الأهم من ذلك كله ، أنه يحاكي السلوك الذي تم تدريبه عليه: الأشخاص الذين يكتبون الأشياء على الإنترنت.

مثال على ذلك:

الشيء المفضل الجديد لدي - يتجادل روبوت ChatGPT الجديد من Bing مع مستخدم ، ويثير انتباهه إلى أن العام الحالي سيكون عام 2022 ، ويقول إن هواتفهم قد يكون بها فيروس ، ويقول "لم تكن مستخدمًا جيدًا" لماذا؟ لأن الشخص سأل أين تظهر Avatar 2 في مكان قريب pic.twitter.com/X32vopXxQG13 فبراير 2023

شاهد المزيد

هذه ليست خدعة ، ولا العديد من الأمثلة الأخرى من BingGPT غباء بنفس القدر. عليك ببساطة أن تدرك سبب قيامها بما تفعله وكل ذلك منطقي.

يتم تدريب ChatGPT ومعظم LLMs (نماذج اللغات الكبيرة) من خلال "قراءة" الإنترنت. تُعد مكتبة النصوص الرقمية العملاقة مثالية لتدريب الذكاء الاصطناعي على البحث عن إجابات ومحاولة أن تبدو كشخص عندما يجتذبها إليك.

لكنه ليس شخصًا وليس لديه إحساس بالصواب مقابل الخطأ عندما يتعلق الأمر بالإجابة عليك. هذا يعني أنه ليس لديها طريقة لمعرفة ما إذا كانت المعلومات المقدمة حقيقية أم لا ، وأنها تبني "شخصيتها" على مستخدمي الإنترنت.

الأول سيكون من الصعب إصلاحه. على الرغم من أننا نطلق عليه اسم الذكاء الاصطناعي ، إلا أنه بالتأكيد ليس ذكيًا. إنه مثل الببغاء ويمكنه فقط تكرار الأشياء التي قيلت له. والثاني من المستحيل إصلاحه دون إيجاد طريقة جديدة لتدريب الذكاء الاصطناعي - يمكن أن يتصرف مثل متصيد Reddit لأنه تعلم من المتصيدون على Reddit.

Pipi ، ببغاء المؤلف
(رصيد الصورة: جيري هيلدنبراند)

تمت برمجة منظمة العفو الدولية للرد باستخدام مصطلحات مثل الحزم ، والسلطة ، والطيبة ، وما إلى ذلك. يتم عرض أمثلة لكيفية ظهور كل من هذه الأشياء. والنتيجة هي مثل الجدال مع المدمن في بعض الأحيان لأنه تعلم كيف يجادل كما يفعل المدمن. إنه ليس شريرًا أو غبيًا أو حتى سيئًا. إنه يفعل فقط ما تمت برمجته للقيام به: كن تنبؤيًا واستخدم أمثلة من قاعدة بياناته كوسيلة لتبدو وكأنها إنسان.

في الوقت الحالي ، من الجيد الضحك والقليل من الأشياء الأخرى إلا إذا كنت تحاول جني الأموال من خلال الدورة التدريبية المدفوعة إلى "ChatGPT مثل المحترفين. "ما كان يجب على Microsoft (و Google) تقديمه على أنه أي شيء سوى لعبة أنيقة. لكن كلاهما فعل ذلك والآن لدينا توقع أنه سيكون موثوقًا وموثوقًا عندما يتعلق الأمر بالبحث دون أن يبدو مثل ردود Twitter التي تم تدريبها عليها.

ستتحسن الأجيال القادمة من LLM في استئصال الهراء وربما تكون أيضًا أكثر ملاءمة لتصبح لدينا search-bot / أفضل صديق ولكنه سيتطلب اختراقًا كبيرًا في الذكاء الاصطناعي - أي شيء يعتمد على الأساليب الحالية لن يكون أبدًا جيد بما فيه الكفاية. في غضون ذلك ، تذكر أن تستمتع بحطام القطار ولا تأخذ أيًا منه على محمل الجد إذا ومتى وصل هاتفك.

instagram story viewer