एंड्रॉइड सेंट्रल

क्या Google का LaMDA चैटबॉट वास्तव में संवेदनशील हो सकता है?

protection click fraud

Google इंजीनियर ब्लेक लेमोइन को Google के सफल AI चैटबॉट के बारे में अपने विचारों को सार्वजनिक करने के बाद वेतन के साथ निलंबित कर दिया गया है। LaMDA एक संवेदनशील मशीन थी एक वास्तविक सचेतन के साथ।

मॉडल के साथ काम करने और गहन विचार-विमर्श करने के बाद लेमोइन इस नतीजे पर पहुंचे, जिससे उन्हें विश्वास हो गया कि एआई में "आत्मा" है और यह भौतिकी के ज्ञान वाले बच्चे के समान है।

यह एक दिलचस्प और संभवतः आवश्यक बातचीत है। Google और अन्य AI अनुसंधान कंपनियों ने LLM (बड़े भाषा मॉडल) तंत्रिका नेटवर्क को उस दिशा में ले लिया है जो उन्हें एक वास्तविक मानव की तरह ध्वनि प्रदान करता है, अक्सर शानदार परिणामों के साथ।

लेकिन अंत में, एल्गोरिदम वही कर रहा है जो उसे करने के लिए प्रोग्राम किया गया था - हमें यह सोचकर मूर्ख बनाना कि हम किसी वास्तविक व्यक्ति से बात कर रहे हैं।

लाएमडीए क्या है?

गूगल क्लाउड टीपीयू
(छवि क्रेडिट: एंड्रॉइड सेंट्रल)

लाएमडीए, और अन्य बड़े पैमाने के एआई "चैटबॉट्स" एलेक्सा या गूगल असिस्टेंट जैसी किसी चीज़ का विस्तार हैं। आप किसी प्रकार का इनपुट प्रदान करते हैं, और कंप्यूटर एल्गोरिदम का एक जटिल सेट परिकलित आउटपुट के साथ प्रतिक्रिया करता है।

जो चीज LaMDA (संवाद अनुप्रयोगों के लिए भाषा मॉडल) को अलग बनाती है, वह है इसका पैमाना। आम तौर पर एक एआई विश्लेषण करेगा कि उसे बहुत छोटे हिस्सों में क्या प्रस्तुत किया गया है और कीवर्ड या वर्तनी और व्याकरण त्रुटियों की तलाश करेगा ताकि वह जान सके कि कैसे प्रतिक्रिया देनी है।

LaMDA को एलएलएम के रूप में जाना जाता है। एक बड़ा भाषा मॉडल कंप्यूटर के एक प्रकार के तंत्रिका नेटवर्क को दिया गया नाम है जिसे अविश्वसनीय रूप से खिलाया गया है ऐसी प्रतिक्रियाएँ उत्पन्न करना सिखाने के लिए पाठ की मात्रा जो न केवल सही हों बल्कि अन्य जैसी लगती हों व्यक्ति।

LaMDA अपने पैमाने के कारण शानदार है।

LaMDA की सफलता यह थी कि कैसे Google आउटपुट को परिष्कृत करने और इसे संशोधित करने में सक्षम था ताकि यह सुनने में किसी व्यक्ति के वास्तव में बात करने के तरीके के समान हो। उदाहरण के लिए, हम सभी ने सुना है "ठीक है, मैं शयनकक्ष की लाइट जला रहा हूँ"या इससे मिलता-जुलता कुछ गूगल असिस्टेंट अगर हम उपयोग करते हैं हमारे पसंदीदा स्मार्ट बल्ब.

इसके बजाय LaMDA कुछ इस प्रकार उत्तर दे सकता है "ठीक है, यहाँ बहुत अँधेरा है, है ना?"ऐसा लगता है जैसे आप सर्किट के एक छोटे से बॉक्स की तुलना में किसी व्यक्ति से बात कर रहे हैं।

यह न केवल शब्दों, बल्कि भाषा के संपूर्ण खंडों का विश्लेषण करके ऐसा करता है। पर्याप्त मेमोरी के साथ, यह इनपुट के लायक कई पैराग्राफों की प्रतिक्रियाओं को पकड़ सकता है और यह तय कर सकता है कि किसका उपयोग करना है और कैसे प्रतिक्रिया को मैत्रीपूर्ण और मानवीय बनाना है।

पैमाना समीकरण का एक बड़ा हिस्सा है/ मेरे पास एक कष्टप्रद टाइपो I है हमेशा बनाओ: "isn; t" के बजाय "नहीं है।" क्रोम के वर्तनी जांच या व्याकरण जैसे सरल एल्गोरिदम मेरी त्रुटि को पहचान सकते हैं और मुझे इसे ठीक करने के लिए कह सकते हैं।

इसके बजाय LaMDA जैसा कुछ पूरे पैराग्राफ का मूल्यांकन कर सकता है और मुझे बता सकता है कि मैं जो बातें कह रहा हूं उसके बारे में वह क्या सोचता है और मेरी वर्तनी ठीक करो. इसे यही करने के लिए डिज़ाइन किया गया था।

लेकिन क्या यह वास्तव में संवेदनशील है, और क्या यही वास्तविक समस्या है?

हे गूगल, क्या तुम इंसान हो?
(छवि क्रेडिट: जेरी हिल्डेनब्रांड)

लेमोइन निश्चित रूप से विश्वास है कि LaMDA एक जीवित, सांस लेने वाली चीज़ है. उसकी मानसिक स्थिति या उसकी जीवनशैली कितनी अजीब हो सकती है, इसके बारे में बहुत कुछ कहा जा चुका है, इसलिए मैं कुछ नहीं कहने जा रहा हूँ सिवाय इसके कि उस व्यक्ति का मानना ​​है कि LaMDA में वास्तविक भावनाएँ हैं और जब वह अपनी भावनाओं के साथ सार्वजनिक हुआ तो वह दयालुता का व्यवहार कर रहा था विचार। बेशक, Google को अलग तरह से महसूस हुआ।

लेकिन नहीं, मुझे नहीं लगता कि LaMDA या कोई LLM न्यूरल नेटवर्क संवेदनशील है या हो सकता है, कम से कम आज की तकनीक के साथ। मैंने बहुत पहले ही कभी नहीं कहना सीख लिया था। अभी, LaMDA केवल उसी तरह से प्रतिक्रिया दे रहा है जिस तरह से उसे प्रोग्राम किया गया था और उसे यह समझने की ज़रूरत नहीं है कि वह क्या कह रहा है उसी तरह जैसे एक व्यक्ति करता है।

यह बिल्कुल वैसा ही है जैसे आप या मैं एक क्रॉसवर्ड सुराग भर रहे हैं और हम नहीं जानते कि उस शब्द का क्या अर्थ है या क्या है। हम बस नियमों को जानते हैं और यह जानते हैं कि यह कहां फिट बैठता है और इसे कैसे फिट होना चाहिए।

4 अक्षर - संज्ञा. कड़े बाल या बाल। (यह सेटा है लेकिन मैंने SEGA को 10 बार आज़माया)।

हालाँकि, सिर्फ इसलिए कि हम उस दिन के करीब नहीं हैं जब स्मार्ट मशीनें उभरेंगी और सभी मनुष्यों को मारने की कोशिश करेंगी, इसका मतलब यह नहीं है कि हमें चिंतित नहीं होना चाहिए। अधिक मानवीय लगने के लिए कंप्यूटर को पढ़ाना वास्तव में अच्छी बात नहीं है।

ऐसा इसलिए है क्योंकि एक कंप्यूटर - फिर से - केवल उसी तरह से प्रतिक्रिया दे सकता है जिस तरह से उसे प्रतिक्रिया देने के लिए प्रोग्राम किया गया था। वह प्रोग्रामिंग हमेशा समाज के सर्वोत्तम हित में नहीं हो सकती है। हम पहले से ही एआई के पक्षपातपूर्ण होने के बारे में चिंताएं देख रहे हैं क्योंकि प्रोग्रामिंग करने वाले लोग ज्यादातर बीस से अधिक उम्र के धनी पुरुष हैं। यह स्वाभाविक है कि उनके जीवन का अनुभव एआई के निर्णय लेने को प्रभावित करेगा।

इसे एक कदम आगे बढ़ाएं और सोचें कि वास्तविक बुरे इरादों वाला कोई व्यक्ति क्या प्रोग्राम कर सकता है। फिर विचार करें कि उनमें ऐसी ध्वनि उत्पन्न करने की क्षमता हो सकती है जैसे यह किसी व्यक्ति से आ रही है, मशीन से नहीं। एक कंप्यूटर भौतिक दुनिया में बुरे काम करने में सक्षम नहीं हो सकता है, लेकिन यह लोगों को ऐसा करने के लिए मना सकता है।

LaMDA अविश्वसनीय है और जो लोग इसके जैसे सिस्टम डिज़ाइन करते हैं वे अद्भुत काम कर रहे हैं जो भविष्य को प्रभावित करेगा। लेकिन यह अभी भी एक कंप्यूटर ही है, भले ही एक से अधिक 420 सत्रों के बाद यह आपके मित्र जैसा लगे और वे जीवन, ब्रह्मांड और हर चीज़ के बारे में बात करना शुरू कर दें।

अभी पढ़ो

instagram story viewer