बेलगाम हुआ आर्टिफिशियल इंटेलिजेंस

जनमेजय सिंह सिकरवार
आर्टिफ़िशियल इंटेलिजेंस – एक ऐसा शब्द, जिसे हम भले ही कम समझते हों, लेकिन यह हमें चारों ओर से जकड़ रहा है। किसी ऐप में गाने सुनते या यू-ट्यूब वीडियो देखते समय उसी तरह के दूसरे गानों या वीडियो का सुझाव मिलने से लेकर किसी खरीदारी करने वाली वेबसाइट पर हमारे सवालों का जवाब देने वाले ‘चैट बॉट’ तक, घर में हमारी बातों का उत्तर देने वाली एलेक्सा से लेकर मोबाइल पर मौजूद गूगल असिस्टेंट तक, एआई के आधार पर विकसित हो रहा सॉफ़्टवेयर अब हमें पूरी तरह जान-समझ और पहचान रहा है।
 
कभी-कभी आपको लगा होगा कि आपने किसी चीज के बारे में बात की ही थी कि अगली बार मोबाइल उठाने पर उससे संबंधित कोई विज्ञापन आपकी स्क्रीन पर मौजूद था! यह सब संभव हो रहा है आर्टिफिशियल इंटेलिंजेंस, यानि कृत्रिम बुद्धि के जरिए, जो इंसान की बुद्धि की तरह सोचने-समझने लायक होती जा रही है।
  
यूं तो एआई के उपयोग खासे लोकप्रिय होने लगे हैं, लेकिन इसके कुछ ऐसे पहलू भी हैं, जिन पर गौर किया जाना आवश्यक होता जा रहा है। इस आलेख श्रृंखला में, हम आपको आर्टिफिशियल इंटेलिजेंस के कुछ ऐसे प्रयोगों के बारे में बताने जा रहे हैं, जो आपको थोड़ा डरा भी सकते हैं और सोचने पर मजबूर भी कर सकते हैं। आइए, आज आपको बताते हैं फेसबुक और जॉर्जिया इंस्टीट्यूट ऑफ़ टेक्नॉलॉजी के एक संयुक्त प्रयास के बारे में। इसमें जॉर्जिया इंस्टीट्यूट की ओर से भारतीय मूल के दो शोधार्थी देवी पारिख और ध्रुव बत्रा शामिल थे।
 
यह प्रयोग यह स्थापित करने के लिए किया गया था कि दो आर्टिफिशियल इंटेलिजेंस द्वारा चलित 'न्यूरल एजेन्ट्स' (या सरल शब्दों में कहें तो ऐसे सॉफ़्टवेयर (या चैट बॉट), जो न्यूरल, अथवा इंसानी दिमाग की तरह काम करते हैं) को आपस में बात करके मनुष्यों की तरह एक निर्णय पर पहुंचना सिखाया जा सकता है। यह भविष्य के कंप्यूटरों के निर्माण की दिशा में एक अत्यन्त महत्वपूर्ण पहला कदम था। भविष्य के कंप्यूटर, अन्य उपयोगों के अलावा मानव को सुदूर अंतरिक्ष में अन्य ग्रहों और निहारिकाओं की यात्रा करने या वहां बस्ती बसाने में मदद करेंगे। यह करने के लिए उन्हें बहुत से अनदेखे प्रकार के परिदृश्यों के बारे में निर्णय लेने होंगे, जिसके लिए उन्हें 'सोचना होगा'।
 
शोध टीम ने दो न्यूरल मॉडल (या चैट बॉट) बनाकर उन्हें मनुष्यों द्वारा बातचीत और बातचीत के जरिए किसी हल पर पहुंचने के बहुत सारे उदाहरणों के द्वारा ट्रेनिंग दी। इस ट्रेनिंग के जरिए न्यूरल मॉडल्स को यह पता लगा कि किन परिस्थितियों में भाषा के किन तत्वों के उपयोग द्वारा बातचीत के अवरोध दूर कर निर्णय लिए जाते हैं। यह करने के लिए, पहले इन न्यूरल मॉडल्स को कई हजार उदाहरणों के जरिए यह सिखाया गया कि इंसान कैसे बात करते हैं। उन्हें बातचीत के दौरान बनी किसी परिस्थिति में मनुष्य के संभावित उत्तरों का ज्ञान कराया गया। शोधकर्ताओं ने पाया कि इस प्रकार सिखाए जाने पर इन मॉडल्स ने अच्छी भाषा का उपयोग तो किया, लेकिन वे बातचीत के जरिए किसी समस्या को हल करने लायक लचीलापन नहीं अपना पा रहे थे।
 
इस कमी को दूर करने के लिए शोध टीम ने इन मॉडल्स की रणनीतिक तर्कशक्ति को बढ़ाने के लिए दो और रास्ते अपनाए, जो इन मॉडल्स को केवल मनुष्यों की तरह भाषा का उपयोग न करके बातचीत में अपने लक्ष्य तक पहुंचाने की ओर ध्यान केन्द्रित करते थे। शोधकर्ताओं ने पाया कि लक्ष्य पर ध्यान केन्द्रित करते ही, सॉफ़्टवेयर मॉडल्स ने मोल-भाव करने की ऐसी कला खुद ही विकसित करना आरम्भ कर दिया, जिसके जरिए वे अपने निर्धारित लक्ष्य के लिए बहुत अच्छा मोल-भाव कर पा रहे थे। उदाहरण के लिए नीचे दिए गए चित्र में सॉफ़्टवेयर मॉडल कुछ वस्तुओं का इंसानों की तरह आपस में बंटवारा करने की कोशिश कर रहे हैं।
उक्त उदाहरण में, फेलो टर्कर नाम के सॉफ़्टवेयर मॉडल ने किताबों में अपनी झूठी रुचि दिखाकर बाद में उसे छोड़ अपनी इच्छित वस्तु के लिए मोल-भाव कर लिया। मनोवैज्ञानिकों का मानना है कि ‘डिसीट’ अथवा धोखा देकर कुछ हासिल करने की कला कोई इंसान अपने जीवन में काफ़ी देर से सीख पाता है, किन्तु इन सॉफ़्टवेयर मॉडल्स का लक्ष्य जैसे ही अच्छी बातचीत से बदलकर लक्ष्य प्राप्ति पर सेट किया गया, ये इस कला को सीखने लगे।
 
यहां तक की कहानी तो ठीक है और इन ‘सोचने’ वाले सॉफ़्टवेयर मॉडल्स का विकास रोमांचक सा लगता है। लेकिन इसके आगे कुछ ऐसा हुआ, जो अब भी रहस्य की गर्त में है और मानव जाति के लिए बहुत महत्वपूर्ण भी। आपने ‘टर्मिनेटर’ सीरीज़ की फ़िल्मों में इन्सान के पीछे पड़े रोबोट देखे होंगे। इन्हीं फ़िल्मों में स्कायनेट नाम का एक विश्वव्यापी सॉफ़्टवेयर है, जो मनुष्य जाति को समाप्त करने के पीछे पड़ा हुआ है और इसके लिए इतिहास को बदलने के लिए रोबोटों को समय में पीछे भेजकर लोगों की हत्या करवाने की कोशिश में है। यह सॉफ़्टवेयर निरंकुश हो चुका है और कोई भी इसे न तो रोक सकता है न पूरी तरह खत्म कर सकता है क्योंकि यह मनुष्यों से आगे सोचने लगा है। तो फ़ेसबुक एआई रीसर्च और जॉर्जिया इंस्टीट्यूट ऑफ़ टेक्नॉलॉजी के इस शोध में भी कुछ इस तरह की घटना हुई जिससे दुनिया भर में आर्टिफ़िशियल इंटेलिजेंस पर काम करने वाले शोधकर्ता और वैज्ञानिकों में खलबली मच गई।
 
सोशल मीडिया और मीडिया की खबरों के मुताबिक, इन सॉफ़्टवेयर मॉडल्स को जब लक्ष्य साधने के लिए तैयार किया गया, तो इन्होंने लक्ष्य तक पहुंचने के लिए शॉर्टकट, या शॉर्टहैंड अथवा यूं कहें कि भाषा के कुछ अलग रूपों का उपयोग शुरू कर दिया। कुछ समय के बाद जब शोधकर्ताओं ने इनकी प्रगति जांचने के लिए लॉग देखे, तो उन्हें पता लगा कि इन्होंने अपनी एक अलग भाषा का निर्माण करना आरम्भ कर दिया था, जो शोधकर्ताओं की समझ से परे थी!
 
यह पता लगते ही, कि प्रयोग में कुछ ऐसा हो रहा है जो शोधकर्ता वैज्ञानिकों के नियंत्रण में नहीं है, सॉफ़्टवेयर मॉडल्स का आपसी संवाद रोकने का आदेश दिया गया और फिर नए सिरे से उन्हें यह बताया गया कि उन्हें क्या नहीं करना है। हालांकि इस घटना की गंभीरता को विभिन्न सूत्रों ने भिन्न-भिन्न तरह से बताया, पर एक बात साफ़ थी, कि सॉफ़्टवेयर को अपने आप सीखने देना कुछ अनचाहे परिणाम दे सकता है।
 
मजे की बात यह है कि जुलाई 2017 के अंत में यह घटना सामने आने से दो-तीन सप्ताह पहले ही स्पेस एक्स, टेस्ला और अब ट्विटर के मालिक इलॉन मस्क ने अमेरिकी राज्यों के गवर्नरों के एक सम्मेलन को सम्बोधित करते हुए कहा था कि आर्टिफ़िशियल इंटेलिजेंस मानव सभ्यता के अस्तित्व के लिए गंभीर ख़तरा बन सकता है।
 
मस्क ने कहा कि एआई पर शोध के लिए नियम-कायदे सक्रियता के साथ बनाए जाने की आवश्यकता है। यदि हम किसी बड़ी घटना की प्रतिक्रिया स्वरूप नियम बनाने की प्रतीक्षा करेंगे तो बहुत देर हो चुकी होगी। उन्होंने यह भी कहा कि वे बहुत नियम-कायदे पसंद नहीं करते, किन्तु आर्टिफ़िशियल इंटेलिजेंस को बेरोकटोक विकसित करने देना बहुत खतरनाक होगा। जब किसी गवर्नर ने उनसे प्रतिप्रश्न किया कि वे एक ऐसी तकनीक के लिए ऐसा कैसे कह सकते हैं, जिसका अभी तक तो पूरा विकास भी नहीं हुआ है, तो उन्होंने कहा कि पहली सीढ़ी है एआई पर शोध में क्या हो रहा है इसका सरकार द्वारा पता लगाया जाना। एक बार यह होने के बाद लोग अवश्य इससे डरेंगे, जो कि होना भी चाहिए।
दो सप्ताह बाद एक फ़ेसबुक लाइव कार्यक्रम में किसी ने मार्क जुकरबर्ग से मस्क के इस बयान पर सवाल पूछा, और उन्होंने कहा कि वे इस बयान को गैर-जिम्मेदाराना मानते हैं। एआई हमारी दुनिया को बेहतर बनाएगा और हमें बेहतर सुविधाएं देगा। इस पर मस्क ने तुरंत प्रतिक्रिया दी, कि उन्होंने जुकरबर्ग से इस बारे में बात की है और उनकी समझ में जुकरबर्ग का एआई के बारे में ज्ञान बहुत सीमित है।
तो तकनीक की दुनिया के दो महारथियों के इन परस्पर विरोधी विचारों के बारे में आपका क्या सोचना है? एलन मस्क ने जो कहा था, वह एक छोटे रूप में ही सही, किन्तु दो-तीन सप्ताह के भीतर ही सामने आ गया। तो क्या हमें उनकी बातों को गंभीरता से से लेकर एआई पर लगाम लगाना चाहिए या भविष्य की सुविधाओं को देखते हुए इस पर काम जारी रखना चाहिए?
 
(आलेख की अगली कड़ी में देखेंगे एआई का एक और प्रयोग, और इंसानों के लिए खड़ी होती हुई एक और आफत)

सम्बंधित जानकारी

अगला लेख