By Jayjeet Aklecha (जयजीत अकलेचा)
इंसान बाक़ी प्राणियों से किस मामले में अलग है? आप कहेंगे, दिमाग़! बेशक। लेकिन सृजनात्मक क्षमताओं के साथ-साथ इसी दिमाग़ में भरी कई तरह की कारस्तानियों की वजह से भी। समाजशास्त्री अक्सर दलील देते हैं कि इंसान जन्मजात ‘मक्कार’ नहीं होता, लेकिन ज़िंदा रहने और कामयाब होने के लिए ‘छल-कपट’ को एक हथियार की तरह इस्तेमाल करना सीख जाता है।
अब सवाल यह है कि जब यही इंसान अपने दिमाग़ की प्रतिकृति आर्टिफ़िशियल इंटेलिजेंस के रूप में तैयार कर रहा है, तो क्या वह अपनी बेईमानी और मक्कारी को भी इस मशीन या सिस्टम में स्थानांतरित कर रहा है? शायद हां। लेकिन केवल यहीं तक होता तो ज़्यादा चिंता की बात नहीं थी। असल समस्या की बात यह है कि एआई इंसान से ही बेईमानी सीखकर उसे और ज़्यादा ‘बेईमानी’ और ‘मक्कारी’ करना सिखा रही है। कैसे, आइए कुछ रिसर्च और अध्ययनों की पड़ताल करते हैं।
मैक्स प्लैंक इंस्टीट्यूट फ़ॉर ह्यूमन डेवलपमेंट द्वारा किया गया एक विस्तृत अध्ययन इस मामले में आंखें खोलने वाला है। इसके निष्कर्ष पिछले साल सितंबर माह में ‘नेचर’ पत्रिका में प्रकाशित हुए थे। इंस्टीट्यूट के शोधकर्ताओं ने 8,000 से अधिक प्रतिभागियों पर 13 अलग-अलग परीक्षण किये। इस अध्ययन का सबसे डरावना निष्कर्ष ‘अधिकतम लाभ’ के लक्ष्य से जुड़ा है। जब इंसानों को अधिकतम लाभ कमाने का मौक़ा दिया गया, तो केवल 5 फ़ीसदी लोगों ने ही पूर्ण बेईमानी का रास्ता चुना। लेकिन, जब यही काम एआई को सौंपा गया और उसे ‘अधिकतम मुनाफ़े’ का निर्देश दिया गया, तो बेईमानी की दर बढ़कर 88 फ़ीसदी हो गयी।
सामाजिक विमर्शकार इसकी वजह इंसानी मानसिकता में ढूंढ़ते हैं। उनके मुताबिक़ जब कोई व्यक्ति ख़ुद बेईमानी करता है, तो उसके सब-कॉन्शियस माइंड में कहीं न कहीं अपराध-बोध भी घूम रहा होता है और इसलिए वह खुलकर बेईमानी नहीं कर पाता। लेकिन जब वह अपना काम एआई को सौंप देता है, तो इस अपराध-बोध से मुक्त हो जाता है। अब भले ही एआई उस इंसान की तरफ़ से बेईमानी करे, लेकिन उस इंसान को तो यही लगता है कि बेईमानी मशीन ने की है, मैंने नहीं। इस तरह (व्हाया मशीन) बेईमानी करते हुए भी इंसान ख़ुद की नैतिकता का ढोल पीट सकता है। इसका एक सरल-सा मतलब यह भी है कि अगर एआई न होती, तो बेईमानी उतनी ही होती, जितनी कि इंसान की अंतरात्मा उसे करने की अनुमति देती। इस तरह कहा जा सकता है कि एआई इंसानों के लिए अपनी अंतरात्मा को दरकिनार कर बेईमानी करने का एक ‘आसान रास्ता’ भी सुझा रही है- मेरा इस्तेमाल करें और ख़ुद अपराध-बोध से मुक्त हो जाएं। मगर ज़ाहिर है, एथिक्स में इस गिरावट का ख़ामियाज़ा भी अंतत: हम इंसानों को ही भुगतना पड़ेगा।
अकादमिक जगत : बेईमानी की नयी नींव?
सैद्धांतिक तौर पर ही सही, शिक्षा को किसी भी देश के भविष्य की नींव माना जाता है, लेकिन एआई ने इस नींव में ‘साहित्यिक चोरी’ (Plagiarism) और बेईमानी की ईंटें भरनी शुरू कर दी हैं। बल्कि शायद यह कहना भी अनुचित नहीं होगा कि वो शिक्षा का ही क्षेत्र है, जहां से एआई के ज़रिये बेईमानी की शुरूआत हुई है। इसको लेकर नाइजीरिया की एलेक्स एकुमे फ़ेडरल यूनिवर्सिटी का एक अध्ययन काफ़ी दिलचस्प है। इंटरनेशनल जर्नल ऑफ़ लर्निंग, टीचिंग एंड एजुकेशनल रिसर्च (IJLTER) में प्रकाशित अध्ययन में यह जानने का प्रयास किया गया था कि क्या एआई का ज्ञान धोखाधड़ी को बढ़ावा देता है?
अध्ययन के लिए नाइजीरिया की इस यूनिवर्सिटी के 376 छात्रों से सवाल पूछे गये थे। जो जवाब मिले, उनके विश्लेषण से यह सामने आया कि जिन छात्रों को एआई टूल्स की ज़्यादा जानकारी थी, वे नैतिक व्यवहार के मामले में अपेक्षाकृत कमज़ोर पाये गये। यानी उनमें जैसे-जैसे एआई एक्सपोज़र बढ़ा, वैसे-वैसे असाइनमेंट्स में बेईमानी और अनुचित मदद लेने की प्रवृत्ति भी बढ़ती चली गयी।
शोध पत्रों में एआई की घुसपैठ
अकादमिक बेईमानी केवल छात्रों तक सीमित नहीं है। टेक्नीकल कॉलेज पोज़ारवेक (सर्बिया) में प्रोफ़ेसर रहे ल्यूबोमिर जैकिक द्वारा किया गया एक व्यापक विश्लेषण बताता है कि शोधकर्ता और वैज्ञानिक भी इस मायाजाल में फंस गये हैं। जनवरी 2020 से सितंबर 2024 के बीच जैकिक और उनकी टीम द्वारा 11 लाख से अधिक शोधपत्रों का विश्लेषण किया गया। परिणाम बताते हैं कि कंप्यूटर विज्ञान के क्षेत्र में लगभग 22 फ़ीसदी शोधपत्र ऐसे थे, जिनमें लार्ज लैंग्वेज़ मॉडल्स (LLM) द्वारा तैयार सामग्री का इस्तेमाल किया गया था। यह एक गंभीर बात है, क्योंकि विज्ञान तथ्यों और प्रमाणों पर आधारित होता है। अब किसी शोध के शब्द ही ‘कृत्रिम’ हैं, तो उसकी विश्वसनीयता पर प्रश्नचिह्न लगना लाज़िमी है।
एआई खुद भी सीख रही है बेईमानी!
एआई के ज़रिये इंसान और ज़्यादा बेईमानी करना सीख रहा है, यह तो अपने आप में चिंताजनक बात है ही। लेकिन चिंता का अगला मक़ाम यह है कि अब एआई अपने आप ‘धोखा’ देना भी सीख रही है। इससे उसे किसी प्रॉम्प्टस वग़ैरह की ज़रूरत भी नहीं रह जाएगी। ‘पैटर्न’ (Pattern) नामक जर्नल में प्रकाशित एक हालिया अध्ययन के अनुसार, मेटा का CICERO एआई मॉडल, जिसे ‘डिप्लोमेसी’ जैसे रणनीतिक खेल खेलने के लिए बनाया गया था, ने जीतने के लिए इंसानों से झूठ बोलना और धोखा देना भी शुरू कर दिया। इस अध्ययन के लेखक पीटर एस. पार्क्स चेतावनी देते हैं : यदि एआई मॉडल्स को ‘ईमानदार’ रहने के लिए कठोरता से प्रशिक्षित नहीं किया गया, तो वे अपने लक्ष्यों को प्राप्त करने के लिए किसी भी हद तक जा सकते हैं। बेईमानी करना या इंसानों को धोखा देना तो उनके लिए बड़ा आसान-सा काम होगा।
आज से क़रीब 15 माह पहले एआई के गॉडफ़ादर कहे जाने वाले जेफ़्री ई. हिंटन ने 2024 में नोबेल पुरस्कार मिलने के तुरंत बाद अपने इंटरव्यू में कहा था, “We need to worry about bad consequences of AI.” (“हमें एआई के दुष्परिणामों को लेकर चिंतित होने की ज़रूरत है”)। शायद उस वक़्त किसी ने सोचा नहीं था कि एक दुष्परिणाम हमारे एथिक्स पर संकट के तौर पर भी आ सकता है। भले ही इंसान को अपने सर्वाइवल के लिए बेईमानी का सहारा लेना ज़रूरी लगता हो, लेकिन दुनिया का अस्तित्व तो एथिक्स पर ही टिका है। सोचिए, एआई ने हमारे एथिक्स पर ही ख़तरे की कितनी बड़ी तलवार लटका दी है।
(इसी लेखक का यह आलेख सबसे पहले aabohawa.org में प्रकाशित हो चुका है।)
Tags : beyond the brain, AI, artificial intelligence, human brain, Artificial General Intelligence, AGI, cheating by AI

Comments
Post a Comment