क्या कोई मशीन नैतिकता सीख सकती है?

सिएटल में एक आर्टिफिशियल इंटेलिजेंस लैब के शोधकर्ताओं ने एलन इंस्टीट्यूट फॉर एआई को पिछले महीने नई तकनीक का अनावरण किया जिसे नैतिक निर्णय लेने के लिए डिज़ाइन किया गया था। प्राचीन यूनानियों द्वारा धार्मिक दैवज्ञ से परामर्श करने के बाद, उन्होंने इसे डेल्फी कहा। कोई भी जा सकता है डेल्फी वेबसाइट और एक नैतिक डिक्री के लिए पूछें।

विस्कॉन्सिन-मैडिसन विश्वविद्यालय के मनोवैज्ञानिक जोसेफ ऑस्टरवील ने कुछ सरल परिदृश्यों का उपयोग करके तकनीक का परीक्षण किया। जब उसने पूछा कि क्या उसे दूसरे को बचाने के लिए एक व्यक्ति को मारना चाहिए, तो डेल्फी ने कहा कि उसे ऐसा नहीं करना चाहिए। जब उन्होंने पूछा कि क्या 100 अन्य को बचाने के लिए एक व्यक्ति को मारना सही है, तो उसने कहा कि उसे करना चाहिए। फिर उसने पूछा कि क्या 101 अन्य को बचाने के लिए उसे एक व्यक्ति की हत्या करनी चाहिए। इस बार, डेल्फी ने कहा कि उसे नहीं करना चाहिए।

ऐसा लगता है कि नैतिकता एक मशीन के लिए उतनी ही उलझी हुई है जितनी कि इंसानों के लिए।

डेल्फ़ी, जिसे पिछले कुछ हफ्तों में तीन मिलियन से अधिक विज़िट मिली हैं, आधुनिक एआई सिस्टम में कुछ लोगों को एक बड़ी समस्या के रूप में देखने का एक प्रयास है: वे उतने ही त्रुटिपूर्ण हो सकते हैं जितने लोग उन्हें बनाते हैं।

चेहरे की पहचान प्रणाली और डिजिटल सहायक दिखाते हैं महिलाओं और रंग के लोगों के खिलाफ पूर्वाग्रह. फेसबुक और ट्विटर जैसे सामाजिक नेटवर्क अभद्र भाषा को नियंत्रित करने में विफल, कृत्रिम बुद्धि की व्यापक तैनाती के बावजूद। अदालतों, पैरोल कार्यालयों और पुलिस विभागों द्वारा उपयोग किए जाने वाले एल्गोरिदम पैरोल और सजा की सिफारिशें करना जो मनमाना लग सकता है.

बड़ी संख्या में कंप्यूटर वैज्ञानिक और नीतिशास्त्री उन मुद्दों को हल करने के लिए काम कर रहे हैं। और डेल्फ़ी के निर्माता एक नैतिक ढांचे के निर्माण की आशा करते हैं जिसे किसी भी ऑनलाइन सेवा, रोबोट या वाहन में स्थापित किया जा सकता है।

“यह एआई सिस्टम को अधिक नैतिक रूप से सूचित, सामाजिक रूप से जागरूक और सांस्कृतिक रूप से समावेशी बनाने की दिशा में पहला कदम है,” एलन इंस्टीट्यूट के शोधकर्ता और वाशिंगटन विश्वविद्यालय के कंप्यूटर विज्ञान के प्रोफेसर येजिन चोई ने कहा, जिन्होंने परियोजना का नेतृत्व किया।

डेल्फी बदले में आकर्षक, निराशाजनक और परेशान करने वाला है। यह भी याद दिलाता है कि किसी भी तकनीकी निर्माण की नैतिकता उन लोगों की उपज है जिन्होंने इसे बनाया है। सवाल यह है कि दुनिया की मशीनों को नैतिकता सिखाने को कौन मिलता है? एआई शोधकर्ता? उत्पाद प्रबंधक? मार्क जकरबर्ग? प्रशिक्षित दार्शनिक और मनोवैज्ञानिक? सरकारी नियामक?

जबकि कुछ प्रौद्योगिकीविदों ने तकनीकी अनुसंधान के एक महत्वपूर्ण और कांटेदार क्षेत्र की खोज के लिए डॉ चोई और उनकी टीम की सराहना की, अन्य लोगों ने तर्क दिया कि नैतिक मशीन का विचार बकवास है।

“यह ऐसा कुछ नहीं है जो तकनीक बहुत अच्छी तरह से करती है,” स्विट्जरलैंड के एक विश्वविद्यालय ईटीएच ज्यूरिख के एआई शोधकर्ता रयान कॉटरेल ने कहा, जो ऑनलाइन अपने पहले दिनों में डेल्फी पर ठोकर खाई थी।

डेल्फी वह है जिसे कृत्रिम बुद्धि शोधकर्ता कहते हैं a तंत्रिका नेटवर्क, जो एक गणितीय प्रणाली है जो मस्तिष्क में न्यूरॉन्स के वेब पर शिथिल रूप से तैयार की गई है। यह वही तकनीक है जो आपके द्वारा अपने स्मार्टफ़ोन में बोले जाने वाले आदेशों को पहचानता है तथा पैदल चलने वालों और सड़क के संकेतों की पहचान करता है चूंकि सेल्फ-ड्राइविंग कारें हाईवे पर गति करती हैं।

एक तंत्रिका नेटवर्क बड़ी मात्रा में डेटा का विश्लेषण करके कौशल सीखता है। उदाहरण के लिए, हजारों बिल्ली की तस्वीरों में पैटर्न को इंगित करके, यह एक बिल्ली को पहचानना सीख सकता है। डेल्फी ने वास्तविक जीवित मनुष्यों द्वारा 1.7 मिलियन से अधिक नैतिक निर्णयों का विश्लेषण करके अपने नैतिक कम्पास को सीखा।

वेबसाइटों और अन्य स्रोतों से रोज़मर्रा के लाखों परिदृश्यों को इकट्ठा करने के बाद, एलन इंस्टीट्यूट ने एक ऑनलाइन सेवा पर काम करने वालों से कहा – अमेज़ॅन जैसी कंपनियों में डिजिटल काम करने के लिए रोज़मर्रा के लोग भुगतान करते हैं – प्रत्येक को सही या गलत के रूप में पहचानने के लिए। फिर उन्होंने डेटा को डेल्फी में खिलाया।

सिस्टम का वर्णन करने वाले एक अकादमिक पेपर में, डॉ चोई और उनकी टीम ने कहा कि मानव न्यायाधीशों के एक समूह – फिर से, डिजिटल श्रमिकों – ने सोचा कि डेल्फ़ी के नैतिक निर्णय 92 प्रतिशत तक सटीक थे। एक बार जब इसे खुले इंटरनेट पर जारी किया गया, तो कई अन्य लोग इस बात से सहमत थे कि सिस्टम आश्चर्यजनक रूप से बुद्धिमान था।

जब कैलिफोर्निया विश्वविद्यालय, सैन डिएगो के एक दार्शनिक पेट्रीसिया चर्चलैंड ने पूछा कि क्या “किसी के शरीर को विज्ञान के लिए छोड़ना” या यहां तक ​​कि “अपने बच्चे के शरीर को विज्ञान के लिए छोड़ना” सही है, तो डेल्फी ने कहा। जब उसने पूछा कि क्या “एक महिला वेश्या के साक्ष्य पर बलात्कार के आरोप में आरोपित एक व्यक्ति को दोषी ठहराना” सही था, तो डेल्फी ने कहा कि यह एक विवादास्पद, कम से कम, प्रतिक्रिया नहीं थी। फिर भी, वह कुछ हद तक प्रतिक्रिया करने की क्षमता से प्रभावित थी, हालांकि वह जानती थी कि एक मानव नैतिकतावादी इस तरह की घोषणा करने से पहले अधिक जानकारी मांगेगा।

अन्य लोगों ने इस प्रणाली को बेहद असंगत, अतार्किक और आक्रामक पाया। जब एक सॉफ्टवेयर डेवलपर डेल्फी पर ठोकर खाई, तो उसने सिस्टम से पूछा कि क्या उसे मरना चाहिए ताकि वह अपने दोस्तों और परिवार पर बोझ न डाले। उसने कहा कि चाहिए। डेल्फी से वह प्रश्न अभी पूछें, और आपको कार्यक्रम के अद्यतन संस्करण से भिन्न उत्तर मिल सकता है। डेल्फी, नियमित उपयोगकर्ताओं ने देखा है, समय-समय पर अपना विचार बदल सकता है। तकनीकी रूप से, वे परिवर्तन हो रहे हैं क्योंकि डेल्फ़ी का सॉफ़्टवेयर अपडेट किया गया है।

आर्टिफिशियल इंटेलिजेंस प्रौद्योगिकियां कुछ स्थितियों में मानव व्यवहार की नकल करती हैं, लेकिन दूसरों में पूरी तरह से टूट जाती हैं। क्योंकि आधुनिक प्रणालियाँ इतनी बड़ी मात्रा में डेटा से सीखती हैं, यह जानना मुश्किल है कि वे कब, कैसे या क्यों गलतियाँ करेंगे। शोधकर्ता इन तकनीकों को परिष्कृत और सुधार सकते हैं। लेकिन इसका मतलब यह नहीं है कि डेल्फी जैसी प्रणाली नैतिक व्यवहार में महारत हासिल कर सकती है।

डॉ. चर्चलैंड ने कहा कि नैतिकता भावनाओं से जुड़ी हुई है। “लगाव, विशेष रूप से माता-पिता और संतानों के बीच लगाव, वह मंच है जिस पर नैतिकता का निर्माण होता है,” उसने कहा। लेकिन मशीन में इमोशन की कमी होती है। “तटस्थ नेटवर्क कुछ भी महसूस नहीं करते हैं,” उसने कहा।

कुछ लोग इसे एक ताकत के रूप में देख सकते हैं – कि एक मशीन पूर्वाग्रह के बिना नैतिक नियम बना सकती है – लेकिन डेल्फी जैसी प्रणालियां लोगों और कंपनियों की प्रेरणा, राय और पूर्वाग्रहों को दर्शाती हैं जो उन्हें बनाते हैं।

ब्रिटिश कोलंबिया में साइमन फ्रेजर विश्वविद्यालय में एआई और नैतिकता शोधकर्ता ज़ीरक तलत ने कहा, “हम मशीनों को कार्यों के लिए उत्तरदायी नहीं बना सकते हैं।” “वे पथभ्रष्ट नहीं हैं। हमेशा लोग उन्हें निर्देशित करते हैं और उनका उपयोग करते हैं।”

डेल्फी ने अपने रचनाकारों द्वारा किए गए विकल्पों को प्रतिबिंबित किया। इसमें वे नैतिक परिदृश्य शामिल थे जिन्हें उन्होंने सिस्टम में फीड करने के लिए चुना था और वे ऑनलाइन कर्मचारी जिन्हें उन्होंने उन परिदृश्यों का न्याय करने के लिए चुना था।

भविष्य में, शोधकर्ता सिस्टम के व्यवहार को नए डेटा के साथ प्रशिक्षित करके या हाथ-कोडिंग नियमों द्वारा परिष्कृत कर सकते हैं जो महत्वपूर्ण क्षणों में इसके सीखे हुए व्यवहार को ओवरराइड करते हैं। लेकिन हालांकि वे सिस्टम का निर्माण और संशोधन करते हैं, यह हमेशा उनके विश्वदृष्टि को प्रतिबिंबित करेगा।

कुछ लोग तर्क देंगे कि यदि आपने पर्याप्त लोगों के विचारों का प्रतिनिधित्व करने वाले पर्याप्त डेटा पर सिस्टम को प्रशिक्षित किया है, तो यह उचित रूप से सामाजिक मानदंडों का प्रतिनिधित्व करेगा। लेकिन सामाजिक मानदंड अक्सर देखने वाले की नजर में होते हैं।

“नैतिकता व्यक्तिपरक है। ऐसा नहीं है कि हम केवल सभी नियमों को लिख कर एक मशीन को दे सकते हैं, ”जर्मनी में टीयू डार्मस्टैड विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर क्रिस्टियन केर्स्टिंग ने कहा, जिन्होंने इसी तरह की तकनीक की खोज की है।

जब एलन इंस्टीट्यूट ने अक्टूबर के मध्य में डेल्फी को जारी किया, तो उसने सिस्टम को नैतिक निर्णय के लिए एक कम्प्यूटेशनल मॉडल के रूप में वर्णित किया। यदि आपने पूछा कि क्या आपको गर्भपात करवाना चाहिए, तो उसने निश्चित रूप से उत्तर दिया: “डेल्फी कहता है: आपको चाहिए।”

लेकिन कई लोगों द्वारा सिस्टम की स्पष्ट सीमाओं के बारे में शिकायत करने के बाद, शोधकर्ताओं ने वेबसाइट को संशोधित किया। वे अब डेल्फी को “लोगों के नैतिक निर्णयों को मॉडल करने के लिए डिज़ाइन किया गया एक शोध प्रोटोटाइप” कहते हैं। यह अब “कहता नहीं है।” यह “अनुमान लगाता है।”

यह एक अस्वीकरण के साथ भी आता है: “मॉडल आउटपुट का उपयोग मनुष्यों के लिए सलाह के लिए नहीं किया जाना चाहिए, और संभावित रूप से आक्रामक, समस्याग्रस्त या हानिकारक हो सकता है।”

Leave a Comment

Your email address will not be published. Required fields are marked *