क्या हमें एल्गोरिदम नैतिकता की आवश्यकता है?

Feb 09 2022
और क्या हमें मशीनों का मानवीकरण करना चाहिए, अगर हम इतने अपूर्ण हैं? राय। हम "मानवीय प्रतिक्रियाओं" को प्रोग्राम किए बिना बुद्धि से डरते हैं और डरते हैं क्योंकि बुद्धि स्वचालित रूप से सहानुभूति और महसूस करने की क्षमता का अनुमान नहीं लगाती है।

और क्या हमें मशीनों का मानवीकरण करना चाहिए, अगर हम इतने अपूर्ण हैं? राय।

Unsplash . पर रैंडी ताराम्पी द्वारा फोटो

हम "मानवीय प्रतिक्रियाओं" को प्रोग्राम किए बिना बुद्धि से डरते हैं और डरते हैं क्योंकि बुद्धि स्वचालित रूप से सहानुभूति और महसूस करने की क्षमता का अनुमान नहीं लगाती है। हम समाज के साथ बातचीत के लिए सर्वोत्तम निर्णय लेने की अनुमति देने के लिए कुछ नियमों और मानकों को कोड कर सकते हैं, लेकिन हम एआई को यह समझने के लिए मजबूर नहीं कर सकते कि पर्यावरण के लिए कुछ अच्छा या गलत क्यों है।
सहानुभूति के बिना नैतिकता समूह में जीवित रहने के लिए व्यक्तियों के बलिदान की ओर ले जाती है। यह एक ठंडी गणना है, बहुत तर्कसंगत है लेकिन मनुष्यों को महसूस करने के लिए कठिन है। यह हमें डराता है कि क्या आर्टिफिशियल इंटेलिजेंस बिना किसी पछतावे के इस तरह का चुनाव करने में सक्षम होगा - आखिरकार, कभी-कभी यह हमें समाज के लिए खतरे के रूप में मान सकता है।

अधिक मोर (टी) वास्तविकता।

मशीन के लिए एक साधारण गणना मनुष्य को महसूस करने के लिए एक अनसुलझी समस्या है। कार की स्वायत्तता के बारे में बातचीत इस दुविधा पर रुक गई "अगर कोई अपनी पसंद की परवाह किए बिना मर जाता है तो कार को क्या विकल्प चुनना चाहिए?" प्रसिद्ध "नैतिक मशीन" परीक्षण [1]एमआईटी द्वारा तैयार, हमें यह चुनाव करने और परिणामों की जांच करने की अनुमति देता है। यह बेहतर तरीके से जानने में मदद करने वाला था कि चरम परिस्थितियों में कौन से निर्णय इन्हें सेल्फ-ड्राइविंग कारों के एल्गोरिदम में लागू करने के लिए अधिक सामाजिक रूप से स्वीकार्य हैं। लेकिन यह कैसे किया जाए, अगर किसको मरना चाहिए (वृद्ध, छोटा, लोगों का समूह, पशु, चालक, यात्रियों) का निर्णय सांस्कृतिक रूप से वातानुकूलित है और दुनिया के क्षेत्र के आधार पर भिन्न होता है? यह पता चला कि पूरे विश्व के लिए कोई सार्वभौमिक मानक नहीं हैं, उदाहरण के लिए। एक एशियाई एक बूढ़े व्यक्ति की बलि नहीं देगा, और एक यूरोपीय एक युवा को बचाएगा [2]. सबसे अच्छा नैतिकता मॉडल खोजने का प्रयास भावनात्मक बुद्धिमत्ता वाली मशीनें बनाने की एक विधि है। यदि एआई को पीड़ा या अपराधबोध के बारे में कोई सहानुभूति और ज्ञान नहीं है, तो हमें स्वायत्त विकल्पों के बिना मौतों से बचने के लिए सख्त नियम लागू करने चाहिए।

हमें नियंत्रण चाहिए

बेन श्नाइडरमैन ने अपने प्रकाशन में "कृत्रिम बुद्धि के दो महान लक्ष्यों से डिजाइन सबक: अनुकरण और उपयोगी अनुप्रयोग" [3] कृत्रिम बुद्धि नामक चीज़ के दो मुख्य लक्ष्यों का सुझाव दिया। पहला है अपनी क्षमताओं पर हावी होने के लिए इंसान की नकल करना, दूसरा है रोजमर्रा के कामों में उसका साथ देना।

हम पहले से ही अपने कुछ निर्णय विशेष मशीनों को सौंपते हैं। जटिल एवियोनिक्स और कम्प्यूटरीकृत उड़ान सुधार के बिना, नवीनतम सैन्य विमान केवल मानव पायलट के समर्थन से उड़ान भरने और उड़ान भरने में सक्षम नहीं होंगे। आजकल, हर मानव-राहत समाधान पूरी तरह से मानव कारक द्वारा नियंत्रित एक उपकरण के हिस्से के रूप में काम करता है। यह संतुलन ऑपरेटर को नियंत्रण में रहने की अनुमति देता है, इस प्रकार इन निर्णयों के परिणामों के लिए नैतिक रूप से जिम्मेदार है। अगर कुछ गलत हो जाता है, तो किसे दोष देना है - निर्णय लेने वाली मशीन या प्रोग्रामर जिसने निर्णय लेने वाला एल्गोरिदम बनाया है? इसलिए यदि हमें मशीन को पूर्ण नियंत्रण देने की आवश्यकता है, तो हम विश्वसनीयता की गारंटी की तलाश कर रहे हैं।

कहां है हमारी नैतिकता?

ठीक है, जब हम इसके बारे में सोचते हैं तो नैतिक और जिम्मेदार निर्णय लेना आसान होता है। लेकिन असल जिंदगी में यह कैसी दिखती है? क्या हम मशीनों से बेहतर हैं? अब स्वायत्त ड्राइविंग दर्द और लाभ का विश्लेषण करने का समय आ गया है।

सड़क पर दो स्थितियों की कल्पना करें:

  1. हम बर्फ़ीले तूफ़ान के दौरान अपनी स्वायत्त कार में गाड़ी चला रहे हैं। कार सिस्टम गति सीमा और कार के साथ आंशिक रूप से बर्फ के संकेतों से ढके हुए को नहीं पहचानते हैं और दुर्घटना को जोखिम में डालते हुए समान गति रखते हैं।
  2. हम शहर में अपनी स्वायत्त कार में गाड़ी चला रहे हैं। अचानक एक साइकिल सवार हमारे सामने सड़क काट देता है। एल्गोरिथम को यह तय करना है कि क्या करना है: दुर्घटनाओं से बचें और अन्य यातायात प्रतिभागियों के जीवन को जोखिम में डालें या साइकिल चालक पर प्रभाव बल को कम करें।

मनुष्य संकेतों की व्याख्या में बेहतर हैं क्योंकि वे अमूर्त सोच का उपयोग करके सूचना के स्क्रैप के आधार पर भी इनकी व्याख्या कर सकते हैं (जैसे सड़क का चिन्ह बर्फ से आधा ढका हुआ है, या किसी विज्ञापन पर स्थित है) [5]

https://www.extremetech.com/extreme/306346-researchers-tape-speed-limit-sign-to-make-teslas-accelerate-to-85-mph

यहाँ मानवीय नैतिकता के लिए एक क्षण है। हम चुन सकते हैं - वर्तमान गति बनाए रखें या नियमों के अनुसार समायोजित करें। पहली पसंद हम पर निर्भर है। अगर कुछ गलत होता है तो हम पूरी जिम्मेदारी ले रहे हैं।

दूसरी स्थिति में, सचेत निर्णय लेने के लिए प्रतिक्रिया करने का समय बहुत कम है। हमारी प्रतिक्रिया सीखी हुई सजगता पर निर्भर करती है। ड्राइवरों के प्रतिक्रिया समय [6] पर एक अध्ययन से पता चलता है कि प्रतिक्रिया जितनी लंबी होती है उतनी ही अप्रत्याशित घटना होती है। अचानक हुई घटना की स्थिति में, हमारी प्रतिक्रिया मशीन प्रतिक्रियाओं से अलग नहीं होती है। यह इस बात पर भी निर्भर करता है कि पिछले सड़क अनुभवों के आधार पर हम ड्राइवरों के रूप में "प्रोग्राम" कैसे किए जाते हैं।

हम निश्चित रूप से "नैतिक मशीन" परीक्षण से विभाजित-दूसरा निर्णय नहीं ले पाएंगे।

एक सचेत निर्णय लेने के लिए प्रतिक्रिया के लिए समय बहुत कम था। तो क्या इंसानों की अचेतन प्रतिक्रियाएँ मशीन की तुलना में बेहतर होती हैं? टेस्ला के सेल्फ-ड्राइविंग सिस्टम के आधार पर, हम देख सकते हैं कि यह बेहतर है:

  • धारणा
    मशीन का लाभ बहुत बड़ा है। कारों के कैमरों और सेंसर की तुलना में, मनुष्यों के पास केवल एक जोड़ी आंखें होती हैं [7] । इसके अतिरिक्त (एक विशेष क्षण में), हमें चुनना होगा - आगे देखने के लिए या रियरव्यू मिरर के किनारे। जब हम गाड़ी चला रहे होते हैं तो हमारे लिए कुछ छूटना आसान होता है।
  • सूचना
    एक एल्गोरिथ्म की भूमिका सभी सेंसर से ड्राइविंग के लिए आवश्यक डेटा का प्रसंस्करण है। लेकिन एआई को सड़क किनारे विज्ञापन के आकर्षण को रेट करने की आवश्यकता नहीं है, अच्छे विचारों पर ध्यान केंद्रित नहीं करता है, पिछली सीट पर बच्चों की चीख से विचलित नहीं होता है। ध्यान भंग करने वालों के प्रभाव को कम करने के लिए सेंसर बनाए गए हैं। हम कितना भी ध्यान केंद्रित करने का प्रयास करें, सभी इंद्रियों को बंद करना असंभव है।
  • संज्ञानात्मक नियंत्रण
    संज्ञानात्मक नियंत्रण व्यवहार का स्वचालन और उचित समय पर अनावश्यक व्यवहार का निषेध है। इस स्वचालन की प्रभावशीलता सीखे हुए व्यवहारों और उत्तेजनाओं के चयनात्मक विश्लेषण पर निर्भर करती है। हम "जन्मजात ड्राइवर" नहीं हैं - हमारे ड्राइविंग कौशल अलग हैं। लेकिन प्रत्येक मशीन समान है - प्रत्येक मॉडल में एक ही सेंसर होता है और एक केंद्रीय सर्वर से एक ही समय में डाउनलोड किए गए ड्राइविंग के रास्ते में समान डेटा का उपयोग करता है। तो कोई स्वायत्त कार नहीं है जो दूसरे से बेहतर ड्राइव करती है। वे सभी एक ही तरह के "चालक" हैं।

अब तक, हम सड़क पर नियमों और हमारे निर्णयों के परिणामों की देखभाल करने के लिए जिम्मेदार थे। हाल ही में एल्गोरिदम हमसे अधिक प्रभावी हो सकते हैं। हालांकि, जब हम दुर्घटनाओं की संख्या को कम करने के लिए जिम्मेदारी को मशीन पर स्थानांतरित कर सकते हैं, तो हम नैतिक विचारों में फंस जाते हैं।
स्वायत्त कारों की लोकप्रियता तर्कसंगत और अपरिहार्य है। दुर्भाग्य से, हम नियंत्रण छोड़ने से डरते हैं। मानव नियंत्रण से परे निर्णयों के परिणामों के लिए कोई भी जिम्मेदारी नहीं लेगा, भले ही यह अंततः सड़क सुरक्षा को बढ़ाए।

लेख से प्रश्न पर वापस: "क्या हमें नैतिक सेल्फ-ड्राइविंग कारों की आवश्यकता है?" उत्तर है - क्या हम जानते हैं कि हमारी नैतिकता के उपयोग की सीमाएँ कहाँ हैं? और क्या हमें मशीनों का मानवीकरण करना चाहिए, अगर हम इतने अपूर्ण हैं?

पढ़ने के लिए धन्यवाद।

कड़ियाँ:

[1]https://www.moralmachine.net
[2] https://www.technologyreview.com/2018/10/24/139313/a-global-ethics-study-aims-to-help-ai-solve-the-self-dving-trolley-problem/ [ 3]
https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9088114
[4] https://futurism.com/the-byte/tesla-slamming-brakes-sees-stop-sign-billboard [5] https://www.extremetech.com/extreme/306346-researchers-tape-speed -सीमा-साइन-टू-मेक-टेस्लास-एक्सेलरेट-टू-85-मील प्रति घंटे [6] https://www.degruyter.com/document/doi/10.1515/eng-2020-0004/html [7] https:/ /www.caranddriver.com/news/a36542541/tesla-model-3-model-y-pure-vision/