डूम बनाम बूम: कैलिफोर्निया के कानून में एआई के भविष्य को शामिल करने की लड़ाई

कैलिफोर्निया का एक बिल जो बड़े फ्रंटियर AI मॉडल को विनियमित करने का प्रयास करता है, AI के भविष्य को लेकर एक नाटकीय गतिरोध पैदा कर रहा है। सालों से, AI को "एक्सेल" और "डीसेल" में विभाजित किया गया है । एक्सेल चाहते हैं कि AI तेज़ी से आगे बढ़े - तेज़ी से आगे बढ़े और चीज़ों को तोड़ दे - जबकि डीसेल चाहते हैं कि मानवता की खातिर AI का विकास धीमा हो। यह लड़ाई तब राष्ट्रीय सुर्खियों में आई जब ओपनएआई के बोर्ड ने सैम ऑल्टमैन को कुछ समय के लिए बाहर कर दिया , जिनमें से कई ने तब से AI सुरक्षा के नाम पर स्टार्टअप से खुद को अलग कर लिया है । अब कैलिफोर्निया का एक बिल इस लड़ाई को राजनीतिक बना रहा है।
सुझाया गया पठन
सुझाया गया पठन
- बंद
- अंग्रेज़ी
एसबी 1047 क्या है?
एसबी 1047 कैलिफोर्निया राज्य का एक विधेयक है जो बड़े एआई मॉडल प्रदाताओं - जैसे कि मेटा, ओपनएआई, एंथ्रोपिक और मिस्ट्रल - को उनके एआई सिस्टम के संभावित विनाशकारी खतरों के लिए उत्तरदायी बनाएगा। राज्य सीनेटर स्कॉट वीनर द्वारा लिखित यह विधेयक मई में कैलिफोर्निया की सीनेट से पारित हुआ औरइस सप्ताह कानून बनने की दिशा में एक और बड़ी बाधा को पार कर गया ।
संबंधित सामग्री
संबंधित सामग्री
मै क्यूँ ध्यान दूँ?
खैर, यह अमेरिका में पहला वास्तविक एआई विनियमन बन सकता है, और यह कैलिफोर्निया में हो रहा है, जहां सभी प्रमुख एआई कंपनियां हैं।
वीनर ने इस विधेयक को “सबसे बड़े और सबसे शक्तिशाली AI सिस्टम के डेवलपर्स के लिए स्पष्ट, पूर्वानुमानित, सामान्य-ज्ञान सुरक्षा मानक” निर्धारित करने वाला बताया। हालांकि हर कोई इसे इस तरह से नहीं देखता। सिलिकॉन वैली में कई लोग खतरे की घंटी बजा रहे हैं कि यह कानून AI युग को शुरू होने से पहले ही खत्म कर देगा।
एसबी 1047 वास्तव में क्या करता है?
एसबी 1047 एआई मॉडल प्रदाताओं को किसी भी "विनाशकारी नुकसान" के लिए उत्तरदायी बनाता है, हालांकि यह थोड़ा अस्पष्ट है कि वे क्या हैं। फिर भी, यह बहुत बड़ी बात है क्योंकि सिलिकॉन वैली ने ऐतिहासिक रूप से अपने नुकसानों के लिए अधिकांश जिम्मेदारी से परहेज किया है। यह बिल कैलिफोर्निया के अटॉर्नी जनरल को इन कंपनियों के खिलाफ कानूनी कार्रवाई करने का अधिकार देता है यदि उनके एआई मॉडल में से कोई कैलिफोर्नियावासियों को गंभीर नुकसान पहुंचाता है।
एसबी 1047 में एक "शटडाउन" प्रावधान भी शामिल है, जो एआई कंपनियों को आपातकालीन स्थिति में एआई मॉडल के लिए किल स्विच बनाने की आवश्यकता रखता है।
बिल कैलिफोर्निया के प्रौद्योगिकी विभाग के भीतर "फ्रंटियर मॉडल डिवीजन" भी बनाता है। यह समूह इन फ्रंटियर एआई मॉडल प्रदाताओं को विनियमित करेगा, और सुरक्षा मानकों को लागू करेगा जिनका प्रत्येक कंपनी को पालन करना होगा। यदि व्यवसाय डिवीजन का अनुपालन नहीं करते हैं, तो उन पर मुकदमा चलाया जा सकता है और उन्हें नागरिक दंड का सामना करना पड़ सकता है।
इस विधेयक का समर्थन कौन करता है?
सीनेटर वीनर के अलावा, दो प्रमुख एआई शोधकर्ता जिन्हें कभी-कभी "एआई के गॉडफादर" कहा जाता है, जेफ्री हिंटन और योशुआ बेंगियो ने भी इस बिल पर अपना नाम दर्ज कराया। ये दोनों एआई के खतरों के बारे में चेतावनी देने में बहुत प्रमुख रहे हैं।
अधिक व्यापक रूप से, यह विधेयक डीसेल परिप्रेक्ष्य के अनुरूप है, जो मानता है कि एआई में मानवता को समाप्त करने की अपेक्षाकृत उच्च संभावना है और इसे इस तरह से विनियमित किया जाना चाहिए। इनमें से अधिकांश लोग एआई शोधकर्ता हैं, और सक्रिय रूप से एआई उत्पाद को कमोडिटी बनाने की कोशिश नहीं कर रहे हैं, क्योंकि आप जानते हैं, उन्हें लगता है कि इससे मानवता खत्म हो सकती है।
यह बिल सेंटर फॉर एआई सेफ्टी द्वारा प्रायोजित है, जिसका नेतृत्व डैन हेंड्रिक्स करते हैं। उनके समूह ने मई 2023 में एक खुला पत्र प्रकाशित किया जिसमें कहा गया कि मानव विलुप्त होने के लिए एआई के जोखिम को परमाणु युद्धों या महामारी की तरह गंभीरता से लिया जाना चाहिए। इस पर सैम ऑल्टमैन, बिल गेट्स, ग्रिम्स और कई प्रभावशाली तकनीकी लोगों ने हस्ताक्षर किए थे। वे एक प्रभावशाली समूह हैं और इस बिल को बढ़ावा देने में एक प्रमुख खिलाड़ी हैं।
मार्च 2023 में, डेसेल्स ने सुरक्षा बुनियादी ढांचे को लागू करने के लिए सभी एआई विकास पर "रोक" लगाने का आह्वान किया । हालाँकि यह अतिशयोक्तिपूर्ण लगता है, लेकिन एआई समुदाय में बहुत से ऐसे बुद्धिमान लोग हैं जो वास्तव में मानते हैं कि एआई मानवता को समाप्त कर सकता है। उनका विचार है कि यदि एआई द्वारा मानवता को समाप्त करने की कोई संभावना है, तो हमें शायद इसे सख्ती से नियंत्रित करना चाहिए, बस मामले में।
यह बात तो सही है। तो फिर SB 1047 के खिलाफ कौन है?
यदि आप एक्स पर हैं, तो ऐसा लगता है कि सिलिकॉन वैली में हर कोई एसबी 1047 के खिलाफ है। वेंचर कैपिटलिस्ट, स्टार्टअप संस्थापक, एआई शोधकर्ता और ओपन-सोर्स एआई समुदाय के नेता इस बिल से नफरत करते हैं। मैं आम तौर पर इन लोगों को एक्सेल के रूप में वर्गीकृत करता हूं, या कम से कम, वे इस मुद्दे पर यहीं आते हैं। उनमें से कई एआई के व्यवसाय में हैं, लेकिन कुछ शोधकर्ता भी हैं।
आम धारणा यह है कि एसबी 1047 मेटा और मिस्ट्रल जैसे एआई मॉडल प्रदाताओं को अपने ओपन-सोर्स प्रयासों को कम करने या पूरी तरह से बंद करने के लिए मजबूर कर सकता है। यह बिल उन्हें उन बुरे लोगों के लिए जिम्मेदार बनाता है जो उनके एआई मॉडल का उपयोग करते हैं, और ये कंपनियाँ जनरेटिव एआई पर प्रतिबंध लगाने की कठिनाइयों और उत्पादों की खुली प्रकृति के कारण उस जिम्मेदारी को नहीं ले सकती हैं।
ए16जेड के जनरल पार्टनर और मिस्ट्रल बोर्ड के निदेशक अंजनी मिधा ने गिजमोडो को दिए एक साक्षात्कार में कहा, "यह ओपन-सोर्स स्टार्टअप इकोसिस्टम को पूरी तरह से खत्म कर देगा, कुचल देगा और धीमा कर देगा।" "यह बिल प्रिंटिंग प्रेस पर प्रगति को रोकने की कोशिश करने जैसा है, इसके बजाय इस बात पर ध्यान केंद्रित करना चाहिए कि इसे कहाँ होना चाहिए, यानी प्रिंटिंग प्रेस का उपयोग।"
बर्कले के कंप्यूटर विज्ञान के प्रोफेसर और डेटाब्रिक्स के कार्यकारी अध्यक्ष आयन स्टोइका ने एक साक्षात्कार में कहा, "उभरते मॉडलों के लिए पारदर्शी सुरक्षा परीक्षण लाकर आगे बने रहने के लिए ओपन सोर्स हमारी सबसे अच्छी उम्मीद है, बजाय इसके कि कुछ शक्तिशाली कंपनियों को गुप्त रूप से एआई को नियंत्रित करने दिया जाए।"
मिधा और स्टोइका अकेले ऐसे लोग नहीं हैं जो एआई विनियमन को उद्योग के अस्तित्व के लिए मानते हैं। ओपन-सोर्स एआई ने वर्षों में सबसे अधिक संपन्न सिलिकॉन वैली स्टार्टअप दृश्य को संचालित किया है। एसबी 1047 के विरोधियों का कहना है कि यह बिल उस संपन्न, खुले पारिस्थितिकी तंत्र के बजाय बिग टेक के बंद-बंद पदाधिकारियों को लाभ पहुंचाएगा।
एजीआई हाउस के निर्माता जेरेमी निक्सन ने कहा, "मैं वास्तव में इसे ओपन सोर्स एआई विकास में बाधा डालने के तरीके के रूप में देखता हूं, जो एआई को धीमा करने की एक व्यापक रणनीति का हिस्सा है।" यह हाउस सिलिकॉन वैली के ओपन सोर्स एआई हैकथॉन के लिए एक केंद्र के रूप में कार्य करता है। "यह बिल एक ऐसे समुदाय से आया है जो सामान्य रूप से एआई को रोकने में बहुत रुचि रखता है।"
यह बहुत तकनीकी बात लगती है। क्या विधिनिर्माता इतने सख्त हो सकते हैं?
यह बिल्कुल तकनीकी है, और इसने कुछ मुद्दे पैदा किए हैं। SB 1047 केवल "बड़े" फ्रंटियर मॉडल पर लागू होता है, लेकिन बड़ा कितना बड़ा है? बिल इसे 10^26 FLOPS पर प्रशिक्षित AI मॉडल के रूप में परिभाषित करता है, जो आज के मानकों के अनुसार कंप्यूटिंग शक्ति की एक विशिष्ट और बहुत बड़ी मात्रा है। समस्या यह है कि AI बहुत तेज़ी से बढ़ रहा है, और 2023 के अत्याधुनिक मॉडल 2024 के मानकों की तुलना में छोटे लगते हैं। रेत में झंडा गाड़ना इतनी तेज़ी से आगे बढ़ने वाले क्षेत्र के लिए अच्छा काम नहीं करता है।
यह भी स्पष्ट नहीं है कि AI सिस्टम को गलत व्यवहार करने से पूरी तरह से रोकना संभव है या नहीं। सच तो यह है कि हम LLM के काम करने के तरीके के बारे में बहुत कुछ नहीं जानते हैं, और OpenAI, Anthropic और Google के आज के प्रमुख AI मॉडल हर समय जेलब्रेक किए जाते हैं। यही कारण है कि कुछ शोधकर्ता कह रहे हैं कि नियामकों को मॉडल प्रदाताओं पर नहीं, बल्कि बुरे लोगों पर ध्यान देना चाहिए।
NYU में यान लेकन के साथ AI का अध्ययन करने वाले सहायक प्रोफेसर रविद श्वार्ट्ज ज़िव ने एक साक्षात्कार में कहा, "AI के साथ, आपको उपयोग के मामले, कार्रवाई को विनियमित करने की आवश्यकता है, न कि मॉडल को।" "दुनिया के सर्वश्रेष्ठ शोधकर्ता AI मॉडल पर अनंत समय बिता सकते हैं, और लोग अभी भी इसे जेलब्रेक करने में सक्षम हैं।"
इस बिल का एक और तकनीकी हिस्सा ओपन-सोर्स AI मॉडल से संबंधित है। अगर कोई स्टार्टअप मेटा के लामा 3, जो सबसे लोकप्रिय ओपन-सोर्स AI मॉडल में से एक है, को लेता है और उसे पूरी तरह से अलग बनाता है, तो क्या मेटा अभी भी उस AI मॉडल के लिए जिम्मेदार है? इस बिल के तहत, ऐसा लगता है कि मेटा को निश्चित रूप से जिम्मेदार ठहराया जा सकता है, लेकिन बिल के विरोधियों को यह अनुचित लगता है और सही दृष्टिकोण नहीं है।
त्वरित प्रश्न: क्या एआई वास्तव में स्वतंत्र अभिव्यक्ति है?
अस्पष्ट। AI समुदाय में कई लोग ओपन-सोर्स AI को एक तरह की मुक्त अभिव्यक्ति के रूप में देखते हैं (इसलिए मिधा ने इसे प्रिंटिंग प्रेस के रूप में संदर्भित किया)। आधार यह है कि AI मॉडल के अंतर्गत कोड अभिव्यक्ति का एक रूप है, और मॉडल आउटपुट भी अभिव्यक्तियाँ हैं। कोड ऐतिहासिक रूप से कई उदाहरणों में प्रथम संशोधन के अंतर्गत आता है।
लॉफेयर के एक लेख में तीन कानून के प्रोफेसरों ने तर्क दिया कि एआई मॉडल वास्तव में स्वतंत्र अभिव्यक्ति नहीं हैं। एक बात यह है कि वे कहते हैं कि एआई मॉडल बनाने वाले भार मनुष्यों द्वारा नहीं लिखे जाते हैं, बल्कि विशाल मशीन लर्निंग ऑपरेशन के माध्यम से बनाए जाते हैं। मनुष्य उन्हें मुश्किल से पढ़ भी पाते हैं।
फ्रंटियर एआई मॉडल के आउटपुट के लिए, ये सिस्टम सोशल मीडिया एल्गोरिदम से थोड़े अलग हैं, जिन्हें अतीत में प्रथम संशोधन के अंतर्गत माना जाता रहा है। एआई मॉडल वास्तव में किसी दृष्टिकोण को नहीं लेते हैं, वे बहुत सारी बातें कहते हैं। इसी कारण से, इन कानून के प्रोफेसरों का कहना है कि एसबी 1047 प्रथम संशोधन पर प्रभाव नहीं डाल सकता है।
अब अगला क्या होगा?
यह विधेयक अगस्त में होने वाले मतदान की ओर तेजी से बढ़ रहा है, जिसके बाद इसे गवर्नर गैविन न्यूजॉम की मेज पर भेजा जाएगा। वहां पहुंचने के लिए इसे कुछ और प्रमुख बाधाओं को पार करना होगा, और तब भी, सिलिकॉन वैली के दबाव के कारण न्यूजॉम इस पर हस्ताक्षर नहीं कर सकते हैं। एक बड़े टेक ट्रेड समूह ने अभी-अभी न्यूजॉम को एक पत्र भेजा है जिसमें उन्हें SB 1047 पर हस्ताक्षर न करने के लिए कहा गया है।
हालाँकि, न्यूज़ॉम शायद देश के लिए AI पर एक मिसाल कायम करना चाहते हैं। अगर SB 1047 लागू हो जाता है, तो यह अमेरिका में AI परिदृश्य को मौलिक रूप से बदल सकता है।