होम युद्ध पेंटागन के खिलाफ एंथ्रोपिक का मामला एआई विनियमन के लिए जगह खोल...

पेंटागन के खिलाफ एंथ्रोपिक का मामला एआई विनियमन के लिए जगह खोल सकता है

6
0

सैन फ्रांसिस्को, संयुक्त राज्य अमेरिका: कैलिफ़ोर्निया के एक न्यायाधीश ने कृत्रिम बुद्धिमत्ता द्वारा संचालित हथियारों के नियमन के लिए एंथ्रोपिक की संभावित जीत के लिए मंच तैयार किया है, जो संयुक्त राज्य अमेरिका के राष्ट्रपति डोनाल्ड ट्रम्प के प्रशासन के लिए एक खामी है, जो कंपनी को सरकारी अनुबंधों में अरबों का नुकसान न होने देने के करीब एक कदम लाता है।

ट्रम्प प्रशासन ने बढ़े हुए विनियमन पर अपने रुख के लिए एंथ्रोपिक को “आपूर्ति श्रृंखला जोखिम” नामित किया था, एक ऐसा कदम जो कंपनी को कुछ सैन्य अनुबंधों से रोक देगा।

अनुशंसित कहानियाँ

4 वस्तुओं की सूचीसूची का अंत

एक जिला न्यायाधीश ने कहा है कि संयुक्त राज्य अमेरिका का रक्षा विभाग मानव पर्यवेक्षण के बिना या बड़े पैमाने पर निगरानी के लिए हथियारों के लिए अपने कृत्रिम बुद्धिमत्ता (एआई) मॉडल के उपयोग को प्रतिबंधित करने के प्रयास के लिए एंथ्रोपिक को अवैध रूप से दंडित करने की कोशिश कर सकता है।

उत्तरी कैलिफोर्निया जिला अदालत की न्यायाधीश रीटा लिन ने मंगलवार को कहा, “ऐसा लगता है कि यह एंथ्रोपिक को पंगु बनाने का प्रयास है।”

कानूनी विश्लेषकों का कहना है कि यह एंथ्रोपिक को रक्षा विभाग द्वारा आपूर्ति श्रृंखला जोखिम के रूप में लेबल किए जाने से प्रारंभिक निषेधाज्ञा प्रदान करने के लिए मंच तैयार कर सकता है।

बोस्टन स्थित थिंक टैंक इंस्टीट्यूट फॉर लॉ एंड एआई के वरिष्ठ शोध साथी चार्ली बुलॉक ने रक्षा विभाग द्वारा एंथ्रोपिक को आपूर्ति श्रृंखला जोखिम के रूप में नामित करने के बारे में कहा, “उनके घोषित उद्देश्य युद्ध विभाग द्वारा पूरी तरह से समर्थित नहीं हैं।”

यह पहली बार है कि किसी अमेरिकी कंपनी को इस तरह नामित किया गया है और इसमें सरकारी अनुबंधों के साथ-साथ सरकारी ठेकेदारों को भी रद्द करना होगा।

17 मार्च को, रक्षा विभाग ने अदालत को बताया कि एंथ्रोपिक का यह रुख कि उसके उत्पादों का उपयोग मानव निरीक्षण के बिना एआई-संचालित हथियारों के लिए या घरेलू निगरानी के लिए नहीं किया जाएगा, इसकी “अपने स्वयं के वैध संचालन को नियंत्रित करने की क्षमता” को कम कर देगा।

पदनाम को हटाने के लिए एंथ्रोपिक का मुकदमा एआई की क्षमताओं की सीमा के बारे में सामने आ रहा है, वे जीवन को कैसे आकार दे सकते हैं और क्या उन्हें विनियमित किया जाएगा।

ऑक्सफ़ोर्ड यूनिवर्सिटी के ऑक्सफ़ोर्ड मार्टिन एआई गवर्नेंस इनिशिएटिव के सह-निदेशक रॉबर्ट ट्रैगर कहते हैं, ”यह मामला एक प्रकार का क्षण है जब हम सरकार और कंपनियों के बीच किस तरह के संबंध चाहते हैं और नागरिकों के पास क्या अधिकार हैं, इस पर विचार करना है।”

न्यूयॉर्क यूनिवर्सिटी के स्टर्न स्कूल ऑफ बिजनेस में व्यवसाय और समाज के क्लिनिकल एसोसिएट प्रोफेसर एलिसन टेलर ने कहा, “अमेरिका में, प्रौद्योगिकी मालगाड़ी की तरह आगे बढ़ रही है और मानव निरीक्षण का कोई भी विचार कठिन होता जा रहा है।” लेकिन लोग एआई से संबंधित नौकरी छूटने, डेटा सेंटर, निगरानी और हथियारों को लेकर चिंतित हैं। इसका मतलब है कि जनता की राय एआई से दूर जा रही है।”

पिछले दो हफ्तों में, कई तकनीकी कंपनियों, थिंक टैंक और कानूनी समूहों ने एंथ्रोपिक के रुख के समर्थन में अदालत में ब्रीफ दायर किया, जिसमें हथियारों और बड़े पैमाने पर निगरानी के लिए एआई की निगरानी और विनियमन की मांग की गई। यह समर्थन माइक्रोसॉफ्ट और एंथ्रोपिक के प्रतिस्पर्धियों ओपनएआई और गूगल इंक के कर्मचारियों से लेकर कैथोलिक मोरल थियोलॉजिस्ट और एथिसिस्ट तक शामिल है।

ओपनएआई और गूगल डीपमाइंड के इंजीनियरों ने अपनी संक्षिप्त जानकारी में कहा, यह मामला “हमारे उद्योग के लिए भूकंपीय महत्व” का है और यह विनियमन महत्वपूर्ण है क्योंकि एआई मॉडल की “तर्क की श्रृंखला अक्सर उनके ऑपरेटरों से छिपी होती है, और उनकी आंतरिक कार्यप्रणाली उनके डेवलपर्स के लिए भी अपारदर्शी होती है।” और घातक संदर्भों में वे जो निर्णय लेते हैं, वे अपरिवर्तनीय हैं।”

ऐसी चिंताओं की पृष्ठभूमि के खिलाफ, एनवाईयू के टेलर ने कहा, “एंथ्रोपिक एक जोखिम भरा लेकिन अच्छा दांव लगा रहा है कि खुद को एक नैतिक एआई कंपनी के रूप में स्थापित करने से उसे विनियमन को आकार देने में मदद मिलेगी जब ऐसा होगा।”

मतिभ्रम और अन्य समस्याएं

एंथ्रोपिक ने पेंटागन अनुबंधों पर बड़े पैमाने पर काम किया है और इसके क्लाउड गॉव मॉडल को पलान्टिर के प्रोजेक्ट मावेन में एकीकृत किया गया है, जो डेटा विश्लेषण, लक्ष्य चयन और ऐसे अन्य कार्यों में मदद करता है, जिसमें कथित तौर पर ईरान के खिलाफ चल रहे यूएस-इज़राइल युद्ध भी शामिल है।

जबकि एआई-संचालित हथियारों का उपयोग वर्तमान में मानव पर्यवेक्षण के बिना नहीं किया जाता है, एंथ्रोपिक ने रक्षा विभाग के साथ अपने अनुबंध में मानव निरीक्षण जारी रखने के लिए कहा है क्योंकि, यह कहता है, एआई मॉडल मतिभ्रम कर सकते हैं और अभी तक पूरी तरह से विश्वसनीय नहीं हैं। जबकि मतिभ्रम सभी एआई मॉडल में एक चिंता का विषय है, हथियारों के उपयोग से संभावित नुकसान बड़े पैमाने पर हो सकता है।

जॉर्ज मेसन यूनिवर्सिटी कॉलेज ऑफ इंजीनियरिंग एंड कंप्यूटिंग में सिविल इंजीनियरिंग की प्रोफेसर और मेसन ऑटोनॉमी एंड रोबोटिक सेंटर की निदेशक मैरी कमिंग्स ने पाया कि सैन फ्रांसिस्को में, जहां ज्यादातर ऐसी कारें तैनात हैं, सेल्फ-ड्राइविंग कारों से होने वाली सभी दुर्घटनाओं में से आधी दुर्घटनाएं कार द्वारा गलत तरीके से यह सोचने के कारण हुईं कि कोई वस्तु उसके आगे है और ब्रेक लगाने के कारण उसके पीछे की कार दुर्घटनाग्रस्त हो गई।

“हम इसे फैंटम ब्रेकिंग कहते हैं और यह मतिभ्रम के कारण होता है,” उसने अल जज़ीरा को बताया।

फरवरी के एक पेपर में, उसने चेतावनी दी थी कि, “हथियारों में एआई को शामिल करने से मतिभ्रम सहित सेल्फ-ड्राइविंग कारों के समान विश्वसनीयता के मुद्दों का सामना करना पड़ेगा।”

नॉर्थईस्टर्न यूनिवर्सिटी के बाउवे कॉलेज ऑफ हेल्थ साइंसेज में स्वास्थ्य प्रणालियों पर एआई के प्रभाव पर शोध करने वाली सहायक प्रोफेसर अन्निका शोएने कहती हैं, “मतिभ्रम ही एकमात्र चिंता का विषय नहीं है। इस तरह के मॉडल में अलग-अलग वर्कफ़्लो, डेटा पूर्वाग्रह या मॉडल पूर्वाग्रह हो सकते हैं। हम अभी तक नहीं जानते कि वे विदेशी हेरफेर से कितने सुरक्षित हैं। इसमें बहुत सारे टुकड़े हैं और हम अभी तक इस बात पर सहमत नहीं हैं कि हम क्या सुरक्षित मानते हैं और क्या नहीं।”

यह देखते हुए कि क्लॉड गॉव सहित एआई मॉडल सेना द्वारा नहीं बनाए गए हैं, उन्हें सैन्य प्रणालियों में एकीकृत करते समय यह परीक्षण करने की आवश्यकता है कि वे कितने विश्वसनीय हैं, वाशिंगटन डीसी स्थित थिंक टैंक, सेंटर फॉर स्ट्रैटेजिक एंड इंटरनेशनल स्टडीज में वाधवानी एआई सेंटर के निदेशक आलोक मेहता कहते हैं।

“मूल्यांकन और बेंचमार्क परीक्षण में देरी हो सकती है।” मॉडल हमारे पास मौजूद परीक्षण प्रणालियों को परिपूर्ण करते हैं

दूसरों का कहना है कि यह उतनी तकनीक नहीं है जितना इसका उपयोग करने का तरीका त्रुटियों का कारण बन सकता है।

“मुझे याद है, में [early] 2020 में उम्मीद थी कि ऐसे उपकरणों के साथ, नागरिक मौतों में कमी आएगी,” कैलिफोर्निया विश्वविद्यालय, बर्कले के गोल्डमैन स्कूल ऑफ पब्लिक पॉलिसी के एसोसिएट रिसर्च प्रोफेसर और बर्कले रिस्क एंड सिक्योरिटी लैब के संस्थापक एंड्रयू रेड्डी कहते हैं।

“लेकिन वास्तव में ऐसा नहीं हुआ है क्योंकि यह आपके द्वारा खिलाए गए डेटा पर निर्भर करता है।” चुनौती एआई-नेस की नहीं है, बल्कि यह है कि एक वैध लक्ष्य क्या है,” वह कहते हैं कि कैसे सैन्यकर्मी उपकरणों द्वारा प्रदान की गई सीमा से लक्ष्य का चयन करते हैं।

घरेलू सामूहिक निगरानी पर भी, हालांकि यह स्पष्ट नहीं है कि पेंटागन वर्तमान में एआई का उपयोग कर रहा है या नहीं, ओपनएआई और Google शोधकर्ताओं ने अपने अदालती प्रस्तुतीकरण में इस पर चिंताओं को रेखांकित किया है।

उनका कहना है कि पूरे अमेरिकी आबादी पर नजर रखने के लिए 70 मिलियन से अधिक कैमरे, क्रेडिट कार्ड लेनदेन इतिहास और ऐसे अन्य डेटा एकत्र किए जा सकते हैं। “यहां तक ​​कि यह जागरूकता भी कि ऐसी क्षमता मौजूद है, लोकतांत्रिक भागीदारी पर भयावह प्रभाव डालती है।”

‘जनसंपर्क की जीत’

अदालती मामले से पहले और बढ़ती सार्वजनिक कटुता के बीच, एंथ्रोपिक के बारे में कहा जाता था कि उसका पेंटागन के साथ उसके कई प्रतिस्पर्धियों की तुलना में अधिक गहरा रिश्ता था, और इससे दोनों को लाभ हुआ था।

सीएसआईएस के मेहता कहते हैं, “पेंटागन को लगता है कि एंथ्रोपिक के पास सैन्य उपयोग के लिए सबसे अच्छा उत्पाद है, इसलिए वह कंपनी पर इसका उपयोग जारी रखने के लिए दबाव डाल रहा है।”

एंथ्रोपिक के लिए, “एआई उद्योग के लिए अर्थशास्त्र बहुत चुनौतीपूर्ण है।” इसलिए आपको अरबों डॉलर के अनुबंधों के साथ एक मजबूत सार्वजनिक क्षेत्र के व्यवसाय की आवश्यकता है,” वह कहते हैं।

एंथ्रोपिक का अनुबंध समाप्त होने के तुरंत बाद पेंटागन के साथ काम करने के लिए ओपनएआई ने एंथ्रोपिक के स्थान पर कदम रखा। लेकिन ऐसा लगता है कि एंथ्रोपिक को “यदि सामग्री के आधार पर नहीं तो जनसंपर्क की जीत” मिली है, एनवाईयू के टेलर का कहना है।

एक नैतिक एआई कंपनी के रूप में इसकी स्थिति ने इसे सार्वजनिक लोकप्रियता दिलाई होगी। अनुबंध रद्द होने के बाद के हफ्तों में क्लाउड के डाउनलोड में तेजी से वृद्धि हुई।

लेकिन ऑक्सफोर्ड प्रोग्राम फॉर साइबर एंड टेक्नोलॉजी पॉलिसी की कार्यकारी निदेशक ब्रायना रोसेन का कहना है कि किसी कंपनी को रेखाएं खींचना सरकार की ऐसा करने में विफलता का संकेत है।

वह कहती हैं, ”पहली बार, संयुक्त राज्य अमेरिका ईरान में बड़े पैमाने पर युद्ध अभियानों में लक्ष्य तैयार करने के लिए एआई का उपयोग कर रहा है।” “और कानून निर्माता अभी भी इस बात पर बहस कर रहे हैं कि क्या पूरी तरह से स्वायत्त हथियारों पर लाल रेखाएं खींची जानी चाहिए।” शासन की अनुपस्थिति अपने आप में एक राष्ट्रीय सुरक्षा जोखिम है।”

एआई हथियारों के नियमन पर बहस केवल सार्वजनिक चिंता और अन्य क्षेत्रों में एआई नवाचार को अधिक विनियमित करने की अनिच्छा के बीच अंतर को बढ़ाती है। सर्वेक्षणों से पता चला है कि अमेरिकी एआई से संभावित नौकरी छूटने और जलवायु परिवर्तन के प्रभावों को लेकर चिंतित हैं। क्विनिपैक यूनिवर्सिटी के अप्रैल 2025 के सर्वेक्षण में पाया गया कि 69 प्रतिशत अमेरिकियों ने सोचा कि सरकार एआई को विनियमित करने के लिए और अधिक कर सकती है।

इस दरार ने एआई उद्योग को 2026 के मध्यावधि चुनावों में एक प्रमुख दाता के रूप में उभरने के लिए प्रेरित किया है। लीडिंग द फ़्यूचर, एक सुपर पीएसी जिसे ओपनएआई के अध्यक्ष ग्रेग ब्रॉकमैन, पलान्टिर के सह-संस्थापक जो लोन्सडेल और अन्य से $100 मिलियन से अधिक प्राप्त हुआ है, ने कांग्रेस के लिए चल रहे न्यूयॉर्क असेंबली सदस्य एलेक्स बोर्स के खिलाफ विज्ञापनों को वित्त पोषित किया है। बोर्स ने RAISE अधिनियम को प्रायोजित किया जो AI डेवलपर्स को सुरक्षा प्रोटोकॉल या दुर्घटनाओं का खुलासा करने के लिए बाध्य करेगा।

फरवरी में, एंथ्रोपिक ने पब्लिक फर्स्ट एक्शन, एक पीएसी के लिए $20 मिलियन के दान की घोषणा की, जो बोर्स सहित एआई विनियमन के पक्ष में उम्मीदवारों का समर्थन करेगा।

इंस्टीट्यूट फॉर लॉ और एआई के बुलॉक का कहना है कि जहां एआई कंपनियां अपने मॉडलों के परीक्षण और मूल्यांकन के लिए उद्योग मानकों को विकसित करना चाह रही हैं, वहीं एंथ्रोपिक विनियमन पर जोर दे रही है क्योंकि बुरे कलाकार ऐसे गैर-बाध्यकारी मानकों का उल्लंघन कर सकते हैं।

एंथ्रोपिक के मामले पर अदालत के फैसले और आगामी मध्यावधि चुनावों के बीच, विशेषज्ञों का कहना है कि ये घटनाएँ एआई विनियमन की दिशा निर्धारित कर सकती हैं।

ऑक्सफ़ोर्ड के रोसेन कहते हैं, ”यह अधिक विचारशील नीति विकास के लिए जगह बना सकता है।”