होम युद्ध ये एआई फर्म नहीं हैं, ये रक्षा ठेकेदार हैं। हम उन्हें उनके...

ये एआई फर्म नहीं हैं, ये रक्षा ठेकेदार हैं। हम उन्हें उनके मॉडलों के पीछे छिपने नहीं दे सकते

8
0

एक इजरायली सैन्य रणनीति है जिसे “फॉग प्रक्रिया” कहा जाता है। पहली बार दूसरे इंतिफादा के दौरान इस्तेमाल किया गया, यह एक अनौपचारिक नियम है जिसके तहत कम दृश्यता की स्थिति में सैन्य चौकियों की रक्षा करने वाले सैनिकों को अंधेरे में गोलियों की बौछार करने की आवश्यकता होती है, इस सिद्धांत पर कि एक अदृश्य खतरा छिपा हो सकता है।

यह अंधेपन द्वारा लाइसेंस प्राप्त हिंसा है। अंधेरे में गोली मारो और इसे निवारण कहो। एआई युद्ध की शुरुआत के साथ, चुने गए अंधेपन के उसी तर्क को परिष्कृत, व्यवस्थित किया गया और एक मशीन को सौंप दिया गया।

गाजा में इजरायल के हालिया युद्ध को पहले बड़े “एआई युद्ध” के रूप में वर्णित किया गया है – पहला युद्ध जिसमें एआई सिस्टम ने इजरायल को लक्षित करने के लिए कथित हमास और इस्लामिक जिहाद आतंकवादियों की सूची तैयार करने में केंद्रीय भूमिका निभाई है। ऐसी प्रणालियां जो अरबों डेटा बिंदुओं को संसाधित करती हैं ताकि इस संभावना को रैंक किया जा सके कि क्षेत्र में कोई भी व्यक्ति लड़ाकू था।

प्रहरीदुर्ग में अंधेरा इलाके की स्थिति थी। एल्गोरिदम के अंदर का अंधेरा डिज़ाइन की एक शर्त है। दोनों ही मामलों में, अंधेपन को चुना गया। इसे इसलिए चुना गया क्योंकि अंधापन उपयोगी है: यह अस्वीकार्यता पैदा करता है, यह हिंसा को अपरिहार्य महसूस कराता है, यह इस सवाल को ले जाता है कि किसने निर्णय लिया एक व्यक्ति से एक प्रक्रिया की ओर। कोहरा नहीं हटा। इसे संभाव्यता स्कोर दिया गया और इसे बुद्धिमत्ता कहा गया।

हो सकता है कि यह अंधता ही हो जिसके कारण, अमेरिका-इजरायल-ईरान युद्ध की शुरुआत में, दक्षिणी ईरान के मिनाब में शजरेह तैयबेह प्राथमिक विद्यालय पर हमला हुआ। कम से कम 168 लोग मारे गये, जिनमें अधिकतर बच्चे, सात से 12 वर्ष की लड़कियाँ थीं।

ईरान के मिनाब में शजराह तैयबेह प्राथमिक विद्यालय के स्कूली बच्चों के चित्र, जो अमेरिकी हमले में मारे गए थे। फोटो: ओन्स आबिद/एपी

हथियार अचूक थे. युद्ध सामग्री विशेषज्ञों ने लक्ष्यीकरण को “अविश्वसनीय रूप से सटीक” बताया, प्रत्येक इमारत पर व्यक्तिगत रूप से हमला किया गया, कुछ भी नहीं छूटा। समस्या क्रियान्वयन की नहीं थी. समस्या थी खुफिया जानकारी. स्कूल को निकटवर्ती रिवोल्यूशनरी गार्ड बेस से एक बाड़ द्वारा अलग कर दिया गया था और लगभग एक दशक पहले नागरिक उपयोग के लिए पुन: उपयोग किया गया था। लक्ष्यीकरण चक्र में कहीं न कहीं, ऐसा लगता है कि तथ्य कभी अद्यतन नहीं किया गया।

मिनाब पर हमले में एआई की सटीक भूमिका की आधिकारिक पुष्टि नहीं की गई है। जो ज्ञात है वह यह है कि लक्ष्यीकरण अवसंरचना जिसमें वे प्रणालियाँ संचालित होती हैं, में फ़्लैगिंग के लिए कोई विश्वसनीय तंत्र नहीं होता है जब अंतर्निहित खुफिया जानकारी एक दशक पुरानी हो जाती है।

चाहे किसी एल्गोरिथम ने इस स्कूल का चयन किया हो या नहीं, इसका चयन उस सिस्टम द्वारा किया गया था जिसे एल्गोरिथम लक्ष्यीकरण द्वारा निर्मित किया गया था। ईरान में अभियान के पहले 24 घंटों में 1,000 लक्ष्यों पर हमला करने के लिए, अमेरिकी सेना ने ऐसी गति से लक्ष्य सूची तैयार करने, प्राथमिकता देने और रैंक करने के लिए एआई सिस्टम पर भरोसा किया जिसे कोई भी मानव टीम दोहरा नहीं सकती थी।

गाजा प्रयोगशाला थी. मिनाब बाज़ार है. परिणाम एक ऐसी दुनिया है जिसमें आधुनिक युद्ध में सबसे अधिक परिणामी लक्ष्यीकरण निर्णय उन प्रणालियों द्वारा किए जाते हैं जो खुद को समझा नहीं सकते हैं, उन कंपनियों द्वारा आपूर्ति की जाती है जो किसी को जवाब नहीं देते हैं, ऐसे संघर्षों में जो कोई जवाबदेही और कोई हिसाब नहीं पैदा करते हैं। यह सिस्टम की विफलता नहीं है. यही व्यवस्था है.


जब एआई मारता है तो दोषी कौन है?

हमें उस तर्क के लिए केवल एल्गोरिदम को दोष देने के प्रलोभन से बचना चाहिए जो बच्चों को स्वीकार्य त्रुटि दर में बनाता है। जुलाई 2014 में, बकर परिवार के चार लड़के – इस्माइल, ज़कारिया, अहेद और मोहम्मद, जिनकी उम्र नौ से 11 वर्ष थी – गाजा के एक समुद्र तट पर मारे गए थे। कोई एआई शामिल नहीं था. इस स्थल को हमास नौसैनिक परिसर के रूप में पूर्व वर्गीकृत किया गया था। लड़कों को संदिग्ध के रूप में चिह्नित किया गया था क्योंकि वे भागते थे, फिर चलते थे – व्यवहार जो ध्यान आकर्षित न करने की कोशिश करने वाले सेनानियों के लिए लक्ष्यीकरण टेम्पलेट से मेल खाता था। जब पहली मिसाइल गिरी, तो बचे हुए बच्चे भाग गए। ड्रोन ने उनका पीछा किया और फिर से गोलीबारी की। एक अधिकारी ने बाद में गवाही दी कि ऊर्ध्वाधर हवाई दृश्य से, बच्चों की पहचान करना बहुत कठिन है। हमले को लक्ष्यीकरण त्रुटि के रूप में दर्ज किया गया था।

गार्जियन, +972 मैगज़ीन और लोकल कॉल द्वारा समीक्षा किए गए एक वर्गीकृत इज़राइली सैन्य डेटाबेस ने संकेत दिया कि गाजा में दर्ज की गई 53,000 से अधिक मौतों में से हमास और इस्लामिक जिहाद सेनानियों का नाम लगभग 17% था। इससे पता चलता है कि बाकी, 83%, नागरिक थे। ये सटीकता से लड़े गए युद्ध के आँकड़े नहीं हैं, ये एक ऐसा युद्ध है जहाँ अचूकता ही लक्ष्य है। (आईडीएफ ने गार्जियन लेख में प्रस्तुत आंकड़ों पर विवाद किया, हालांकि उन्होंने यह नहीं बताया कि कौन से आंकड़े हैं।)

मोहम्मद बक्र और उनकी पत्नी सलवा, अपने एक बच्चे के साथ। उन्होंने 2014 में गाजा सिटी के समुद्र तट पर हवाई हमले के दौरान अपने 11 वर्षीय बेटे मोहम्मद को खो दिया था। फ़ोटोग्राफ़: सीन स्मिथ/द गार्जियन

इसलिए एआई लक्ष्यीकरण प्रणालियों ने इस तर्क का आविष्कार नहीं किया। उन्हें यह विरासत में मिला, उन्होंने इसे लाखों डेटा बिंदुओं पर एनकोड किया और इसे किसी भी सार्थक मानवीय जांच से परे स्वचालित कर दिया। जब मिनाब में एक स्कूल को डेटाबेस में एक सैन्य परिसर के रूप में वर्गीकृत किया जाता है, तो यह कोई खराबी नहीं है। यह कोहरे की प्रक्रिया है, वही तर्क है जिसने गाजा में एक समुद्र तट पर चार लड़कों का पीछा किया – बिल्कुल डिजाइन के अनुसार, एक अलग पैमाने पर, एक अलग देश में, एक अलग हथियार के साथ दौड़ रहे थे। अंधेरे के पास अब बेहतर हार्डवेयर है।

इनमें से कई एआई सिस्टम स्वाभाविक रूप से अंतरराष्ट्रीय मानवीय कानून की अवहेलना करते हैं, जो केवल सैन्य अभियानों से सही परिणामों की मांग नहीं करता है; इन्हें क्रियान्वित करने से पहले एक सावधानीपूर्वक प्रक्रिया की आवश्यकता होती है। एक कमांडर को यह सत्यापित करने के लिए हर उचित प्रयास करना चाहिए कि कोई लक्ष्य एक वैध सैन्य उद्देश्य है। कानून में यह भी आवश्यक है कि नागरिकों को हमले के प्रभावों से बचाने के लिए हर संभव प्रयास किया जाए, बाद में विचार के रूप में नहीं, बल्कि एक समानांतर और समान दायित्व के रूप में।

यह दायित्व उस प्रणाली को नहीं सौंपा जा सकता जिसका तर्क अपारदर्शी है और जिसके आउटपुट पर वास्तविक समय में पूछताछ नहीं की जा सकती। गाजा में, एक एल्गोरिदम ने पट्टी में प्रत्येक व्यक्ति पर डेटा संसाधित किया – फोन रिकॉर्ड, आंदोलन पैटर्न, सामाजिक कनेक्शन, व्यवहार संकेत – और नामों की एक रैंक सूची तैयार की, प्रत्येक को एक संभाव्यता स्कोर सौंपा गया जो इस संभावना को दर्शाता है कि वे एक लड़ाकू थे। यह वैसा नहीं है जैसे कोई मानव विश्लेषक किसी ज्ञात आतंकवादी की पहचान करता है और उन पर हमला करने के लिए एक हथियार की प्रोग्रामिंग करता है। एआई पहचान की पुष्टि नहीं कर रहा था। यह, सांख्यिकीय रूप से, पूरी आबादी में उनका अनुमान लगा रहा था, ऐसे लक्ष्य तैयार कर रहा था जिनका सूची में आने से पहले किसी भी इंसान ने व्यक्तिगत रूप से मूल्यांकन नहीं किया था।

इस प्रणाली में सत्यापन का मतलब है कि एक मानव ऑपरेटर औसतन लगभग 20 सेकंड के लिए प्रत्येक नाम की समीक्षा करता है, जो यह पुष्टि करने के लिए पर्याप्त है कि लक्ष्य पुरुष था। फिर उन्होंने हस्ताक्षर कर दिए. युद्ध के पहले हफ्तों में अकेले एक प्रणाली ने 37,000 से अधिक लक्ष्य तैयार किये। दूसरा प्रति दिन 100 संभावित बमबारी स्थल बनाने में सक्षम था। लूप में मौजूद मनुष्य निर्णय नहीं ले रहे थे। वे एक कतार का प्रबंधन कर रहे थे.

ईरान में, इस समय, तस्वीर पूरी तरह से कम प्रलेखित है। लेकिन पैमाना अपनी कहानी खुद कहता है। दो स्रोतों ने एनबीसी न्यूज को पुष्टि की कि पलान्टिर के एआई सिस्टम, जो बड़े भाषा मॉडल प्रौद्योगिकी पर आधारित हैं, का उपयोग लक्ष्यों की पहचान करने के लिए किया गया था। (सीएनबीसी पर इस बारे में पूछे जाने पर पलान्टिर के सीईओ, एलेक्स कार्प ने कहा कि वह “विवरण में नहीं जा सकते”, लेकिन उन्होंने कहा कि क्लाउड अभी भी ईरान युद्ध में इस्तेमाल किए गए पलान्टिर के सिस्टम में एकीकृत था।) यूएस सेंट्रल कमांड के प्रमुख ब्रैड कूपर ने दावा किया है कि सेना ईरान में एआई का उपयोग “सेकंड में बड़ी मात्रा में डेटा को छानने” के लिए कर रही है। “दुश्मन जितनी तेजी से प्रतिक्रिया दे सके, उससे कहीं अधिक तेजी से बेहतर निर्णय लें।” चाहे हर हमला एआई-समर्थित था या नहीं, अभियान की गति केवल इसलिए संभव थी क्योंकि लक्ष्यीकरण काफी हद तक स्वचालित हो गया था।

जब एआई-सहायता प्राप्त लक्ष्यों के लिए रिपोर्ट किए गए सत्यापन समय को सेकंड में मापा जाता है, तो हम एल्गोरिथम सहायता के साथ मानव निर्णय के बारे में बात नहीं कर रहे हैं। हम एक मशीन के आउटपुट पर रबर-स्टैम्पिंग के बारे में बात कर रहे हैं। और जब उस मशीन का डेटा एक दशक पुराना हो जाता है, तो परिणाम छोटे ताबूतों की पंक्तियों में लिखे जाते हैं।

इसमें फंसी कंपनियां अस्पष्ट रक्षा स्टार्टअप नहीं हैं। पलान्टिर, जिसकी स्थापना शुरुआती सीआईए फंडिंग से हुई थी और अब अमेरिकी सेना के लिए प्राथमिक एआई बुनियादी ढांचा प्रदाताओं में से एक है, ने ईरान अभियान में उपयोग की जाने वाली प्रणालियों की आपूर्ति की। वे सिस्टम कुछ हद तक एंथ्रोपिक के क्लाउड पर आधारित हैं, जो एक बड़ा भाषा मॉडल है, जिसकी मूल कंपनी ने लक्ष्यीकरण के लिए इसके उपयोग पर नैतिक बाधाओं को हटाने के लिए पेंटागन के दबाव का विरोध करने का प्रयास किया था। पेंटागन ने संबंधों में कटौती की धमकी देकर और इसके बजाय ओपनएआई और अन्य की ओर रुख करके प्रतिक्रिया व्यक्त की। बड़े पैमाने पर हत्या के बाज़ार में आपूर्तिकर्ताओं की कमी नहीं है।

यह प्रकरण शिक्षाप्रद है: एक कंपनी जिसने एक रेखा खींचने की कोशिश की थी उसे किनारे कर दिया गया और हत्याएं बिना किसी रुकावट के जारी रहीं। Google ने, महत्वपूर्ण आंतरिक कर्मचारी विरोध के बावजूद, इज़राइली सरकार और सेना के साथ $1 बिलियन से अधिक मूल्य के क्लाउड-कंप्यूटिंग और AI अनुबंध, प्रोजेक्ट निंबस पर हस्ताक्षर किए।

अमेज़ॅन, Google के साथ प्रोजेक्ट निंबस का सह-हस्ताक्षरकर्ता है। 2024 में दबाव में आंशिक रूप से पीछे हटने से पहले माइक्रोसॉफ्ट का इजरायली सैन्य प्रणालियों के साथ गहरा एकीकरण था, जिस बिंदु पर डेटा कुछ ही दिनों में अमेज़ॅन वेब सेवाओं में स्थानांतरित हो गया।

एंडुरिल, जिसकी स्थापना पामर लक्की द्वारा की गई थी और जिसमें पूर्व अमेरिकी रक्षा अधिकारियों के साथ भारी स्टाफ था, स्वायत्त हथियार प्रणालियों का निर्माण करता है जो स्पष्ट रूप से घातक लक्ष्यीकरण के लिए डिज़ाइन किए गए हैं। ओपनएआई, जिसने हाल तक अपनी सेवा की शर्तों में सैन्य उपयोग पर प्रतिबंध लगाया था, ने 2024 की शुरुआत में चुपचाप उस प्रतिबंध को हटा दिया और तब से पेंटागन अनुबंधों को आगे बढ़ाया है। ये दुनिया की सबसे मूल्यवान कंपनियों में से एक हैं, जिनके उपभोक्ता उत्पाद करोड़ों लोगों द्वारा उपयोग किए जाते हैं, विश्वविद्यालय अनुसंधान भागीदारी और वाशिंगटन, ब्रुसेल्स और उससे आगे में महत्वपूर्ण राजनीतिक प्रभाव है।

निःसंदेह निजी कंपनियों ने सदियों से सेनाओं को रेडियो, ट्रक, सैटेलाइट नेविगेशन, माइक्रोवेव तकनीक और निश्चित रूप से जटिल हथियार प्रणालियों की आपूर्ति की है। यह नया या स्वाभाविक रूप से भ्रष्ट नहीं है। “दोहरे उपयोग” की समस्या औद्योगीकरण जितनी ही पुरानी है: लगभग किसी भी शक्तिशाली तकनीक का उपयोग सैन्य उद्देश्यों के लिए किया जा सकता है।

लेकिन एआई लक्ष्यीकरण केवल एक घटक नहीं है जिसे सेनाएं अपने अभियानों में शामिल करती हैं। यह निर्णय की वास्तुकला ही है – वह चीज जो निर्धारित करती है कि कौन मारा जाता है और क्यों। जब एक प्रणाली इतने समय में हजारों लक्ष्य उत्पन्न कर सकती है कि 10 को सत्यापित करने के लिए एक मानव खुफिया टीम की आवश्यकता होगी, तो सवाल यह नहीं है कि क्या निजी कंपनियों को सेना की आपूर्ति करनी चाहिए। यह है कि क्या कोई कानूनी ढांचा इसके संपर्क में रह सकता है।

अंतर्राष्ट्रीय कानून में हम जवाबदेही ढाँचे के बारे में बात करते हैं: जवाबदेही की श्रृंखला जो घातक बल का उपयोग करने के निर्णय से लेकर उस व्यक्ति तक चलती है जिसने इसे अधिकृत किया है। जवाबदेही ढांचे के लिए आवश्यक है कि किसी को निर्णय-निर्माता के रूप में पहचाना जा सके, तथ्य के बाद उनके तर्क को फिर से तैयार किया जा सके, और कानून द्वारा अपेक्षित प्रक्रिया दायित्वों – आनुपातिकता मूल्यांकन, सत्यापन, सावधानी – का पालन किया जाना दिखाया जा सके।

एआई लक्ष्यीकरण इनमें से प्रत्येक स्थिति को व्यवस्थित रूप से नष्ट कर देता है। एट्रिब्यूशन इंजीनियरों, कमांडरों, ऑपरेटरों और कॉर्पोरेट आपूर्तिकर्ताओं की एक श्रृंखला में घुल जाता है, जिनमें से प्रत्येक दूसरे को इंगित कर सकता है। तर्क संभाव्यता स्कोर में गायब हो जाता है जिसका कोई भी वकील ऑडिट नहीं कर सकता है और कोई भी अदालत जिरह नहीं कर सकती है। मशीन अनुशंसा के 20 सेकंड के अनुमोदन में प्रक्रिया समाप्त हो जाती है। और जिन कंपनियों ने सिस्टम बनाया और बेचा, वे पूरी तरह से कानूनी ढांचे से बाहर हैं, क्योंकि अंतर्राष्ट्रीय मानवीय कानून राज्यों और उनके एजेंटों के लिए डिज़ाइन किया गया था, और पलान्टिर जिनेवा सम्मेलनों के लिए हस्ताक्षरकर्ता नहीं है।

जवाबदेही ढांचे को केवल एआई युद्ध द्वारा तनावपूर्ण या परीक्षण नहीं किया गया है। इसे संरचनात्मक रूप से अप्रासंगिक बना दिया गया है।


युद्ध का कोहरा हटाना

हमें इन प्रौद्योगिकी कंपनियों को रक्षा ठेकेदार कहना बंद कर देना चाहिए और उन्हें वही कहना शुरू करना चाहिए जो वे हैं: रक्षा ठेकेदार।

सबसे बड़ी एआई कंपनियां तटस्थ बुनियादी ढांचा प्रदाता नहीं हैं जिन्हें सैन्य ग्राहक मिल गया हो। उन्हें आधुनिक युद्ध की लक्षित वास्तुकला में एकीकृत किया जा रहा है। उनके सिस्टम किल चेन के अंदर बैठे हैं, उनके इंजीनियरों के पास सुरक्षा मंजूरी है, उनके अधिकारी उसी घूमने वाले दरवाजे से घूमते हैं जो हमेशा सिलिकॉन वैली को पेंटागन से जोड़ता है।

ये एआई प्रदाता सैन्य-औद्योगिक परिसर में अग्रणी हैं, और इन्हें इसी तरह विनियमित किया जाना चाहिए। रेथियॉन और लॉकहीड मार्टिन जैसी कंपनियों पर एक स्पष्ट जवाबदेही श्रृंखला लागू होती है – जिसमें निर्यात नियंत्रण, कांग्रेस की निगरानी, ​​दायित्व ढांचे और खरीद की शर्तें शामिल हैं – जबकि कमजोर नियम जो सैन्य लक्ष्यों का चयन करने वाले एल्गोरिदम लिखने वाली कंपनियों पर लागू होते हैं, उन्हें कभी भी लागू, परीक्षण या लागू नहीं किया गया है।

14 जुलाई 2025 को कैलिफोर्निया के पालो ऑल्टो में आईसीई निर्वासन और इज़राइल-गाजा युद्ध में पलान्टिर की भूमिका का विरोध करने के लिए प्रदर्शनकारी पलान्टिर कार्यालय के बाहर इकट्ठा हुए। फ़ोटोग्राफ़: अनादोलु/गेटी इमेजेज़

यह कोई भूल नहीं है. यह एक विकल्प है, जिसे लॉबिंग द्वारा सक्रिय रूप से बनाए रखा गया है, “वाणिज्यिक” और “रक्षा” उत्पादों को जानबूझकर धुंधला कर दिया गया है, और एक नियामक संस्कृति द्वारा जो अभी भी एआई को एक उपभोक्ता तकनीक के रूप में मानती है जो युद्ध के मैदान में अपना रास्ता खोजने के लिए हुई है। पलान्टिर ने 2024 में वाशिंगटन की पैरवी में करीब 6 मिलियन डॉलर खर्च किए, और 2023 की एक तिमाही में नॉर्थ्रॉप ग्रुम्मन से भी अधिक खर्च किया। इसने अपने द्वारा संचालित नीतिगत माहौल को आकार देने के लिए एक समर्पित फाउंडेशन लॉन्च किया। पलान्टिर, एंडुरिल, ओपनएआई, स्पेसएक्स और स्केल एआई के कंसोर्टियम को इसके अपने प्रतिभागियों द्वारा अमेरिकी सरकार को नई पीढ़ी के रक्षा ठेकेदारों की आपूर्ति करने की परियोजना के रूप में वर्णित किया गया था। इन कंपनियों का समर्थन करने वाली उद्यम पूंजी फर्म, आंद्रेसेन होरोविट्ज़ और फाउंडर्स फंड, ने सत्ता से निकटता के माध्यम से प्रभाव पैदा किया है: उनके सलाहकार बोर्डों पर पूर्व वरिष्ठ अधिकारी, सरकारी भूमिकाओं के माध्यम से घूमने वाले भागीदार और नीति निर्माताओं तक सीधी पहुंच जो यह निर्धारित करते हैं कि पेंटागन कितना और किस पर खर्च करता है।

ईयू एआई अधिनियम, कृत्रिम बुद्धिमत्ता को नियंत्रित करने का अब तक का सबसे महत्वाकांक्षी प्रयास, सैन्य और राष्ट्रीय सुरक्षा अनुप्रयोगों को स्पष्ट रूप से छूट देता है, इस औचित्य के साथ कि अंतर्राष्ट्रीय मानवीय कानून अधिक उपयुक्त ढांचा है। यह चक्रीयता का एक उल्लेखनीय कार्य है: इन प्रणालियों द्वारा व्यवस्थित रूप से नष्ट किए जा रहे कानून के एक निकाय को उनके नियामक के रूप में नामित किया गया है, जबकि नियामक जो वास्तव में उन्हें बाधित कर सकते हैं वे दूर देखते हैं।

संयुक्त राज्य अमेरिका में, 2025 राष्ट्रीय रक्षा प्राधिकरण अधिनियम के एआई प्रावधान सैन्य एआई को विनियमित नहीं करते हैं। वे एजेंसियों को इसे और अधिक अपनाने का निर्देश देते हैं। जनवरी 2026 में जारी पीट हेगसेथ की एआई रणनीति, प्रश्न को पूरी तरह से एक दौड़ के रूप में प्रस्तुत करती है, पेंटागन को युद्धकालीन गति से आगे बढ़ने का निर्देश देती है, जिसमें एआई पहला साबित मैदान है। नियामक संस्कृति प्रौद्योगिकी के साथ तालमेल बिठाने में असफल नहीं हुई है। इसने, जानबूझकर, प्रयास न करने का निर्णय लिया है।

अब तक, एआई सैन्य क्षमता में एकमात्र गंभीर सरकारी हस्तक्षेप जो हमने देखा है वह किसी राज्य द्वारा संयम या जवाबदेही की मांग करने से नहीं आया है, बल्कि अमेरिका द्वारा सिस्टम को और अधिक घातक बनाने की मांग से आया है। यही महत्वाकांक्षा का क्षितिज है जिसे हमने स्वीकार कर लिया है।

इन प्रणालियों पर पूरी तरह से प्रतिबंध लगाना असंभव है जब इसमें शामिल कई कलाकार अंतरराष्ट्रीय कानून के बारे में बहुत कम परवाह करते हैं। लेकिन दबाव बिंदु बने हुए हैं, और वे वास्तविक हैं। वाशिंगटन में कोई भी भावी सरकार जो मिनाबों की अंतहीन श्रृंखला तैयार किए बिना एआई सैन्य क्षमता का उपयोग करना चाहती है, उसे एक नियामक ढांचे की आवश्यकता होगी – आलोचकों के लिए रियायत के रूप में नहीं बल्कि एक दुष्ट अभिनेता न बनने के लिए एक बुनियादी आवश्यकता के रूप में। यूरोप में भी यही सच है, जहां ब्रिटेन ने सभी डोमेन में सेंसर और स्ट्राइक क्षमताओं को जोड़ने वाले एक नए एआई-एकीकृत लक्ष्यीकरण प्रणाली के लिए £ 1 बिलियन से अधिक की प्रतिबद्धता जताई है, और जहां फ्रांस की अग्रणी एआई कंपनी ने स्वायत्त हथियार प्लेटफॉर्म बनाने के लिए एक जर्मन रक्षा स्टार्टअप के साथ साझेदारी की है, और जहां जर्मनी यूक्रेन में एआई-निर्देशित हमलावर ड्रोन तैनात कर रहा है।

इन प्रणालियों को विनियमित करने का एक अवसर है। यूरोपीय संघ के पास सबसे स्पष्ट उपकरण हैं, एआई अधिनियम के माध्यम से नहीं, जो जानबूझकर सैन्य अनुप्रयोगों को छूट देता है, बल्कि वाणिज्यिक और रक्षा बाजारों के बीच चलने वाले दोहरे उपयोग प्रणालियों पर निर्यात नियंत्रण और खरीद शर्तों के माध्यम से। अंतर्राष्ट्रीय अदालतें भी दरवाजे खोलने लगी हैं: फिलिस्तीनी अधिकारों पर आईसीजे की सलाहकार राय ने एक रूपरेखा तैयार की है जिसमें गैरकानूनी हमलों में इस्तेमाल की जाने वाली प्रणालियों की आपूर्ति करने वाली कंपनियों को उन न्यायक्षेत्रों में संभावित दायित्व जोखिम का सामना करना पड़ता है जो अंतरराष्ट्रीय कानून को गंभीरता से लेते हैं। और एआई फर्मों को सरकारों की जरूरत है, न केवल ग्राहकों के रूप में बल्कि कंप्यूटिंग शक्ति, ऊर्जा और भौतिक बुनियादी ढांचे के प्रदाताओं के रूप में जिनकी सीमांत एआई को आवश्यकता होती है और कोई भी कंपनी अकेले वाणिज्यिक राजस्व से कायम नहीं रह सकती है। यह निर्भरता उन राज्यों को उन कंपनियों पर वास्तविक लाभ उठाने के लिए तैयार करती है जो विनियमित नहीं होना पसंद करेंगे। सवाल यह है कि क्या कार्य करने के साधनों वाली कोई भी सरकार अगले मिनब से पहले यह निर्णय लेगी कि निष्क्रियता की कीमत बहुत अधिक हो गई है।

जो विनियमन दिखना चाहिए वह अपेक्षाकृत सरल है, भले ही इसे लागू करना कठिन हो। लक्ष्यीकरण में उपयोग किए जाने वाले एआई सिस्टम को समझाने योग्य होना चाहिए – संभाव्यता स्कोर के माध्यम से नहीं बल्कि इस तर्क के साथ कि एक वकील ऑडिट कर सकता है। एआई-सहायता प्राप्त अभियानों की संचयी नागरिक लागत का समग्र रूप से मूल्यांकन किया जाना चाहिए। और ऑपरेटर पर रुकने वाली देनदारी को उन कंपनियों तक आपूर्ति श्रृंखला का विस्तार करना चाहिए जिन्होंने जानबूझकर सशस्त्र संघर्ष में उपयोग के लिए अपारदर्शी सिस्टम बनाए और बेचे। ये नई मांगें नहीं हैं। एल्गोरिथम लक्ष्यीकरण के युग में युद्ध के कानूनों के लिए कुछ भी मायने रखने के लिए वे न्यूनतम शर्तें हैं।

इस बीच, कोहरे की प्रक्रिया चालू है और युद्ध के भविष्य को परिभाषित करने के लिए आ रही है। लेकिन अंधेरे में गोली चलाने वाले सैनिक कम से कम उसमें मौजूद तो थे. जिन कंपनियों ने उनके स्थान पर जो निर्माण किया था, वे इसे पालो अल्टो से कर रहे हैं, बिना किसी व्यक्तिगत जोखिम के, बिना किसी कानूनी जोखिम के, और इसे दोबारा करने के लिए हर प्रोत्साहन के साथ।

  • अवनेर ग्वार्याहू ऑक्सफोर्ड विश्वविद्यालय के ब्लावाटनिक स्कूल ऑफ गवर्नमेंट में डीफिल शोधकर्ता हैं। वह पूर्व सैनिकों के इजरायली मानवाधिकार संगठन, ब्रेकिंग द साइलेंस के पूर्व कार्यकारी निदेशक हैं