
लास वेगास में कंज्यूमर इलेक्ट्रॉनिक्स शो (सीईएस) में प्रदर्शित एआई लाइफ के ह्यूमनॉइड रोबोट के साथ एक व्यक्ति बातचीत कर रहा है।
फ़्रेडेरिक जे. ब्राउन/गेटी इमेजेज़
कैप्शन छुपाएं
कैप्शन टॉगल करें
फ़्रेडेरिक जे. ब्राउन/गेटी इमेजेज़
ओहियो के एक व्यक्ति को साइबर अपराधों के लिए दोषी ठहराया गया है, जिसमें संघीय 2025 टेक इट डाउन एक्ट के तहत पहली बार ऐतिहासिक रूप से अपमानजनक यौन गतिविधियों को दर्शाने वाली एआई-जनित छवियों का प्रकाशन भी शामिल है। लेकिन विशेषज्ञों ने चेतावनी दी है कि इन मामलों पर मुकदमा चलाना कठिन होता जा रहा है।
ओहियो के दक्षिणी जिले में अमेरिकी अटॉर्नी कार्यालय के अनुसार, 37 वर्षीय जेम्स स्ट्राहलर ने साइबरस्टॉकिंग, बाल यौन शोषण के अश्लील दृश्य प्रस्तुतीकरण और डिजिटल जालसाजी के प्रकाशन के लिए दोषी ठहराया – अपराध जिसमें वास्तविक और एआई-जनरेटेड दोनों छवियां शामिल थीं।
टेक इट डाउन एक्ट गैर-सहमति वाली, अंतरंग डिजिटल सामग्री प्रकाशित करना गैरकानूनी बनाता है।
न्याय विभाग के अनुसार, स्ट्राहलर ने बाल यौन शोषण सामग्री के लिए समर्पित वेबसाइट पर पोस्ट करने के लिए 700 से अधिक अवैध छवियां बनाने के लिए अपने फोन पर दर्जनों एआई प्लेटफार्मों और 100 से अधिक एआई वेब-आधारित मॉडल का उपयोग किया।
अदालत के रिकॉर्ड के अनुसार, स्ट्राहलर को तब पकड़ा गया जब उसके एक वयस्क पीड़ित ने धमकी भरे और परेशान करने वाले संदेश प्राप्त होने की सूचना दी।
अदालत के रिकॉर्ड यह भी बताते हैं कि स्ट्राहलर ने हिंसक कॉल और संदेशों के पीछे अपना हाथ होने की बात स्वीकार की है। उसके जब्त किए गए फोन से निकाली गई जानकारी से अतिरिक्त पीड़ितों और उसके एआई दुरुपयोग की सीमा का पता चला।
बड़े भुगतान के लिए छोटे जोखिम
कोलिना कोल्टाई बेलिंगकैट – एक खोजी पत्रकारिता समूह – में एक वरिष्ठ शोधकर्ता हैं, जो एआई तकनीक में विशेषज्ञ हैं।
उन्होंने कहा कि स्ट्राहलर द्वारा बनाई गई सामग्री की विशाल मात्रा इस प्रकार के अपराधियों के लिए असामान्य नहीं है, और यह उस चीज़ का हिस्सा है जो कानून प्रवर्तन के लिए इसे प्रबंधित करना इतना कठिन बना देती है।
कोलताई ने कहा, “यहां तक कि जब हम एआई तकनीक के शुरुआती दिनों के बारे में सोचते हैं, तो लोगों को यह सीखना होगा कि स्थानीय स्तर पर अपने उपकरणों पर कुछ कैसे स्थापित या होस्ट किया जाए।”
“लेकिन आजकल, आप एक वेब डोमेन पर भी जा सकते हैं और एक प्रॉम्प्ट डाल सकते हैं, और सामग्री बनाना शुरू करने में सक्षम होने के लिए आपके पास बहुत कम तकनीकी ज्ञान होना चाहिए। यह एक बड़ी चुनौती है क्योंकि इसमें भारी मात्रा में सामग्री है।”
कोल्टाई ने फ़ोटोशॉप जैसे पुराने संपादन कार्यक्रमों का हवाला दिया – एक महंगा ग्राफिक डिज़ाइन सॉफ़्टवेयर जिसने शुरुआती शौकिया छवि इंजीनियरिंग का नेतृत्व किया और यथार्थवादी संपादन करने के लिए कुछ हद तक कौशल की आवश्यकता थी।
“आजकल,” हालांकि, उन्होंने कहा, “एक डॉलर या कभी-कभी इससे भी सस्ते में, आप इंटरनेट पर किसी की भी तस्वीर ले सकते हैं और उसे ‘न्यूडिफ़ायर’ या किसी प्रकार के एआई-जेनरेशन प्लेटफ़ॉर्म में डाल सकते हैं और उस व्यक्ति के चेहरे के आधार पर भी एक नई छवि बना सकते हैं।”
डीपफेक सामग्री बनाने के लिए समर्पित प्लेटफार्मों की भारी संख्या इन साइबर अपराधियों की तलाश करते समय कानून प्रवर्तन की परेशानियों को भी बढ़ा रही है।
कोल्टाई ने कहा, “अक्सर यह जानना अविश्वसनीय रूप से अविश्वसनीय रूप से कठिन होता है कि व्यक्ति किस तकनीक, किस सेवा, किस प्लेटफ़ॉर्म का उपयोग कर रहा है … जब तक कि हमें उनके डिवाइस या उनके ब्राउज़र इतिहास तक पहुंच न मिल जाए।”
“ऐसा नहीं है कि केवल दो या तीन प्रदाता हैं। हर कोई इस खेल में आने की कोशिश कर रहा है क्योंकि यह एक करोड़ों डॉलर का उद्योग है,” उन्होंने कहा, ऑफ़लाइन होने से बचने के लिए साइटें अक्सर अलग-अलग एक्सटेंशन (डॉट कॉम, डॉट आईओ, आदि) के तहत कई डोमेन खरीदती हैं।
उन्होंने कहा, “यहां तक कि हमारी जांच साइट के लिए भी, जब हम किसी साइट को बंद कर देते हैं, जो बहुत अच्छा है, दुर्भाग्य से, यह एक तरह की हाइड्रा है, जहां अभी भी कई अन्य सेवाएं उस दूसरी की जगह लेने को तैयार हैं।” “जब तक हम इन प्लेटफार्मों का उपयोग करना कठिन नहीं बना देते, तब तक इसे हल करना एक कठिन समस्या है।”
डीपफेक और युवा लोग
डीपफेक न्यूड से संबंधित मामलों को संभालने वाले एक वकील मैथ्यू फरांडा-डिड्रिच ने कहा कि एआई का अस्पष्ट से मुख्यधारा की तकनीक में परिवर्तन कानून की अनुकूलन क्षमता की तुलना में तेजी से हुआ।
उन्होंने कहा, “हमने दो साल पहले इसके बारे में कभी नहीं सुना था, इस तरह का कोई मामला नहीं देखा था और अब दुर्भाग्यवश, किसी एक समय में इनमें से पांच या छह मामले सामने आ रहे हैं।”
फरांडा-डिड्रिच ने कहा कि वह पुलिस के साथ मिलकर काम करते हैं ताकि उन्हें तेजी से विकसित हो रही तकनीक को समझने में मदद मिल सके और संभावित अवैध व्यवहार की जांच में उनका समर्थन किया जा सके।
लेकिन पुलिस और नागरिकों के लिए समान रूप से, उन्होंने कहा, यह समझने में अक्सर सीखने की अवस्था होती है कि इनमें से कई ऐप छवियों को अनुचित तरीके से हेरफेर करने में कितने परिष्कृत हो सकते हैं।
“वे उस समय के बारे में सोचेंगे जब वे युवा थे या अन्य पीढ़ी के थे और कहते थे, ‘ओह, यह फ़ोटोशॉप की तरह है,’ और उनके दिमाग में यह विचार है कि आप आसानी से बता सकते हैं कि छेड़छाड़ की गई छवि नकली है। लेकिन वास्तव में ‘न्यूडिफाई’ ऐप्स द्वारा निर्मित छवियां बहुत वास्तविक दिखती हैं और फ़ोटोशॉप की गई छवि की तरह कुछ भी नहीं हैं।”
“आइए इसे वही कहें जो यह है”
शोध से पता चलता है कि गैर-सहमति वाले डीपफेक का वितरण एक बहु-पीढ़ीगत समस्या है, लेकिन यह विशेष रूप से युवा लोगों में व्याप्त है।
और महिलाएं और लड़कियाँ विशेष रूप से जोखिम में हैं, जो इन अपराधों के अनुमानित 90% पीड़ितों का प्रतिनिधित्व करती हैं।
फरांडा-डिड्रिच ने कहा कि ज्यादातर मामलों में, जिनमें वह शामिल रहा है, अपराध के पीड़ित और अपराधी दोनों बच्चे रहे हैं, जिनकी उम्र 14 से 16 साल के बीच है।
उन्होंने कहा, “आप उन्हें इसके खतरों और इससे होने वाले नुकसान के बारे में शिक्षित करने की कोशिश करना चाहते हैं ताकि बच्चे ‘मूर्ख’ निर्णय न लें जो वास्तव में लोगों को इतना विनाशकारी नुकसान पहुंचाते हैं।”
उन्होंने कहा, और स्कूलों की एक बड़ी जिम्मेदारी है कि वे इन प्रौद्योगिकियों के दुरुपयोग के पहले संकेत पर इसमें शामिल हों।
फरांडा-डाइडरिच ने कहा, “आइए इसे वही कहें जो यह है: यह बच्चों की अश्लीलता है।” “और मुझे नहीं लगता कि कोई भी स्कूल प्रशासक कभी कहेगा, ‘ओह, अगर मुझे पता होता [child sexual abuse material]मैं पुलिस को नहीं बुलाऊंगा।’ अवश्य वे ऐसा करेंगे। और उन्हें वही कॉल यहां करने और इसे कानून प्रवर्तन के हाथों में जल्दी पहुंचाने की जरूरत है।”





