यूरोपीय संसद ने उस कानून के विस्तार को रोक दिया है जो बड़ी तकनीकी कंपनियों को अपने प्लेटफार्मों पर बाल यौन शोषण को स्कैन करने की अनुमति देता है, जिससे एक कानूनी अंतर पैदा हो जाता है जिसके बारे में बाल सुरक्षा विशेषज्ञों का कहना है कि इससे अपराध सामने नहीं आ पाएंगे।
कानून, जो ईयू गोपनीयता अधिनियम का एक रूप था, 2021 में एक अस्थायी उपाय के रूप में लागू किया गया था, जिससे कंपनियों को बाल यौन शोषण सामग्री (सीएसएएम), सौंदर्य और सेक्सटॉर्शन सहित नुकसान के लिए संदेशों को स्कैन करने के लिए स्वचालित पहचान तकनीकों का उपयोग करने की अनुमति मिली। हालाँकि, यह 3 अप्रैल को समाप्त हो गया, और कुछ सांसदों की गोपनीयता चिंताओं के बीच, यूरोपीय संघ संसद ने इसे बढ़ाने के लिए मतदान नहीं करने का फैसला किया।
विनियामक अंतर ने बड़ी तकनीकी कंपनियों के लिए अनिश्चितता पैदा कर दी है, क्योंकि उनके प्लेटफार्मों पर नुकसान के लिए स्कैन करना अब अवैध है, फिर भी वे एक अलग कानून, डिजिटल सेवा अधिनियम के तहत अपने प्लेटफार्मों पर होस्ट की गई किसी भी अवैध सामग्री को हटाने के लिए उत्तरदायी हैं। Google, मेटा, स्नैप और Microsoft ने Google ब्लॉग पर पोस्ट किए गए एक संयुक्त बयान में कहा कि वे स्वेच्छा से CSAM के लिए अपने प्लेटफ़ॉर्म को स्कैन करना जारी रखेंगे।
बयान में कहा गया, “बच्चों की ऑनलाइन सुरक्षा के लिए स्थापित प्रयासों को बनाए रखने के लिए एक समझौते पर पहुंचने में इस गैरजिम्मेदाराना विफलता से हम निराश हैं।”
यूरोपीय संसद ने एक बयान में कहा कि वह ऑनलाइन बाल यौन शोषण को रोकने और उससे निपटने के लिए कानून पर अपने काम को प्राथमिकता दे रही है, और एक स्थायी कानूनी ढांचे पर बातचीत चल रही है, हालांकि निकाय ने समझौतों या कार्यान्वयन के लिए कोई समयसीमा नहीं दी है।
बाल संरक्षण अधिवक्ताओं ने चेतावनी दी थी कि कानून को समाप्त होने की अनुमति देने से संभवतः बाल यौन शोषण की रिपोर्टों में भारी गिरावट आएगी। वे 2021 में हुए एक समान कानूनी अंतर की ओर इशारा करते हैं, जब ईयू-आधारित खातों से नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन (एनसीएमईसी) को ऐसी सामग्री की रिपोर्ट 18 सप्ताह की अवधि में 58% तक गिर गई थी।
एनसीएमईसी के उपाध्यक्ष जॉन शेहान ने कहा, ”जब पता लगाने वाले उपकरण बाधित हो जाते हैं, तो हम दृश्यता खो देते हैं, जिसका सीधा असर बाल यौन शोषण पीड़ितों को खोजने और उनकी सुरक्षा करने की हमारी क्षमता पर पड़ता है।” एनसीएमईसी एक अमेरिकी-आधारित संगठन है, जो बाल दुर्व्यवहार की रिपोर्टों के लिए क्लीयरिंग हाउस के रूप में कार्य करता है और इसे दुनिया भर में संबंधित कानून प्रवर्तन एजेंसियों को भेजता है। “जब पता नहीं चलता, तो दुरुपयोग नहीं रुकता।”
2025 में, एनसीएमईसी को 21.3 मिलियन रिपोर्टें प्राप्त हुईं, जिनमें दुनिया भर से 61.8 मिलियन से अधिक छवियां, वीडियो और बाल दुर्व्यवहार से संबंधित होने का संदेह वाली अन्य फ़ाइलें शामिल थीं। इनमें से लगभग 90% रिपोर्टें अमेरिका के बाहर के देशों से संबंधित हैं।
यूरोपीय संघ संसद के एक प्रवक्ता ने इस पर टिप्पणी करने से इनकार कर दिया कि क्या विधायी निकाय ने कानून के ख़त्म होने के परिणामों को निर्धारित करने के लिए कोई आकलन किया था।
बाल सुरक्षा विशेषज्ञों ने कहा कि स्कैनिंग पर रोक लगाने के यूरोपीय संघ के फैसले का दुनिया भर के अन्य क्षेत्रों पर व्यापक प्रभाव पड़ेगा। कई इंटरनेट अपराध सीमा पार होते हैं, जिनमें अपराधी लोगों को अवैध चित्र भेजते हैं या दूसरे देशों में बच्चों को निशाना बनाते हैं। शेहान ने कहा, ”सेक्सटॉर्शनिस्ट”, जो ब्लैकमेल के प्रयास करने से पहले लोगों को अंतरंग तस्वीरें भेजने के लिए रोमांटिक रुचि के रूप में पेश करते हैं, वे भी कानून में बदलाव का फायदा उठा सकते हैं।
शेहान ने कहा, “अपराधी दुनिया में कहीं भी हो सकता है, लेकिन अब यूरोप में नाबालिगों तक उनकी निर्बाध पहुंच हो सकती है, क्योंकि उन सुरक्षा उपायों और सुरक्षा के बारे में कानूनी अनिश्चितता है, जिससे यह पता चल सके कि बच्चे को कब तैयार किया जा रहा है।”
वर्षों की तनावपूर्ण बातचीत के कारण महत्वपूर्ण कानून चूक गया
ब्रिटेन स्थित बाल सुरक्षा गैर-लाभकारी संस्था, इंटरनेट वॉच फाउंडेशन में नीति और सार्वजनिक मामलों की प्रमुख हन्ना स्विरस्की ने कहा, पिछले चार वर्षों से, प्रस्तावित बाल यौन शोषण विनियमन पर बातचीत चल रही है, जिसमें विवाद पैदा हो रहा है क्योंकि यह कंपनियों को अपने प्लेटफार्मों पर जोखिमों को कम करने के लिए उपाय करने के लिए बाध्य करेगा।
गोपनीयता समर्थकों का तर्क है कि बाल दुर्व्यवहार के लिए बड़े तकनीकी स्कैनिंग संदेश यूरोपीय संघ के नागरिकों के लिए मौलिक गोपनीयता अधिकारों और डेटा सुरक्षा को खतरे में डालते हैं, इन उपायों को “चैट नियंत्रण” के समान मानते हैं जिससे बड़े पैमाने पर निगरानी और झूठी सकारात्मकता हो सकती है।
स्विर्स्की ने कहा, ”निगरानी या गोपनीयता के उल्लंघन के दावे हैं।” “सीएसएएम को अवरुद्ध करना गोपनीयता की चोरी नहीं है।” स्वतंत्र भाषण में बच्चों का यौन शोषण शामिल नहीं है।”
स्कैनिंग तकनीक मशीन लर्निंग का उपयोग करती है जो दुर्व्यवहार की ज्ञात छवियों या वीडियो के साथ-साथ बाल शोषण से जुड़ी भाषा की पहचान करने के लिए पैटर्न का पता लगाती है, और कोई डेटा संग्रहीत नहीं करती है, थॉर्न में नीति निदेशक एमिली स्लिफ़र ने कहा, एक गैर-लाभकारी संस्था जो ऑनलाइन बाल दुर्व्यवहार का पता लगाने के लिए तकनीक बनाती है, जिसका उपयोग आमतौर पर कंपनियों और कानून प्रवर्तन द्वारा किया जाता है।
सिस्टम प्रशिक्षित विश्लेषकों द्वारा बाहरी स्रोतों से प्राप्त ज्ञात सीएसएएम की समीक्षा करके काम करता है, जैसे कि पुलिस, जनता से रिपोर्ट या बाल दुर्व्यवहार सामग्री की मेजबानी के लिए जानी जाने वाली वेबसाइटों की जांच। जब विश्लेषक पुष्टि करते हैं कि सामग्री अवैध बाल यौन शोषण है, तो वे एक अद्वितीय डिजिटल फिंगरप्रिंट उत्पन्न करते हैं – जिसे हैश वैल्यू के रूप में जाना जाता है – जो उस सटीक छवि की पहचान करता है। फिर हैश मानों की सूचियाँ प्लेटफ़ॉर्म के साथ साझा की जाती हैं, जो अपलोड को स्कैन करने और मेल खाने वाली सामग्री को तुरंत ब्लॉक करने के लिए स्वचालित सिस्टम का उपयोग करते हैं, बिना किसी मानव द्वारा देखे जाने की आवश्यकता के।
“प्रौद्योगिकी बाथटब और इस तरह की चीज़ों में बच्चों को नहीं ढूंढती है।” यदि आप बस यह सोचें कि दुर्व्यवहार की छवि कैसी दिखेगी बनाम सहमति से बनी सामग्री कैसी दिखेगी: वे सामग्री के दो बहुत अलग टुकड़े हैं, और प्रौद्योगिकी उनके बीच उन पैटर्न को निर्धारित कर सकती है,” स्लिफ़र ने कहा।
उन्होंने कहा, जबकि यूरोपीय संघ ने बाल दुर्व्यवहार के लिए स्कैनिंग को अवरुद्ध कर दिया है, उसने तकनीकी कंपनियों को 2021 में अपनाए गए कानून के तहत आतंकवादी सामग्री का पता लगाने के लिए स्वेच्छा से संदेशों को स्कैन करने की अनुमति दी है।
“यूरोपीय संघ प्रभावी रूप से शिकारियों के लिए खुले दरवाजे का जोखिम उठा रहा है,” स्विर्स्की ने कहा। “यदि यूरोपीय संघ बच्चों की ऑनलाइन सुरक्षा के बारे में गंभीर है, तो उसे बच्चों की सुरक्षा और पहचान को सक्षम करने के लिए एक स्थायी विधायी ढांचे पर सहमत होने की आवश्यकता है।”





