चाइल्ड पोर्न रोकने के लिए Apple खास पहल, iPhone और iCloud करेगा स्कैन

Join Us icon

Apple जल्द ही नया सॉफ्टवेयर लेकर आने वाला है जो iCloud Photo को एनालाइज करेगा और बाल यौन शोषण (Child Sexual Abuse) वाली तस्वीरों को खोजेगा। इस नए सॉफ़्टवेयर के उपयोग यूजर्स के iCloud में सेव फ़ोटो की जांच करते हुए यह पुष्टि की जाएगी कि कहीं इसमें बाल यौन शोषण वाली तस्वीरें तो नहीं। यदि किसी यूजर्स के अकाउंट में इस तरह का कंटेंट मिलता है तो ऐप्पल यूजर के बारे में पुलिस को सूचित करेगा। ऐप्पल का यह कदम भले ही प्राइवेसी पर सीधा दखल हो लेकिन बाल यौन शोषण जैसे गंभीर अपराध को कम करने में मददगार साबित हो सकता है।

ब्लूमबर्ग की रिपोर्ट के अनुसार, Apple मैसेजिंग ऐप द्वारा भेजी जाने वाले और रिसीव होने वाली हर फ़ोटो को एनालाइज करेगा ताकि यह पता लगाया जा सके कि यह बाल यौन शोषण से जुड़ी हुई न हो। अगर ऐप्पल को कोई ऐसी तस्वीर मिल जाती है जिसे वह खोज रहा है तो वह तुरंत ऐप्पल के सर्वर को रिपोर्ट करेगा। ऐप्पल का यह फ़ीचर सिर्फ सिर्फ़ मैसेजिंग तक सीमित नहीं है। कंपनी ने बाल यौन शोषण के ख़िलाफ़ इस लड़ाई में अपने वॉइस असिस्टेंट सिरी को भी काम पर लगाने की तैयारी की है। रिपोर्ट में कहा गया है अगर कोई यूज़र बाल यौन शोषण से जुड़ी सामग्री सर्च करेगा तो सिरी बीच में हस्तक्षेप कर सकती है।

Apple CSAM SIRI

ऐप्पल कैसे करेगी जांच

यदि किसी यूजर्स के अकाउंट में ऐप्पल को बाल यौन शोषण से जुड़ी सामग्री में ज्यादा मात्रा में दिखाई दी, तो कंपनी इस मामले को मैन्यूअली देखेगी। इसके साथ ही इसकी जानकारी नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन को देगा। बाल यौन शोषण के ख़िलाफ़ जंग में ऐप्पल जिस तकनीक का इस्तेमाल कर रहा है उसे NeuralHash कहा जाता है, जो इमेज को हैश की या संख्याओं के यूनीक सेट में कंसर्ट करता है।

प्राइवेसी और सिक्योरिटी पर ख़तरा

जॉन्स हॉपकिन्स इंफॉर्मेशन सिक्योरिटी इंस्टीट्यूट के एसोसिएट प्रोफेसर मैथ्यू ग्रीन ने ऐप्पल के बाल यौन शोषण को रोकने और उसका पता लगाने के लिए इस तरीक़े पर चिंता व्यक्त की है। उनका कहना था कि ऐप्पल का यह टूल भले ही iOS इकोसिस्टम पर बाल यौन शोषण से जुड़े कंटेंट के प्रसार को भले ही कम कर देगा, लेकिन इससे यूज़र्स की प्राइवेसी और सिक्योरिटी ख़तरे में आ जाएगी। Apple का तर्क भले ही बाल यौन शोषण और इससे जुड़े कंटेंट के प्रसार पर नकेल कसना हो सकता है, लेकिन यह यूजर्स और उसके डिवाइस को लगातार सर्विलांस पर रखने जैसा है, जिसके व्यापक खतरे हैं।

सिर्फ़ CSAM जांच के लिए यूज होंगी तस्वीरें

Apple का कहना है कि वह यूजर्स के iCloud में स्टोर की गई इमेज को स्कैन करेगा। ऐप्पल के इस आइडिया से कई यूजर्स सहज नहीं होंगे क्योंकि आई क्लाउड पर उनके ज्यादातर प्राइवेट फाइल हैं। वे नहीं चाहेंगे कि कोई फोन निर्माता कंपनी इन्हें चेक करें। कम से कम प्राइवेसी के मामले में यह किसी को स्वीकार्य नहीं होगा। दूसरी ओर, Apple का यह भी कहना है कि वह केवल CSAM (Child Sexual Abuse Material) की जांच के लिए तस्वीरों को यूज करेगा। हालांकि इस तकनीक का उपयोग CSAM के अलावा किसी जासूसी के लिए भी किया जा सकता है। इसके साथ ही ऐप्पल सरकार के आग्रह पर यूजर्स के किसी भी डेटा का जांच कर सकती है। यह भी पढ़ें : Motorola Edge S Pro स्मार्टफोन 108MP कैमरा, Snapdragon 870, 144Hz OLED डिस्प्ले के साथ लॉन्च, जानें कीमत

हालाँकि, Apple ने अपने एक बयान में कहा, यह यूज़र्स के उन तस्वीरों के बारे में जो उन्हें लगता है कि ये बाल यौन शोषण के बारे में हो सकते हैं। ऐप्पल ने अपने बयान में यह भी कहा कि यूजर्स सीधे कंपनी से संपर्क कर सकते हैं यदि उनके अकाउंट को गलत तरीके से फ्लैग किया जाता है। ऐप्पल का यह सॉफ़्टवेयर बाल यौन अपराध रोकने के कितना मददगार होगा यह तो आने वाला वक़्त बताएगा लेकिन एक बार फिर से यूज़र्स की प्राइवेसी का मुद्दा सामने आने लगा है। यह भी पढ़ें : Infinix Zero X Neo स्मार्टफोन Helio G90 चिपसेट और 8 GB रैम के साथ Xiaomi और Realme को देगा टक्कर

लेटेस्ट वीडियो : देसी Micromax IN 2B का पबजी और बैटरी टेस्ट

LEAVE A REPLY
Please enter your comment!
Please enter your name here