
Apple जल्द ही नया सॉफ्टवेयर लेकर आने वाला है जो iCloud Photo को एनालाइज करेगा और बाल यौन शोषण (Child Sexual Abuse) वाली तस्वीरों को खोजेगा। इस नए सॉफ़्टवेयर के उपयोग यूजर्स के iCloud में सेव फ़ोटो की जांच करते हुए यह पुष्टि की जाएगी कि कहीं इसमें बाल यौन शोषण वाली तस्वीरें तो नहीं। यदि किसी यूजर्स के अकाउंट में इस तरह का कंटेंट मिलता है तो ऐप्पल यूजर के बारे में पुलिस को सूचित करेगा। ऐप्पल का यह कदम भले ही प्राइवेसी पर सीधा दखल हो लेकिन बाल यौन शोषण जैसे गंभीर अपराध को कम करने में मददगार साबित हो सकता है।
ब्लूमबर्ग की रिपोर्ट के अनुसार, Apple मैसेजिंग ऐप द्वारा भेजी जाने वाले और रिसीव होने वाली हर फ़ोटो को एनालाइज करेगा ताकि यह पता लगाया जा सके कि यह बाल यौन शोषण से जुड़ी हुई न हो। अगर ऐप्पल को कोई ऐसी तस्वीर मिल जाती है जिसे वह खोज रहा है तो वह तुरंत ऐप्पल के सर्वर को रिपोर्ट करेगा। ऐप्पल का यह फ़ीचर सिर्फ सिर्फ़ मैसेजिंग तक सीमित नहीं है। कंपनी ने बाल यौन शोषण के ख़िलाफ़ इस लड़ाई में अपने वॉइस असिस्टेंट सिरी को भी काम पर लगाने की तैयारी की है। रिपोर्ट में कहा गया है अगर कोई यूज़र बाल यौन शोषण से जुड़ी सामग्री सर्च करेगा तो सिरी बीच में हस्तक्षेप कर सकती है।

ऐप्पल कैसे करेगी जांच
यदि किसी यूजर्स के अकाउंट में ऐप्पल को बाल यौन शोषण से जुड़ी सामग्री में ज्यादा मात्रा में दिखाई दी, तो कंपनी इस मामले को मैन्यूअली देखेगी। इसके साथ ही इसकी जानकारी नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन को देगा। बाल यौन शोषण के ख़िलाफ़ जंग में ऐप्पल जिस तकनीक का इस्तेमाल कर रहा है उसे NeuralHash कहा जाता है, जो इमेज को हैश की या संख्याओं के यूनीक सेट में कंसर्ट करता है।
प्राइवेसी और सिक्योरिटी पर ख़तरा
जॉन्स हॉपकिन्स इंफॉर्मेशन सिक्योरिटी इंस्टीट्यूट के एसोसिएट प्रोफेसर मैथ्यू ग्रीन ने ऐप्पल के बाल यौन शोषण को रोकने और उसका पता लगाने के लिए इस तरीक़े पर चिंता व्यक्त की है। उनका कहना था कि ऐप्पल का यह टूल भले ही iOS इकोसिस्टम पर बाल यौन शोषण से जुड़े कंटेंट के प्रसार को भले ही कम कर देगा, लेकिन इससे यूज़र्स की प्राइवेसी और सिक्योरिटी ख़तरे में आ जाएगी। Apple का तर्क भले ही बाल यौन शोषण और इससे जुड़े कंटेंट के प्रसार पर नकेल कसना हो सकता है, लेकिन यह यूजर्स और उसके डिवाइस को लगातार सर्विलांस पर रखने जैसा है, जिसके व्यापक खतरे हैं।
सिर्फ़ CSAM जांच के लिए यूज होंगी तस्वीरें
Apple का कहना है कि वह यूजर्स के iCloud में स्टोर की गई इमेज को स्कैन करेगा। ऐप्पल के इस आइडिया से कई यूजर्स सहज नहीं होंगे क्योंकि आई क्लाउड पर उनके ज्यादातर प्राइवेट फाइल हैं। वे नहीं चाहेंगे कि कोई फोन निर्माता कंपनी इन्हें चेक करें। कम से कम प्राइवेसी के मामले में यह किसी को स्वीकार्य नहीं होगा। दूसरी ओर, Apple का यह भी कहना है कि वह केवल CSAM (Child Sexual Abuse Material) की जांच के लिए तस्वीरों को यूज करेगा। हालांकि इस तकनीक का उपयोग CSAM के अलावा किसी जासूसी के लिए भी किया जा सकता है। इसके साथ ही ऐप्पल सरकार के आग्रह पर यूजर्स के किसी भी डेटा का जांच कर सकती है। यह भी पढ़ें : Motorola Edge S Pro स्मार्टफोन 108MP कैमरा, Snapdragon 870, 144Hz OLED डिस्प्ले के साथ लॉन्च, जानें कीमत
हालाँकि, Apple ने अपने एक बयान में कहा, यह यूज़र्स के उन तस्वीरों के बारे में जो उन्हें लगता है कि ये बाल यौन शोषण के बारे में हो सकते हैं। ऐप्पल ने अपने बयान में यह भी कहा कि यूजर्स सीधे कंपनी से संपर्क कर सकते हैं यदि उनके अकाउंट को गलत तरीके से फ्लैग किया जाता है। ऐप्पल का यह सॉफ़्टवेयर बाल यौन अपराध रोकने के कितना मददगार होगा यह तो आने वाला वक़्त बताएगा लेकिन एक बार फिर से यूज़र्स की प्राइवेसी का मुद्दा सामने आने लगा है। यह भी पढ़ें : Infinix Zero X Neo स्मार्टफोन Helio G90 चिपसेट और 8 GB रैम के साथ Xiaomi और Realme को देगा टक्कर


















