सेब आज घोषणा की कि के शुभारंभ के साथ आईओएस 15 तथा आईपैड 15 , यह स्कैन करना शुरू कर देगा आईक्लाउड तस्वीरें में ज्ञात बाल यौन शोषण सामग्री (सीएसएएम) की तलाश के लिए, नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (एनसीएमईसी) को निष्कर्षों की रिपोर्ट करने की योजना के साथ।
इससे पहले जब ऐप्पल ने अपनी योजनाओं को विस्तृत किया, सीएसएएम पहल की खबरें लीक हो गईं, और सुरक्षा शोधकर्ताओं ने पहले से ही चिंता व्यक्त करना शुरू कर दिया है कि भविष्य में ऐप्पल के नए छवि स्कैनिंग प्रोटोकॉल का उपयोग कैसे किया जा सकता है, जैसा कि नोट किया गया है वित्तीय समय .
ज्ञात CSAM छवियों की तुलना उपयोगकर्ता के फ़ोटो से करने के लिए Apple 'NeuralHash' सिस्टम का उपयोग कर रहा है आई - फ़ोन इससे पहले कि वे iCloud पर अपलोड हों। यदि कोई मेल होता है, तो उस तस्वीर को क्रिप्टोग्राफ़िक सुरक्षा वाउचर के साथ अपलोड किया जाता है, और एक निश्चित सीमा पर, यह जांचने के लिए एक समीक्षा शुरू की जाती है कि क्या व्यक्ति के उपकरणों पर सीएसएएम है।
एयरपॉड्स का उपयोग करके कैसे लटकाएं
वर्तमान समय में, Apple बाल शोषण को देखने के लिए अपनी छवि स्कैनिंग और मिलान तकनीक का उपयोग कर रहा है, लेकिन शोधकर्ताओं को चिंता है कि भविष्य में, इसे अन्य प्रकार की इमेजरी के लिए स्कैन करने के लिए अनुकूलित किया जा सकता है जो अधिक संबंधित हैं, जैसे कि सरकार विरोधी संकेत विरोध.
ट्वीट्स की एक श्रृंखला में, जॉन्स हॉपकिन्स क्रिप्टोग्राफी शोधकर्ता मैथ्यू ग्रीन ने कहा कि सीएसएएम स्कैनिंग एक 'वास्तव में बुरा विचार' है क्योंकि भविष्य में, यह केवल iCloud पर अपलोड की गई सामग्री के बजाय एंड-टू-एंड एन्क्रिप्टेड तस्वीरों को स्कैन करने के लिए विस्तारित हो सकता है। बच्चों के लिए, सेब है एक अलग स्कैनिंग सुविधा लागू करना जो सीधे iMessages में स्पष्ट यौन सामग्री की तलाश करती है, जो एंड-टू-एंड एन्क्रिप्टेड हैं।
ग्रीन ने उस हैश पर भी चिंता जताई, जिसका उपयोग Apple करने की योजना बना रहा है क्योंकि संभावित रूप से 'टकराव' हो सकता है, जहां कोई व्यक्ति एक हानिरहित फ़ाइल भेजता है जो CSAM के साथ हैश साझा करता है और इसके परिणामस्वरूप एक झूठा झंडा हो सकता है।
ऐप्पल का कहना है कि इसकी स्कैनिंग तकनीक में यह सुनिश्चित करने के लिए 'अत्यंत उच्च स्तर की सटीकता' है कि खातों को गलत तरीके से फ़्लैग नहीं किया गया है, और रिपोर्ट की मैन्युअल रूप से समीक्षा किसी व्यक्ति के iCloud खाता अक्षम है और एक रिपोर्ट NCMEC को भेजी जाती है।
ग्रीन का मानना है कि ऐप्पल के कार्यान्वयन से अन्य तकनीकी कंपनियों को भी इसी तरह की तकनीक अपनाने के लिए प्रेरित किया जाएगा। उन्होंने लिखा, 'इससे बांध टूट जाएगा।' 'सरकारें सभी से इसकी मांग करेंगी।' उन्होंने प्रौद्योगिकी की तुलना 'दमनकारी शासनों द्वारा लागू किए गए औजारों' से की।
यह बुरी बातें हैं। मैं विशेष रूप से चाइल्ड पोर्न के पक्ष में नहीं होना चाहता और मैं आतंकवादी नहीं हूं। लेकिन समस्या यह है कि एन्क्रिप्शन एक शक्तिशाली उपकरण है जो गोपनीयता प्रदान करता है, और आपके पास वास्तव में मजबूत गोपनीयता नहीं हो सकती है, जबकि प्रत्येक छवि जो कोई भी भेजता है उसका सर्वेक्षण भी करता है। - मैथ्यू ग्रीन (@matthew_d_green) 5 अगस्त 2021
सुरक्षा शोधकर्ता एलेक मफेट, जो पहले फेसबुक में काम कर चुके थे, ने कहा कि इस तरह की इमेज स्कैनिंग को लागू करने का ऐप्पल का निर्णय 'व्यक्तिगत गोपनीयता के लिए एक बड़ा और प्रतिगामी कदम' था। 'Apple 1984 को सक्षम करने के लिए गोपनीयता वापस ले रहा है,' उन्होंने कहा।
कैम्ब्रिज विश्वविद्यालय में सुरक्षा इंजीनियरिंग के प्रोफेसर रॉस एंडरसन ने कहा कि यह एक 'बिल्कुल भयावह विचार' है जिससे उपकरणों की 'वितरित थोक निगरानी' हो सकती है।
जैसा कि कई लोगों ने ट्विटर पर बताया है, कई टेक कंपनियां पहले से ही CSAM के लिए इमेज स्कैनिंग करती हैं। Google, Twitter, Microsoft, Facebook और अन्य लोग बाल शोषण की ज्ञात छवियों को देखने और रिपोर्ट करने के लिए छवि हैशिंग विधियों का उपयोग करते हैं।
और अगर आप सोच रहे हैं कि क्या Google बाल शोषण इमेजरी के लिए छवियों को स्कैन करता है, तो मैंने उत्तर दिया कि आठ साल पहले मैंने जो कहानी लिखी थी: वह **2008 से** ऐसा कर रहा है। हो सकता है कि सभी बैठ जाएं और अपनी टोपियां वापस पहन लें। pic.twitter.com/ruJ4Z8SceY - चार्ल्स आर्थर (@charlesarthur) 5 अगस्त 2021
यह भी ध्यान देने योग्य है कि Apple था पहले से ही कुछ सामग्री को स्कैन करना नई सीएसएएम पहल के रोलआउट से पहले बाल दुर्व्यवहार छवियों के लिए। 2020 में, Apple के मुख्य गोपनीयता अधिकारी जेन होर्वथ ने कहा कि Apple ने अवैध छवियों को देखने के लिए स्क्रीनिंग तकनीक का उपयोग किया और फिर CSAM के सबूत का पता चलने पर खातों को निष्क्रिय कर दिया।
आईफोन पर कंटेंट ब्लॉकर को डिसेबल कैसे करें
2019 में सेब अपनी गोपनीयता नीतियों को अपडेट किया ध्यान दें कि यह अपलोड की गई सामग्री को 'बाल यौन शोषण सामग्री सहित संभावित अवैध सामग्री' के लिए स्कैन करेगा, इसलिए आज की घोषणाएं पूरी तरह से नई नहीं हैं।
नोट: इस विषय पर चर्चा की राजनीतिक या सामाजिक प्रकृति के कारण, चर्चा सूत्र हमारे . में स्थित है राजनीतिक समाचार मंच। सभी फ़ोरम सदस्यों और साइट विज़िटर का थ्रेड पढ़ने और उनका अनुसरण करने के लिए स्वागत है, लेकिन पोस्टिंग कम से कम 100 पोस्ट वाले फ़ोरम सदस्यों तक ही सीमित है।
टैग: Apple गोपनीयता , Apple बच्चे की सुरक्षा सुविधाएँ
लोकप्रिय पोस्ट