सेब समाचार

सुरक्षा शोधकर्ताओं ने आईक्लाउड छवियों को स्कैन करने के लिए ऐप्पल की योजनाओं पर अलार्म व्यक्त किया, लेकिन अभ्यास पहले से ही व्यापक है

गुरुवार 5 अगस्त, 2021 2:04 बजे जूली क्लोवर द्वारा पीडीटी

सेब आज घोषणा की कि के शुभारंभ के साथ आईओएस 15 तथा आईपैड 15 , यह स्कैन करना शुरू कर देगा आईक्लाउड तस्वीरें में ज्ञात बाल यौन शोषण सामग्री (सीएसएएम) की तलाश के लिए, नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (एनसीएमईसी) को निष्कर्षों की रिपोर्ट करने की योजना के साथ।





बाल सुरक्षा सुविधा
इससे पहले जब ऐप्पल ने अपनी योजनाओं को विस्तृत किया, सीएसएएम पहल की खबरें लीक हो गईं, और सुरक्षा शोधकर्ताओं ने पहले से ही चिंता व्यक्त करना शुरू कर दिया है कि भविष्य में ऐप्पल के नए छवि स्कैनिंग प्रोटोकॉल का उपयोग कैसे किया जा सकता है, जैसा कि नोट किया गया है वित्तीय समय .

ज्ञात CSAM छवियों की तुलना उपयोगकर्ता के फ़ोटो से करने के लिए Apple 'NeuralHash' सिस्टम का उपयोग कर रहा है आई - फ़ोन इससे पहले कि वे iCloud पर अपलोड हों। यदि कोई मेल होता है, तो उस तस्वीर को क्रिप्टोग्राफ़िक सुरक्षा वाउचर के साथ अपलोड किया जाता है, और एक निश्चित सीमा पर, यह जांचने के लिए एक समीक्षा शुरू की जाती है कि क्या व्यक्ति के उपकरणों पर सीएसएएम है।



एयरपॉड्स का उपयोग करके कैसे लटकाएं

वर्तमान समय में, Apple बाल शोषण को देखने के लिए अपनी छवि स्कैनिंग और मिलान तकनीक का उपयोग कर रहा है, लेकिन शोधकर्ताओं को चिंता है कि भविष्य में, इसे अन्य प्रकार की इमेजरी के लिए स्कैन करने के लिए अनुकूलित किया जा सकता है जो अधिक संबंधित हैं, जैसे कि सरकार विरोधी संकेत विरोध.

ट्वीट्स की एक श्रृंखला में, जॉन्स हॉपकिन्स क्रिप्टोग्राफी शोधकर्ता मैथ्यू ग्रीन ने कहा कि सीएसएएम स्कैनिंग एक 'वास्तव में बुरा विचार' है क्योंकि भविष्य में, यह केवल ‌iCloud‌ पर अपलोड की गई सामग्री के बजाय एंड-टू-एंड एन्क्रिप्टेड तस्वीरों को स्कैन करने के लिए विस्तारित हो सकता है। बच्चों के लिए, सेब है एक अलग स्कैनिंग सुविधा लागू करना जो सीधे iMessages में स्पष्ट यौन सामग्री की तलाश करती है, जो एंड-टू-एंड एन्क्रिप्टेड हैं।

ग्रीन ने उस हैश पर भी चिंता जताई, जिसका उपयोग Apple करने की योजना बना रहा है क्योंकि संभावित रूप से 'टकराव' हो सकता है, जहां कोई व्यक्ति एक हानिरहित फ़ाइल भेजता है जो CSAM के साथ हैश साझा करता है और इसके परिणामस्वरूप एक झूठा झंडा हो सकता है।

ऐप्पल का कहना है कि इसकी स्कैनिंग तकनीक में यह सुनिश्चित करने के लिए 'अत्यंत उच्च स्तर की सटीकता' है कि खातों को गलत तरीके से फ़्लैग नहीं किया गया है, और रिपोर्ट की मैन्युअल रूप से समीक्षा किसी व्यक्ति के ‌iCloud‌ खाता अक्षम है और एक रिपोर्ट NCMEC को भेजी जाती है।

ग्रीन का मानना ​​​​है कि ऐप्पल के कार्यान्वयन से अन्य तकनीकी कंपनियों को भी इसी तरह की तकनीक अपनाने के लिए प्रेरित किया जाएगा। उन्होंने लिखा, 'इससे ​​बांध टूट जाएगा।' 'सरकारें सभी से इसकी मांग करेंगी।' उन्होंने प्रौद्योगिकी की तुलना 'दमनकारी शासनों द्वारा लागू किए गए औजारों' से की।


सुरक्षा शोधकर्ता एलेक मफेट, जो पहले फेसबुक में काम कर चुके थे, ने कहा कि इस तरह की इमेज स्कैनिंग को लागू करने का ऐप्पल का निर्णय 'व्यक्तिगत गोपनीयता के लिए एक बड़ा और प्रतिगामी कदम' था। 'Apple 1984 को सक्षम करने के लिए गोपनीयता वापस ले रहा है,' उन्होंने कहा।

कैम्ब्रिज विश्वविद्यालय में सुरक्षा इंजीनियरिंग के प्रोफेसर रॉस एंडरसन ने कहा कि यह एक 'बिल्कुल भयावह विचार' है जिससे उपकरणों की 'वितरित थोक निगरानी' हो सकती है।

जैसा कि कई लोगों ने ट्विटर पर बताया है, कई टेक कंपनियां पहले से ही CSAM के लिए इमेज स्कैनिंग करती हैं। Google, Twitter, Microsoft, Facebook और अन्य लोग बाल शोषण की ज्ञात छवियों को देखने और रिपोर्ट करने के लिए छवि हैशिंग विधियों का उपयोग करते हैं।


यह भी ध्यान देने योग्य है कि Apple था पहले से ही कुछ सामग्री को स्कैन करना नई सीएसएएम पहल के रोलआउट से पहले बाल दुर्व्यवहार छवियों के लिए। 2020 में, Apple के मुख्य गोपनीयता अधिकारी जेन होर्वथ ने कहा कि Apple ने अवैध छवियों को देखने के लिए स्क्रीनिंग तकनीक का उपयोग किया और फिर CSAM के सबूत का पता चलने पर खातों को निष्क्रिय कर दिया।

आईफोन पर कंटेंट ब्लॉकर को डिसेबल कैसे करें

2019 में सेब अपनी गोपनीयता नीतियों को अपडेट किया ध्यान दें कि यह अपलोड की गई सामग्री को 'बाल यौन शोषण सामग्री सहित संभावित अवैध सामग्री' के लिए स्कैन करेगा, इसलिए आज की घोषणाएं पूरी तरह से नई नहीं हैं।

नोट: इस विषय पर चर्चा की राजनीतिक या सामाजिक प्रकृति के कारण, चर्चा सूत्र हमारे . में स्थित है राजनीतिक समाचार मंच। सभी फ़ोरम सदस्यों और साइट विज़िटर का थ्रेड पढ़ने और उनका अनुसरण करने के लिए स्वागत है, लेकिन पोस्टिंग कम से कम 100 पोस्ट वाले फ़ोरम सदस्यों तक ही सीमित है।

टैग: Apple गोपनीयता , Apple बच्चे की सुरक्षा सुविधाएँ