सेब समाचार

Apple कर्मचारी आंतरिक रूप से CSAM डिटेक्शन प्लान पर चिंता जता रहे हैं

शुक्रवार अगस्त 13, 2021 12:43 पूर्वाह्न पीडीटी सामी फाथ द्वारा

Apple के कर्मचारी अब उन व्यक्तियों के समूह में शामिल हो रहे हैं जो Apple की स्कैन करने की योजना पर चिंता जता रहे हैं आई - फ़ोन एक रिपोर्ट के अनुसार, सीएसएएम या बाल यौन शोषण सामग्री के लिए उपयोगकर्ताओं की फोटो लाइब्रेरी, कथित तौर पर आंतरिक रूप से बोल रही है कि तकनीक का उपयोग अन्य प्रकार की सामग्री के लिए उपयोगकर्ताओं की तस्वीरों को स्कैन करने के लिए कैसे किया जा सकता है। रॉयटर्स .





सेब पार्क ड्रोन जून 2018 2
के अनुसार रॉयटर्स , CSAM का पता लगाने पर चिंता व्यक्त करने के लिए Apple कर्मचारियों की एक अनिर्दिष्ट संख्या ने आंतरिक स्लैक चैनलों को लिया है। विशेष रूप से, कर्मचारी इस बात से चिंतित हैं कि सरकारें CSAM के अलावा अन्य सामग्री ढूंढकर Apple को सेंसरशिप के लिए तकनीक का उपयोग करने के लिए बाध्य कर सकती हैं। कुछ कर्मचारी चिंतित हैं कि Apple अपनी उद्योग-अग्रणी गोपनीयता प्रतिष्ठा को नुकसान पहुँचा रहा है।

Apple कर्मचारियों ने एक सप्ताह पहले घोषित योजना पर 800 से अधिक संदेशों के साथ एक Apple आंतरिक स्लैक चैनल में बाढ़ आ गई है, जिन श्रमिकों ने पहचान नहीं होने के लिए कहा, उन्होंने रायटर को बताया। कई लोगों ने चिंता व्यक्त की कि दमनकारी सरकारें सेंसरशिप या गिरफ्तारी के लिए अन्य सामग्री खोजने की तलाश में इस सुविधा का फायदा उठा सकती हैं, जो कार्यकर्ताओं ने दिन भर के धागे को देखा।



ऐप्पल में पिछले सुरक्षा परिवर्तनों ने भी कर्मचारियों के बीच चिंता पैदा कर दी है, लेकिन नई बहस की मात्रा और अवधि आश्चर्यजनक है, श्रमिकों ने कहा। कुछ पोस्टर चिंतित थे कि Apple गोपनीयता की रक्षा के लिए अपनी प्रमुख प्रतिष्ठा को नुकसान पहुँचा रहा है।

रिपोर्ट के अनुसार, उपयोगकर्ता सुरक्षा से संबंधित भूमिकाओं में Apple कर्मचारियों को आंतरिक विरोध का हिस्सा नहीं माना जाता है।

जब से इसके पिछले हफ्ते घोषणा , Apple की CSAM डिटेक्शन योजनाओं की आलोचना की गई है, जो अभी भी इस गिरावट के iOS 15 और iPadOS 15 के साथ रोल आउट होने की उम्मीद है। मुख्य रूप से चिंता इस बात पर घूमती है कि दमनकारी सरकारों और शासनों द्वारा भविष्य के कार्यान्वयन के लिए प्रौद्योगिकी एक फिसलन ढलान कैसे पेश कर सकती है।

क्या कोई नया Apple टीवी आ रहा है

Apple ने इस विचार के खिलाफ दृढ़ता से पीछे धकेल दिया है कि CSAM सामग्री का पता लगाने के लिए उपयोग की जाने वाली ऑन-डिवाइस तकनीक का उपयोग किसी अन्य उद्देश्य के लिए किया जा सकता है। में एक प्रकाशित अक्सर पूछे जाने वाले प्रश्न दस्तावेज़ , कंपनी का कहना है कि वह सरकारों द्वारा ऐसी किसी भी मांग को सख्ती से अस्वीकार कर देगी।

क्या सरकारें Apple को गैर-CSAM छवियों को हैश सूची में जोड़ने के लिए बाध्य कर सकती हैं?
Apple ऐसी किसी भी मांग को ठुकरा देगा। Apple की CSAM पहचान क्षमता पूरी तरह से iCloud फ़ोटो में संग्रहीत ज्ञात CSAM छवियों का पता लगाने के लिए बनाई गई है जिन्हें NCMEC और अन्य बाल सुरक्षा समूहों के विशेषज्ञों द्वारा पहचाना गया है। हमें सरकार द्वारा अनिवार्य परिवर्तनों को बनाने और लागू करने की मांगों का सामना करना पड़ा है जो पहले उपयोगकर्ताओं की गोपनीयता को कम करते हैं, और उन मांगों को दृढ़ता से अस्वीकार कर दिया है। हम भविष्य में उन्हें मना करना जारी रखेंगे। हम स्पष्ट कर दें, यह तकनीक आईक्लाउड में संग्रहीत सीएसएएम का पता लगाने तक सीमित है और हम इसे विस्तारित करने के किसी भी सरकार के अनुरोध को स्वीकार नहीं करेंगे। इसके अलावा, Apple NCMEC को रिपोर्ट करने से पहले मानवीय समीक्षा करता है। ऐसे मामले में जहां सिस्टम उन तस्वीरों को फ़्लैग करता है जो ज्ञात सीएसएएम छवियों से मेल नहीं खाती हैं, खाता अक्षम नहीं किया जाएगा और एनसीएमईसी को कोई रिपोर्ट दर्ज नहीं की जाएगी।

एक खुला पत्र Apple की आलोचना करते हुए और कंपनी से CSAM डिटेक्शन को लागू करने की योजना को तुरंत रोकने का आह्वान करते हुए, लेखन के समय 7,000 से अधिक हस्ताक्षर प्राप्त हुए हैं। व्हाट्सएप के प्रमुख ने भी किया है बहस में तौला .

टैग: Apple गोपनीयता , Apple बच्चे की सुरक्षा सुविधाएँ