Apple के CSAM सिस्टम को धोखा दिया गया था, लेकिन कंपनी के पास दो सुरक्षा उपाय हैं

अपडेट करें: ऐप्पल ने सर्वर के दूसरे निरीक्षण का उल्लेख किया, और एक पेशेवर कंप्यूटर विज़न कंपनी ने इस बात की संभावना को रेखांकित किया कि इसे "दूसरा निरीक्षण कैसे काम कर सकता है" में वर्णित किया जा सकता है।
डेवलपर्स द्वारा इसके इंजीनियर भागों को उलटने के बाद, Apple CSAM सिस्टम के शुरुआती संस्करण को एक निर्दोष छवि को चिह्नित करने के लिए प्रभावी ढंग से बरगलाया गया है।हालाँकि, Apple ने कहा कि वास्तविक जीवन में ऐसा होने से रोकने के लिए उसके पास अतिरिक्त सुरक्षा उपाय हैं।
न्यूरलहैश एल्गोरिथम के ओपन सोर्स डेवलपर वेबसाइट गिटहब पर प्रकाशित होने के बाद नवीनतम विकास हुआ, कोई भी इसके साथ प्रयोग कर सकता है ...
सभी सीएसएएम सिस्टम नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (एनसीएमईसी) जैसे संगठनों से ज्ञात बाल यौन शोषण सामग्री के डेटाबेस को आयात करके काम करते हैं।डेटाबेस छवियों से हैश या डिजिटल फ़िंगरप्रिंट के रूप में प्रदान किया जाता है।
हालाँकि अधिकांश तकनीकी दिग्गज क्लाउड में अपलोड की गई तस्वीरों को स्कैन करते हैं, Apple ग्राहक के iPhone पर न्यूरलहैश एल्गोरिथम का उपयोग करके संग्रहीत फ़ोटो का हैश मान उत्पन्न करता है, और फिर इसकी तुलना CSAM हैश मान की डाउनलोड की गई प्रति से करता है।
कल, एक डेवलपर ने एप्पल के एल्गोरिदम को रिवर्स इंजीनियर करने का दावा किया और गिटहब को कोड जारी किया- इस दावे की ऐप्पल द्वारा प्रभावी ढंग से पुष्टि की गई थी।
GitHib के जारी होने के कुछ घंटों के भीतर, शोधकर्ताओं ने एक जानबूझकर झूठी सकारात्मक-दो पूरी तरह से अलग-अलग छवियों को बनाने के लिए एल्गोरिदम का सफलतापूर्वक उपयोग किया जो समान हैश मान उत्पन्न करते थे।इसे टकराव कहा जाता है।
ऐसी प्रणालियों के लिए, हमेशा टकराव का जोखिम होता है, क्योंकि हैश निश्चित रूप से छवि का एक बहुत ही सरलीकृत प्रतिनिधित्व है, लेकिन यह आश्चर्यजनक है कि कोई व्यक्ति इतनी जल्दी छवि उत्पन्न कर सकता है।
यहां जानबूझकर टक्कर सिर्फ अवधारणा का प्रमाण है।डेवलपर्स के पास सीएसएएम हैश डेटाबेस तक पहुंच नहीं है, जिसके लिए रीयल-टाइम सिस्टम में झूठी सकारात्मक बनाने की आवश्यकता होगी, लेकिन यह साबित करता है कि टकराव के हमले सिद्धांत रूप में अपेक्षाकृत आसान हैं।
Apple ने प्रभावी रूप से पुष्टि की कि एल्गोरिथ्म अपने स्वयं के सिस्टम का आधार है, लेकिन मदरबोर्ड को बताया कि यह अंतिम संस्करण नहीं है।कंपनी ने यह भी कहा कि उसका इरादा इसे गोपनीय रखने का नहीं था।
ऐप्पल ने एक ईमेल में मदरबोर्ड को बताया कि गिटहब पर उपयोगकर्ता द्वारा विश्लेषण किया गया संस्करण एक सामान्य संस्करण है, न कि आईक्लाउड फोटो सीएसएएम पहचान के लिए उपयोग किया जाने वाला अंतिम संस्करण।ऐप्पल ने कहा कि उसने एल्गोरिदम का भी खुलासा किया।
"न्यूरलहैश एल्गोरिथम [...] हस्ताक्षरित ऑपरेटिंग सिस्टम कोड का हिस्सा है [और] सुरक्षा शोधकर्ता यह सत्यापित कर सकते हैं कि इसका व्यवहार विवरण के अनुरूप है," एक Apple दस्तावेज़ में लिखा है।
कंपनी ने कहा कि दो और चरण हैं: अपने स्वयं के सर्वर पर एक द्वितीयक (गुप्त) मिलान प्रणाली चलाना, और मैन्युअल समीक्षा।
Apple ने यह भी कहा कि उपयोगकर्ताओं द्वारा 30-मैच की सीमा पार करने के बाद, Apple के सर्वर पर चलने वाला एक दूसरा गैर-सार्वजनिक एल्गोरिथम परिणामों की जाँच करेगा।
"इस स्वतंत्र हैश को इस संभावना को अस्वीकार करने के लिए चुना गया था कि गैर-सीएसएएम छवियों के प्रतिकूल हस्तक्षेप के कारण गलत न्यूरलहैश डिवाइस पर एन्क्रिप्टेड सीएसएएम डेटाबेस से मेल खाता है और मिलान सीमा से अधिक है।"
रोबोफ्लो के ब्रैड ड्वायर ने टकराव के हमले के लिए अवधारणा के प्रमाण के रूप में पोस्ट की गई दो छवियों के बीच आसानी से अंतर करने का एक तरीका खोजा।
मैं उत्सुक हूं कि ये छवियां एक समान लेकिन अलग तंत्रिका सुविधा निकालने वाले OpenAI के CLIP में कैसे दिखती हैं।CLIP न्यूरलहैश के समान काम करता है;यह एक छवि लेता है और छवि की सामग्री के लिए मैप करने वाले फीचर वैक्टर का एक सेट उत्पन्न करने के लिए एक तंत्रिका नेटवर्क का उपयोग करता है।
लेकिन OpenAI का नेटवर्क अलग है।यह एक सामान्य मॉडल है जो इमेज और टेक्स्ट के बीच मैप कर सकता है।इसका मतलब है कि हम इसका उपयोग मानव-समझने योग्य छवि जानकारी निकालने के लिए कर सकते हैं।
मैंने ऊपर की दो टक्कर छवियों को CLIP के माध्यम से चलाया, यह देखने के लिए कि क्या यह भी मूर्ख बनाया गया था।संक्षिप्त जवाब नहीं है।इसका मतलब यह है कि ऐप्पल को पता लगाया गया सीएसएएम छवियों के लिए दूसरा फीचर एक्सट्रैक्टर नेटवर्क (जैसे सीएलआईपी) लागू करने में सक्षम होना चाहिए ताकि यह निर्धारित किया जा सके कि वे असली हैं या नकली।एक ही समय में दो नेटवर्क को धोखा देने वाली छवियां उत्पन्न करना अधिक कठिन है।
अंत में, जैसा कि पहले उल्लेख किया गया है, छवियों की मैन्युअल रूप से समीक्षा की जाती है ताकि यह पुष्टि हो सके कि वे सीएसएएम हैं।
एक सुरक्षा शोधकर्ता ने कहा कि एकमात्र वास्तविक जोखिम यह है कि जो कोई भी Apple को परेशान करना चाहता है, वह मानव समीक्षकों को झूठी सकारात्मकता प्रदान कर सकता है।
"Apple ने वास्तव में इस प्रणाली को डिज़ाइन किया है, इसलिए हैश फ़ंक्शन को गुप्त रखने की आवश्यकता नहीं है, क्योंकि केवल एक चीज जो आप 'CSAM के रूप में गैर-CSAM' के साथ कर सकते हैं, वह है Apple की प्रतिक्रिया टीम को कुछ जंक छवियों के साथ तब तक परेशान करना जब तक कि वे फ़िल्टर को समाप्त करने के लिए लागू नहीं करते हैं। विश्लेषण पाइपलाइन में जो कचरा है, वह झूठी सकारात्मक है, ”कैलिफोर्निया विश्वविद्यालय, बर्कले में इंस्टीट्यूट ऑफ इंटरनेशनल कंप्यूटर साइंस के एक वरिष्ठ शोधकर्ता निकोलस वीवर ने एक ऑनलाइन चैट में मदरबोर्ड को बताया।
गोपनीयता आज की दुनिया में बढ़ती चिंता का मुद्दा है।हमारे दिशानिर्देशों में गोपनीयता, सुरक्षा आदि से संबंधित सभी रिपोर्टों का पालन करें।
बेन लवजॉय एक ब्रिटिश तकनीकी लेखक और 9to5Mac के लिए यूरोपीय संघ के संपादक हैं।वह अपने कॉलम और डायरी लेखों के लिए जाने जाते हैं, जो समय के साथ अधिक व्यापक समीक्षा प्राप्त करने के लिए Apple उत्पादों के साथ अपने अनुभव की खोज करते हैं।वह उपन्यास भी लिखते हैं, दो तकनीकी थ्रिलर हैं, कुछ लघु विज्ञान कथा फिल्में और एक रोम-कॉम!


पोस्ट करने का समय: अगस्त-20-2021