एपल आईफोन में डालेगा निगरानी सॉफ्टवेयर, अब अश्लील तस्वीरों पर लगेगा फुल स्टॉप

एपल ने पहले बच्चों से जुड़ी अश्लील सामग्री की चिंताओं को लेकर एप स्टोर से अलग-अलग एप को हटा दिया था, लेकिन अब ऐसा कहा जा रहा है कि यह इस तरह के सिस्टम को कंपनी व्यापक रूप से पेश करने वाली है।एपल एक फोटो आईडेंटिटी टूल की घोषणा करने की प्लानिंग कर रहा है , यह टूल आईओएस प्लेटफॉर्म पर फोटो लाइब्रेरी में बच्चों की अश्लील तस्वीरों की पहचान करेगा। एपल अपने फ़ोन में न्युट्रलमैच नाम का एक नया अल्गोरिथम शामिल करेगी | ये अल्गोरिथम फ़ोन में स्टोर की जाने वाली तस्वीरों की लगातार जाँच करता रहेगा | फिलहाल , ये सिर्फ अमेरिका में बिकने वाले फ़ोन में डाला जाएगा |
एपल ने न्यूट्रलमैच के बारे में इसी हफ्ते अमेरिका के कुछ विशेषज्ञों और सुरक्षा अनुसंधानकर्ताओं को जानकारी दी। उसके मुताबिक न्यूट्रलमैच एक ओटोमेटेड (स्वचालित) सिस्टम होगा, जो किसी तस्वीर के बारे में शक होने पर तुरंत मानव जांचकर्ताओं को अलर्ट कर देगा।
कंपनी ने घोषणा की है कि उसकी आने वाले सभी डिवाइस नए क्रिप्टोग्राफिक एप्लिकेशन्स होंगे, जो अश्लील तस्वीरों को फैलने से रोकेंगे और यूजर्स की प्राइवेसी भी प्रभावित नहीं होगी। इसी तरह का एक फीचर सीरी भी आएगा। इस नए फीचर के जरिए अगर यूजर बच्चों से जुड़ी अश्लील सामग्री सर्च करेगा, तो यह फीचर उसे रोकेगा। साथ ही चाइल्ड और पैरेंट्स की ऑनलाइन सेफ्टी के लिए अतिरिक्त जानकारी भी देगा।



.jpeg)
