एपल आईफोन में डालेगा निगरानी सॉफ्टवेयर, अब अश्लील तस्वीरों पर लगेगा फुल स्टॉप 

 

 एपल ने पहले बच्चों से जुड़ी अश्लील सामग्री की चिंताओं को लेकर एप स्टोर से अलग-अलग एप को हटा दिया था, लेकिन अब ऐसा कहा जा रहा है कि यह इस तरह के सिस्टम को कंपनी व्यापक रूप से पेश करने वाली है।एपल एक फोटो आईडेंटिटी टूल की घोषणा करने की प्लानिंग कर रहा है , यह टूल आईओएस प्लेटफॉर्म पर फोटो लाइब्रेरी में बच्चों की अश्लील तस्वीरों की पहचान करेगा। एपल  अपने फ़ोन में न्युट्रलमैच नाम का एक नया अल्गोरिथम शामिल करेगी | ये अल्गोरिथम फ़ोन में स्टोर की जाने वाली तस्वीरों की लगातार जाँच करता रहेगा | फिलहाल , ये सिर्फ अमेरिका में बिकने वाले फ़ोन में डाला जाएगा | 

एपल ने न्यूट्रलमैच के बारे में इसी हफ्ते अमेरिका के कुछ विशेषज्ञों और सुरक्षा अनुसंधानकर्ताओं को जानकारी दी। उसके मुताबिक न्यूट्रलमैच एक ओटोमेटेड (स्वचालित) सिस्टम होगा, जो किसी तस्वीर के बारे में शक होने पर तुरंत मानव जांचकर्ताओं को अलर्ट कर देगा। 

कंपनी ने घोषणा की है कि उसकी आने वाले सभी डिवाइस नए क्रिप्टोग्राफिक एप्लिकेशन्स होंगे, जो अश्लील तस्वीरों को फैलने से रोकेंगे और यूजर्स की प्राइवेसी भी प्रभावित नहीं होगी। इसी तरह का एक फीचर सीरी भी आएगा। इस नए फीचर के जरिए अगर यूजर बच्चों से जुड़ी अश्लील सामग्री सर्च करेगा, तो यह फीचर उसे रोकेगा। साथ ही चाइल्ड और पैरेंट्स की ऑनलाइन सेफ्टी के लिए अतिरिक्त जानकारी भी देगा।

Exit mobile version