सभी खबरें

एपल आईफोन में डालेगा निगरानी सॉफ्टवेयर, अब अश्लील तस्वीरों पर लगेगा फुल स्टॉप 

 

 एपल ने पहले बच्चों से जुड़ी अश्लील सामग्री की चिंताओं को लेकर एप स्टोर से अलग-अलग एप को हटा दिया था, लेकिन अब ऐसा कहा जा रहा है कि यह इस तरह के सिस्टम को कंपनी व्यापक रूप से पेश करने वाली है।एपल एक फोटो आईडेंटिटी टूल की घोषणा करने की प्लानिंग कर रहा है , यह टूल आईओएस प्लेटफॉर्म पर फोटो लाइब्रेरी में बच्चों की अश्लील तस्वीरों की पहचान करेगा। एपल  अपने फ़ोन में न्युट्रलमैच नाम का एक नया अल्गोरिथम शामिल करेगी | ये अल्गोरिथम फ़ोन में स्टोर की जाने वाली तस्वीरों की लगातार जाँच करता रहेगा | फिलहाल , ये सिर्फ अमेरिका में बिकने वाले फ़ोन में डाला जाएगा | 

एपल ने न्यूट्रलमैच के बारे में इसी हफ्ते अमेरिका के कुछ विशेषज्ञों और सुरक्षा अनुसंधानकर्ताओं को जानकारी दी। उसके मुताबिक न्यूट्रलमैच एक ओटोमेटेड (स्वचालित) सिस्टम होगा, जो किसी तस्वीर के बारे में शक होने पर तुरंत मानव जांचकर्ताओं को अलर्ट कर देगा। 

कंपनी ने घोषणा की है कि उसकी आने वाले सभी डिवाइस नए क्रिप्टोग्राफिक एप्लिकेशन्स होंगे, जो अश्लील तस्वीरों को फैलने से रोकेंगे और यूजर्स की प्राइवेसी भी प्रभावित नहीं होगी। इसी तरह का एक फीचर सीरी भी आएगा। इस नए फीचर के जरिए अगर यूजर बच्चों से जुड़ी अश्लील सामग्री सर्च करेगा, तो यह फीचर उसे रोकेगा। साथ ही चाइल्ड और पैरेंट्स की ऑनलाइन सेफ्टी के लिए अतिरिक्त जानकारी भी देगा।

Related Articles

Leave a Reply

Your email address will not be published.

Back to top button