थॉमसन रॉयटर्स फाउंडेशन के साथ विशेष रूप से साझा किए गए शोध के अनुसार, मेटा – फेसबुक और इंस्टाग्राम का मालिक – अमेरिकी चुनाव से पहले नफरत फैलाने वाले भाषण को पूरी तरह से रोकने और संबोधित करने के लिए संघर्ष कर रहा है।
गैर-लाभकारी ग्लोबल विटनेस ने 6 सितंबर से 6 अक्टूबर के बीच 67 अमेरिकी सीनेट उम्मीदवारों के पेजों पर 200,000 टिप्पणियों का विश्लेषण करके परीक्षण किया कि फेसबुक राष्ट्रपति चुनाव से पहले नफरत भरे भाषण से कैसे निपट रहा था।
जब ग्लोबल विटनेस के शोधकर्ताओं ने फेसबुक के रिपोर्टिंग टूल का उपयोग करके 14 टिप्पणियों को चिह्नित किया, जिन्हें वे मेटा के “सामुदायिक मानकों” में मेटा के घृणास्पद भाषण नियमों का विशेष रूप से गंभीर उल्लंघन मानते थे, तो मेटा को प्रतिक्रिया देने में कई दिन लग गए।
शोधकर्ताओं द्वारा चिह्नित की गई टिप्पणियों में मुस्लिम और यहूदी लोगों को आपत्तिजनक रूप से संदर्भित किया गया था, और अमानवीय तरीके से एक उम्मीदवार के यौन अभिविन्यास के बारे में अनुमान लगाया गया था।
शोधकर्ताओं ने कहा कि ग्लोबल विटनेस द्वारा कंपनी को सीधे ईमेल करने के बाद मेटा ने फेसबुक से सभी 14 टिप्पणियों में से कुछ को नहीं बल्कि कुछ को हटा दिया।
परीक्षण की निगरानी करने वाले ग्लोबल विटनेस के शोधकर्ता एलेन जुडसन ने कहा, “इन पोस्टों की तुरंत समीक्षा करने में वास्तव में विफलता हुई।”
यह निष्कर्ष तब आया है जब मेटा को लंबे समय से दुनिया भर में चुनावों के दौरान एक स्वस्थ सूचना पारिस्थितिकी तंत्र को बढ़ावा नहीं देने के लिए शोधकर्ताओं, निगरानी समूहों और कानून निर्माताओं की आलोचना का सामना करना पड़ा है।
केवल अप्रैल में, यूरोपीय आयोग ने यह आकलन करने के लिए एक जांच शुरू की कि क्या मेटा ने यूरोपीय संसद चुनावों से पहले यूरोपीय संघ के ऑनलाइन सामग्री नियमों का उल्लंघन किया है।
जुडसन ने कहा कि फेसबुक द्वारा ग्लोबल विटनेस द्वारा चिह्नित की गई टिप्पणियों को संभालने का तरीका इस बात की ओर इशारा करता है कि प्लेटफॉर्म नफरत फैलाने वाले भाषण से कैसे निपटता है।
एक ईमेल में, मेटा के एक प्रवक्ता ने कहा कि ग्लोबल विटनेस का काम “टिप्पणियों के एक छोटे नमूने पर आधारित था और हमने उन्हें हटा दिया जो हमारी नीतियों का उल्लंघन करते हैं”।
प्रवक्ता ने कहा, “यह उस काम को प्रतिबिंबित नहीं करता है जो हमारी टीमें – जिसमें सुरक्षा और सुरक्षा पर काम करने वाले 40,000 लोग भी शामिल हैं – चुनाव से पहले हमारे मंच को सुरक्षित रखने के लिए कर रहे हैं।”
फेसबुक के सामुदायिक मानकों का कहना है कि ऐसी सामग्री जो “व्यक्तियों पर उनकी जाति, जातीयता, राष्ट्रीय मूल, लिंग, लिंग, लिंग पहचान, यौन अभिविन्यास, धार्मिक संबद्धता, विकलांगता या बीमारियों के आधार पर हमला करती है, उसे उल्लंघन माना जाता है”।
हालांकि यह स्पष्ट नहीं है कि कितने उपयोगकर्ता घृणास्पद भाषण के संपर्क में आए, लेकिन जुडसन ने कहा कि इसका प्रभाव बड़ा हो सकता है।
उन्होंने कहा, “ऑनलाइन दुरुपयोग का नकारात्मक मनोवैज्ञानिक प्रभाव हो सकता है और लोग राजनीति में रहने पर पुनर्विचार कर सकते हैं। बाहरी पर्यवेक्षकों के लिए, इस तरह के प्रवचन को देखकर शायद उन्हें यह आभास हो सकता है कि यह मेरे लिए जगह नहीं है।”
“थोड़ी मात्रा में दुरुपयोग अभी भी बहुत नुकसान पहुंचा सकता है।”
निवेश की कमी?
ट्विटर के पूर्व सार्वजनिक नीति अधिकारी – अब एक्स, थियोडोरा स्केडास ने कहा, यह विफलता आगामी अमेरिकी चुनाव से पहले चुनाव तैयारियों में निवेश की व्यापक कमी का हिस्सा है।
टेक पॉलिसी कंसल्टिंग के सीईओ स्केडास ने कहा, “उन्होंने राजनीतिक सामग्री की निगरानी के लिए कर्मचारियों की छंटनी की है और संसाधनों में कमी की है।”
पिछले कई वर्षों में, फेसबुक ने कई टीमों में अपने कर्मचारियों की संख्या कम कर दी है।
अमेरिका स्थित प्यू रिसर्च सेंटर के अनुसार, फेसबुक और इंस्टाग्राम संयुक्त राज्य अमेरिका में दूसरे और तीसरे सबसे लोकप्रिय सोशल मीडिया प्लेटफॉर्म हैं, 68% अमेरिकी वयस्कों ने बताया कि वे फेसबुक का उपयोग करते हैं, और 47% ने कहा कि वे इंस्टाग्राम का उपयोग करते हैं।
प्यू रिसर्च सेंटर ने पाया कि एक तिहाई से अधिक उपयोगकर्ता वर्तमान घटनाओं के बारे में जानकारी प्राप्त करने के लिए प्लेटफार्मों पर भरोसा करते हैं।
मेटा के अनुसार, उसके प्लेटफॉर्म पर नफरत फैलाने वाले भाषण का उल्लंघन करने वाली सामग्री की प्रासंगिकता बहुत कम है – फेसबुक पर लगभग 0.02% और इंस्टाग्राम पर 0.02% -0.03% के बीच, जिसका अर्थ है कि प्रत्येक 10,000 सामग्री दृश्यों में से लगभग 2 से 3 में नफरत फैलाने वाला भाषण होगा।
मेटा के प्रवक्ता ने थॉमसन रॉयटर्स फाउंडेशन को बताया कि 2024 की दूसरी तिमाही में, फेसबुक ने नफरत फैलाने वाली भाषण नीतियों का उल्लंघन करने के लिए 7.2 मिलियन सामग्री और अपनी बदमाशी और उत्पीड़न नीतियों का उल्लंघन करने के लिए 7.8 मिलियन सामग्री के खिलाफ कार्रवाई की।
लेकिन मेटा के पूर्व डेटा वैज्ञानिक जेफ एलन, जो गैर-लाभकारी इंटीग्रिटी इंस्टीट्यूट के सह-संस्थापक हैं, ने कहा कि नफरत फैलाने वाले भाषण को चिह्नित करने के लिए इस्तेमाल की जाने वाली स्वचालित प्रणालियाँ अक्सर बहुत कुछ चूक जाती हैं। उन्होंने कहा, वे किसी टिप्पणी के संदर्भ को समझने में विफल हो सकते हैं, या अपशब्दों या परोक्ष भाषा से मूर्ख बन सकते हैं।
एलन ने यह भी कहा कि फेसबुक जैसे प्लेटफॉर्म पोस्ट हटाने के मामले में बहुत सख्ती बरतने से सावधान रहते हैं, क्योंकि यह लोगों द्वारा ऑनलाइन बिताए जाने वाले समय में हस्तक्षेप कर सकता है।
उन्होंने कहा, “यदि आप सामग्री को हटाने के बारे में अधिक आक्रामक हैं, तो आप जुड़ाव को कम होते देखेंगे – व्यापार-बंद होंगे।”
फरवरी के एक ब्लॉग पोस्ट में चुनावों के लिए अपनी रणनीति को रेखांकित करते हुए, मेटा के वैश्विक मामलों के अध्यक्ष निक क्लेग ने लिखा: “कोई भी तकनीकी कंपनी मेटा की तुलना में ऑनलाइन चुनावों की सुरक्षा के लिए इतना कुछ नहीं करती है या अधिक निवेश नहीं करती है – न केवल चुनाव अवधि के दौरान बल्कि हर समय।”
क्लेग ने कहा कि कंपनी ने 2024 के अमेरिकी राष्ट्रपति चुनाव के प्रयासों में 20 अरब डॉलर से अधिक का निवेश किया, जो राजनीतिक विज्ञापन को पारदर्शी बनाने और मंच पर घृणा समूहों का पता लगाने वाली टीमों को मजबूत करने की मेटा की प्रतिबद्धता को उजागर करता है।
पारदर्शिता
चुनावों की सुरक्षा में मदद करने की फेसबुक की प्रतिज्ञा के बावजूद, हाल की कई रिपोर्टें ऐसे उदाहरणों की ओर इशारा करती हैं जहां झूठे विज्ञापन, चुनावी गलत सूचना और नफरत फैलाने वाले भाषण की अनुमति दी गई है।
अक्टूबर में, ग्लोबल विटनेस ने प्रमुख सोशल मीडिया प्लेटफ़ॉर्म के विज्ञापन सिस्टम का परीक्षण किया, जिसमें पाया गया कि चुनावी गलत सूचना वाले कुछ भुगतान किए गए विज्ञापन अभी भी स्वीकार किए जा रहे हैं और फेसबुक पर पोस्ट किए जा रहे हैं, भले ही प्लेटफ़ॉर्म ने अपनी समीक्षा प्रक्रिया में सुधार किया हो।
फोर्ब्स ने अक्टूबर में रिपोर्ट दी थी कि फेसबुक एक मिलियन डॉलर से अधिक के विज्ञापन चला रहा था, जिसमें गलत दावा किया गया था कि अमेरिकी चुनाव स्थगित हो सकते हैं या धांधली हो सकती है, जबकि ब्यूरो ऑफ इन्वेस्टिगेटिव जर्नलिज्म ने नवंबर में एक रिपोर्ट प्रकाशित की थी जिसमें कहा गया था कि ई-कॉमर्स कंपनियां फेसबुक के माध्यम से माल बेच रही थीं जिसमें समान सामग्री थी। झूठ. रिपोर्ट के मुताबिक, दोनों मामलों में मेटा ने कहा कि वह मामले की समीक्षा कर रहा है।
एलन जैसे शोधकर्ताओं का कहना है कि मेटा इस बारे में अधिक पारदर्शी हो सकता है कि वह घृणास्पद भाषण से कैसे निपटता है, कितने उपयोगकर्ताओं को उजागर किया गया है, इस पर डेटा जारी करके, यह समझाकर कि मानव समीक्षकों को कितनी बार पोस्ट सबमिट किए जाते हैं, और उनके स्वचालित सिस्टम कैसे काम करते हैं, इसके बारे में अधिक खुलासा करते हुए।
मेटा ने अगस्त में प्लेटफ़ॉर्म पर वायरल गलत सूचनाओं को ट्रैक करने के लिए बाहरी शोधकर्ताओं द्वारा व्यापक रूप से उपयोग किए जाने वाले टूल “क्राउडटैंगल” को चरणबद्ध तरीके से समाप्त कर दिया। इस कदम से इसका इस्तेमाल करने वाले समूहों और विशेषज्ञों की ओर से शिकायतें बढ़ गईं, लेकिन फेसबुक ने कहा कि उसने नए टूल पेश किए हैं जो उसके प्लेटफॉर्म पर गतिविधियों की पूरी तस्वीर देते हैं।
एलन ने कहा, “हमें नुकसान के पैमाने पर मेट्रिक्स की जरूरत है।”
ग्लोबल विटनेस ने कहा कि फेसबुक ने अपने शोध के निष्कर्षों पर उसके साथ बिल्कुल भी बातचीत नहीं की – उसे इस बारे में अंधेरे में छोड़ दिया गया कि अमेरिकी चुनाव से पहले के दिनों में घृणास्पद भाषण को कैसे संभाला जा रहा था।
ग्लोबल विटनेस के साथ जुडसन ने कहा, अधिक पारदर्शिता के बिना, यह जानना असंभव है कि इस महत्वपूर्ण समय में प्लेटफॉर्म दुरुपयोग को कितनी गंभीरता से ले रहे हैं, कंपनी के अपने नियमों के उल्लंघन को चिह्नित करने का काम बाहरी शोधकर्ताओं पर छोड़ दिया गया है।
उन्होंने कहा, “उनके लिए, यह हमेशा ‘कैच-अप’ स्थिति होती है, यह सक्रिय नहीं है।”
प्रकाशित – 05 नवंबर, 2024 08:28 पूर्वाह्न IST