فیس بک نفرت انگیز تقاریر روکنے میں ناکام

فیس بک نفرت انگیز تقاریر روکنے میں ناکام

مصطفیٰ ملک۔۔ کمیونیکیشن اسپیشلسٹ

mustafahere@gmail.com

جب سینکڑوں اشتہاری کمپنیوں نے  جولائی 2020 میں سوشل میڈیا سائٹ پر نفرت انگیز تقریر کے خلاف احتجاج کرنے کے لیے فیس بک کاررپوریشن پر  واجبات روک دیے، تو  فیس بک کےاعلیٰ حکام نے دفاعی موقف اختیار کرتے ہوئے کہا کہ کمپنی اپنے نیٹ ورکس پر نسل پرستی کے خلاف  بھرپور طریقے سے لڑ رہی ہے۔ اس وقت فیس بک کے انٹرنیشنل افیئر کے نائب صدر نک کلیگ نےکہا کہ "جب ہمیں فیس بک اور انسٹاگرام پر نفرت انگیز پوسٹیں ملتی ہیں، تو ہم  zero tolerance دکھاتے ہوئے انہیں ہٹا دیتے ہیں،" مگر کلیگ یہ بتانا بھول گئے کہ فیس بک کے اپنے تجزیہ کار اندرونی طور پر پریشان تھے کہ کمپنی کافی نفرت انگیز مواد کو ختم نہیں کر رہی ہے - اور یہ کہ ان کا پلیٹ فارم کچھ ایسے تشدد کو بھڑکا رہا ہے جس نے جارج فلائیڈ کے پولیس کے قتل پر مظاہروں کے دوران مینیپولیس کو اپنی لپیٹ میں لے لیا۔ فیس بک کے تجزیہ کاروں نے کلر کوڈڈ ہیٹ میپ پر پرتشدد اور نفرت انگیز مواد  کی رپورٹس مرتب کیں اور ایک چونکا دینے والا رجحان ان کے سامنے آیا: فلائیڈ کی موت کے چند گھنٹے بعد، دو منیاپولیس زپ کوڈز میں نفرت انگیز پوسٹس کی رپورٹس نے دکھایا کہ علاقے میں مظاہرین نے جنگی ماحول پیدا کر دیا ہے۔ فیس بک نےعلاقے کو سبز سے سرخ کے مختلف رنگوں میں تبدیل کرنا تھا۔ مگر نقشہ اب بھی زیادہ تر سبز تھا، جس میں صرف اکا دُکا نقصان  کا بتایا گیا۔ جب کہ محققین نے خبردارکیا کہ فیس بک کا پیٹرن سوشل میڈیا پوسٹس کو زمین پر فسادکا باعث ثابت نہیں کرتا، وہ حیران تھے کہ کیا فیس بک "صارفین تک تشدد اور نفرت انگیز تقاریرکے نقصان کو محدود کرنے کے لیے بہت کام کر رہا ہے۔" فیس بک کے الگورتھم نے ہمیشہ نازک اوقات میں نفرت انگیز تقاریرکو پھیلنے سے نہیں روکا ہے۔

• فیس بک کے ایگزیکٹوز طویل عرصے سے جانتے ہیں کہ فیس بک کا نفرت انگیز تقاریر کا مسئلہ عوامی طور پر ظاہر کرنے سے کہیں زیادہ بڑا اور گھمبیر تھا۔

• جبکہ Facebook انگریزی بولنے والے مغربی ممالک میں پرتشدد اور نفرت انگیز مواد کو جڑ سے اکھاڑ پھینکنے کو ترجیح دیتا ہے، لیکن یہ ترقی پذیر خطوں کو نظر انداز کرتا ہے جو سوشل میڈیا پر منفی سے حقیقی دنیا کے نقصان کا زیادہ خطرہ رکھتے ہیں۔

• ان کوششوں کے باوجود، فیس بک نے اس طرح کے مواد کو افلٹرکرنے والے ڈیپارٹمنٹ میں عملے کی لاگت کو کم کرنے کے طریقے تلاش کیے۔

فیس بک کی پالیسیاں جو صارف کے پوسٹ کردہ مواد کو کنٹرول کرتی ہیں لوگوں کے خلاف ان کی نسل، اصل ملک، مذہب، جنسی رجحان اور دیگر حساس معلومات کی بنیاد پر براہ راست حملوں  سے روکتی ہیں۔ ان میں Inhuman language پوسٹس احساس کمتری کے رحجانات،  دقیانوسی تصورات یا علیحدگی کے مطالبات شامل ہیں۔ حالیہ برسوں میں، کمپنی نے سفید فام علیحدگی پسندی کے نظریات پر پابندی لگانے کے لیے اپنی پالیسی کو  کو نئی شکل دی ہے نفرت انگیز تقریر کو پکڑنے کے لیے، Facebook تصاویر اور متن کو اسکین کرنے کے لیے مصنوعی ذہانت کے نظام کا استعمال کرتا ہے ۔ بعض اوقات وہ سسٹم خود بخود جارحانہ پوسٹس کو ہٹا دیتے ہیں۔ دوسری بار Facebook  مشتبہ نفرت انگیز تقریر کو ڈیمو کر دیتا ہے اور اسے حتمی فیصلے کے لیے  متعلقہ سٹاف کو بھیج دیتا ہے۔

 چیف ایگزیکٹو آفیسر مارک زکربرگ نے مارچ میں کانگریس کو بتایا کہ "نفرت انگیز تقاریر کا 95 فیصد سے زیادہ  حصہ ہم مصنوعی ذہانت کے نظام سے ہٹاتے ہیں اور اس میں کسی انسان کا عمل دخل نہیں ہوتا۔ لیکن زکربرگ کے اپنے ملازمین میں سے کچھ نے خبردار کیا کہ نہ تو فیس بک کے انسانی جائزہ لینے والے اور نہ ہی اس کے خودکار نظام کے ذریعے نفرت انگیز تقاریر کو  موثر انداز میں  پکڑا جا رہا ہے۔ دستاویزات سے پتہ چلتا ہے کہ عملی طور پر، کمپنی صرف 5% یا اس سے کم نفرت انگیز تقا ریرکو ہٹا رہی تھی۔ ایک بلاگ پوسٹ میں، فیس بک نے کہا کہ اس نے 2018 میں اس کی پالیسیوں کی خلاف ورزی کرنے والے مواد کی نگرانی اور ہٹانے کے لیے ایک حکمت عملی اپنائی، خاص طور پر ان ممالک میں جہاں آف لائن تشدد کا سب سے زیادہ خطرہ ہے۔ کمپنی نے کہا کہ وہ سماجی تناؤ اور مسائل میں عوامی رحجانات جیسے عوامل کا جائزہ لیتی ہے۔ نفرت انگیز تقاریرکو سوشل میڈیا کمپنیوں کے لیے ہینڈل کرنا کافی مشکل ہے، ایک ملک میں جارحانہ زبان کا مطلب دوسرے خطے میں بالکل مختلف ہو سکتا ہے۔ سیاہ فام یا ہم جنس پرستوں کو ناراض کرنے والے الفاظ جب ان کمیونٹیز کے ارکان استعمال کرتے ہیں تو انہیں بے قصور سمجھا جا سکتا ہے۔ اور قدامت پسند اور لبرل اکثر مخصوص ہاٹ بٹن ایشوز، جیسے ٹرانس جینڈر لوگوں کے حقوق پر نفرت انگیز تقاریرکو مختلف طریقے سے بیان کرتے ہیں۔ ٹیک کمپنیوں کو ایسے لوگوں کی ضرورت ہوتی ہے جو مختلف خطوں کی زبانوں اور ثقافتی باریکیوں کو سمجھتے ہوں تاکہ ان نظاموں کو درست طریقے سے تربیت دینے میں مدد کریں۔

 اور قدامت پسند اور لبرل اکثر مخصوص ہاٹ  ایشوز، جیسے ٹرانس جینڈر لوگوں کے حقوق پر نفرت انگیز تقاریرکو مختلف طریقے سے بیان کرتے ہیں۔ ٹیک کمپنیوں کو ایسے لوگوں کی ضرورت ہوتی ہے جو مختلف خطوں کی زبانوں اور ثقافتی باریکیوں کو سمجھتے ہوں تاکہ ان نظاموں کو درست طریقے سے تربیت دینے میں مدد کریں۔

دستاویزات سے پتہ چلتا ہے کہ فیس بک وہی حکمت عملی جانتا ہے جو وہ اپنے 2.9 بلین صارفین کو ہر ماہ Retain  رکھنےکے لیے استعمال کرتا ہے جو اس کے نیٹ ورکس پر نفرت انگیز تقاریرکو اتنی تیزی سے پھیلا دیتا ہے۔ 2018 میں، فیس بک نے صارفین کو برانڈز اور پبلشرز کے مواد کی بجائے دوستوں اور خاندانی   activities کے حوالے سے پوسٹس دکھانا شروع کیں۔ اس کا مطلب نوزائیدہ بچوں اور شادیوں کے بارے میں پوسٹس کو فروغ دینا تھا بلکہ ایسے مواد کے لیے بھی جو  جذبات کو جنم دیتے ہیں، فیس بک کےایک ملازم نے 2019 میں لکھا، "تحقیق نے دکھایا ہے کہ کس طرح غصے اور غلط معلومات والی پوسٹس کے وائرل ہونے کا زیادہ امکان ہوتا ہے۔"

فیس بک پہلے ہی جانتا ہے کہ کون سے لوگ اور گروپس تعصب پھیلانے کا سب سے زیادہ رحجان رکھتے ہیں، لیکن وہی صارفین اکثر صارفین فیس بک کی کاروائی سے بھی بچ نکلتے ہیں۔، ریکارڈ سے پتہ چلتا ہے۔ اگست 2020 کی ایک  رپورٹ کے مطابق، امریکہ میں بہت سے صارفین جو  نفرت انگیز تقاریر پھیلانے کے عادی مجرم ہیں  وہ بھی باقاعدگی سے غلط معلومات شیئر کرتے ہیں، اور ان میں سے 99% سائٹ پر ایکٹورہتے ہیں، ۔ وہ اکثر ہم خیال گروہوں میں شامل ہوتے ہیں جو جھوٹ اور تعصب کو فروغ دیتے ہیں لیکن ان کے ساتھی گروپ ممبران کی طرف سے قواعد کو توڑنے کے لیے شاذ و نادر ہی اطلاع دی جاتی ہے۔ دستاویزات سے پتہ چلتا ہے کہ فیس بک نفرت انگیز تقاریرکو اپنا چوتھا سب سے زیادہ وقت طلب رنے مسئلہ قرار دیتا ہے لیکن فیس بک انتظامیہ مغربی دنیا سے باہر کے ممالک کو بہت کم وسائل مہیا کرتا ہے۔ ایک رپورٹ میں کہا گیا ہے کہ کمپنی نے نفرت انگیز تقاریر کی تربیت کا تقریباً 60 فیصد وقت صرف سات زبانوں پر صرف کیا، جس میں انگریزی ایک چوتھائی کی نمائندگی کرتی ۔ افغانستان میں، جہاں کمپنی کے ہر ماہ 5 ملین صارفین ہوتے ہیں، محققین  کو پتہ چلا کہ افغانستان میں نفرت انگیز تقاریر،بدسلوکی اور ایذا رسانی کے واقعات دنیا میں دوسرے نمبر پر آتے ہیں  مگر فیس بک نے  وہاں نفرت انگیز تقاریر روکنے کیلئےصرف 0.23 فیصد پر عمل کیا۔

اگر یہ کہا جائے کہ  نفرت انگیز تقاریر روکنافیس بک انتظامیہ کی اولین ترجیح نہیں ہے کیونکہ اس حوالے سے فیس بک کی اپنی پالیسیوں میں تضاد ہے۔ نفرت انگیز تقاریر کے حوالے سے فیس بک کی پالیسی امیر ملکوں کیلئے کچھ اور ہے ،غریب اور ترقی پذیر ممالک کیلئے کچھ اور۔ فیس بک کا اولین مقصد صارفین کی تعداد بڑھانا اور اپنے بزنس کو بڑھاوا دینا ہے، یہی وجہ ہے کہ وہ اپنے پلیٹ فارم پر hate speech جیسے اہم موضوع  سے بھی صرف نظر کر جاتا ہے۔ 

مصنف کے بارے میں