نفرتپراکنی و شبکههای اجتماعی
نفرتپراکنیِ آنلاین علاوه بر ترویج کلیشهها و تصورات نادرست منفی از بعضی گروهها، تأثیری کاملاً واقعی بر افراد دارد...اینترنت، هویتسازی پیرامون نژاد و قومیت را امکانپذیر میکند. شاید بدترین تأثیر این پیامهای منفی این باشد که مردم چیزهایی را که در شبکههای اجتماعی دربارهی آنها گفته میشود باور میکنند و فرودستی خود را میپذیرند. به نظر پژوهشگران مطالعات نژادی انتقادی، نفرتپراکنی نوعی حمله است که به افراد آسیب میرساند.
در دهههای اخیر، محل جدیدی برای اشاعهی نفرتپراکنی پیدا شده است: شبکههای اجتماعی. این شبکهها به تکتک کاربران اجازه میدهند که نظرات خود را با جهانیان در میان بگذارند. ترکیب شبکههای اجتماعی و امکان ناشناس ماندن در اینترنت محیطی را ایجاد کرده که نفرتپراکنی در آن میتواند گسترش یابد. در نظرسنجیای در سال ۲۰۱۷، از هر ده آمریکایی یک نفر گفت که در فضای مجازی به علت نژاد، جنسیت یا قومیتش آزار دیده است. از هر چهار آمریکایی آفریقاییتبار یک نفر، و از هر ده آمریکایی لاتینتبار یک نفر گفت که به علت نژاد یا قومیتش در اینترنت آزار دیده است. نفرتپراکنی در فیسبوک، اینستاگرام، توئیتر، یوتیوب و تقریباً هر شبکهی اجتماعی دیگری به چشم میخورد. هرچند هیچ آمار جهانیای از نفرتپراکنی در شبکههای اجتماعی وجود ندارد اما گزارش شفافیت فیسبوک حاکی از آن است که در سه ماههی اول سال ۲۰۲۰، این شرکت دربارهی ۹/۶ میلیون مطلب اقدامات مقتضی را انجام داده است.
واژگان، تصاویر و نمادهای تنفرآمیزی که در شبکههای اجتماعی منتشر میشود، میتواند به شدت بر افراد و جوامع تأثیر بگذارد. نفرتپراکنی در شبکههای اجتماعی کلیشهها را اشاعه میدهد، از نظر عاطفی و روانشناختی به قربانیان آسیب میرساند، و اغلب از گفتگو در فضای مجازی جلوگیری میکند. بر اساس یکی از تحقیقات جدید، صفحات فیسبوکیِ موهنی که توسط چند شهروند دانمارکی دستکاری شده بود تا به صفحات گروههای جهادی شباهت یابد به احساسات منفی نسبت به مسلمانان در دانمارک دامن زد. مطالب منتشرشده در شبکههای اجتماعی در چند مورد از خشونتهای ناشی از سوگیری و تعصب نقش داشتهاند. برای مثال، عامل کشتار در کنیسهی شجرهی حیات در پیتسبورگ در سال ۲۰۱۸، عضو شبکهی اجتماعی «گب» بود که مقر افراطگرایان راندهشده از شبکههای اجتماعی بزرگتر است. او با انتشار توطئهبافیهایی دربارهی یهودیان در این شبکهی اجتماعی ادعا کرده بود که آنها میخواهند سفیدپوستان را به اقلیتی در آمریکا تبدیل کنند. عامل کشتار سال ۲۰۱۹ در ال پاسو در تگزاس، که ۲۲ کشته و ۲۴ زخمی بر جای گذاشت، با انتشار مطلبی چهارصفحهای در سایت 8chan به ترویج پروپاگاندای نژادپرستانه و ناسیونالیستی پرداخته و مهاجران را به سرقت شغلهای آمریکاییها متهم کرده بود.
نفرتپراکنیِ آنلاین علاوه بر ترویج کلیشهها و تصورات نادرست منفی از بعضی گروهها، تأثیری کاملاً واقعی بر افراد دارد. همانطور که جسی دنیلز نشان داده است، اینترنت، هویتسازی پیرامون نژاد و قومیت را امکانپذیر میکند. شاید بدترین تأثیر این پیامهای منفی این باشد که مردم چیزهایی را که در شبکههای اجتماعی دربارهی آنها گفته میشود باور میکنند و فرودستی خود را میپذیرند. به نظر پژوهشگران مطالعات نژادی انتقادی، نفرتپراکنی نوعی حمله است که به افراد آسیب میرساند.
نفرتپراکنی در شبکههای اجتماعی میتواند مانع از اظهار نظر و مشارکت سیاسی زنان، رنگینپوستان و اقلیتهای جنسی شود. دنیل کیتس سیترون و هلن نورتون نظریهای دربارهی شهروندی دیجیتال ارائه دادهاند که نشان میدهد فعالیتهای آنلاین از چه راههایی مشغولیت مدنی، مشارکت سیاسی و گفتگوی عمومی را افزایش میدهد. به نظر سیترون، افرادی که هدف نفرتپراکنی آنلاین قرار میگیرند، از مشارکت در شبکههای آنلاین خود بازمیمانند. در سال ۲۰۱۶، ویجایا گاده، مدیر بخش حقوقی توئیتر، در سرمقالهای در «واشنگتن پست» تأیید کرد که اگر توئیتر از نفرتپراکنی جلوگیری نکند، آزادی بیان به عنوان یکی از اصول اساسی این شرکت بیمعنا خواهد شد زیرا مردم از اظهار نظر میترسند...
چارچوب حقوقی
به استثنای آلمان، کشورها و نهادهای بینالمللیای نظیر سازمان ملل و اتحادیهی اروپا عموماً عقیده ندارند که شرکتهای شبکههای اجتماعی مسئول حرفهای کاربران خود هستند. بر اساس قوانین رسمی این کشورها و سازمانها، نفرتپراکنی ممنوع است و نفرتپراکنان مستحق مجازاتاند اما شرکتهای شبکههای اجتماعی مسئول رفتار کاربران نیستند.
هرچند نفرتپراکنی در آمریکا قانونی است اما سازمانهای شبکههای اجتماعی، فضاهای مجازیِ خصوصی به شمار میروند و بنابراین ملزم به پایبندی به متمم اول قانون اساسی نیستند و میتوانند آزادی بیان را در شبکههای اجتماعی محدود کنند. میان افراد و شرکتی مثل یوتیوب یا توئیتر قراردادی وجود دارد و کاربران ملزم به رعایت این شروط هستند. شبکههای اجتماعی میتوانند با حذف مطالب یا حسابها کاربرانی را که موازین و قوانین این شبکهها را نادیده میگیرند، مجازات کنند. با وجود این، دولت آمریکا به ندرت مداخله میکند. بر اساس بند ۲۳۰ «قانون ضوابط اخلاقی ارتباطات»، ارائهدهندگان خدمات رایانهای دوسویه در آمریکا ــ از جمله ارائهدهندگان خدمات اینترنتی و شرکتهای شبکههای اجتماعی ــ ناشر و، در نتیجه، مسئول رفتار شخص ثالث در سایتهای خود نیستند.
در آمریکا رویکرد دولت مبتنی بر عدم مداخله در کنترل نفرتپراکنی در شبکههای اجتماعی است اما در سال ۲۰۱۷، آلمان قانونی را تصویب کرد که بر اساس آن شرکتهای شبکههای اجتماعیِ دارای بیش از دو میلیون کاربر باید مطالب مغایر با محدودیتهای وضعشده در «قانون جزایی آلمان» علیه نفرتپراکنی را حذف یا دسترسی به آنها را مسدود کنند. شرکتها باید «نفرتپراکنی آشکار» را طی ۲۴ ساعت پس از دریافت اخطاریه حذف کنند؛ در غیر این صورت، ممکن است ۵۰ میلیون یورو جریمه شوند. به عقیدهی مدافعان این قانون، چنین قانونی ضروری است زیرا شرکتهایی مثل فیسبوک و توئیتر را ترغیب میکند که با جدیت بیشتری با نفرتپراکنی در سایتهای خود مقابله کنند. به نظر مخالفان، این قانون آزادی بیان را بیش از اندازه محدود میکند و احتمالاً به حذف مطالبی خواهد انجامید که باید قانونی و مجاز به شمار رود. مجمع ملی فرانسه نیز در ژوئیهی ۲۰۱۹، قانونی را تصویب کرد که شرکتهای شبکههای اجتماعی را به حذف نفرتپراکنی آشکار ملزم میکند؛ شرکتهایی که چنین نکنند ممکن است حداکثر ۱/۴ میلیون یورو جریمه شوند. بر اساس این قانون، شبکههای اجتماعی باید دکمهی جدیدی ایجاد کنند تا کاربران آسانتر بتوانند موارد نفرتپراکنی را گزارش دهند.
بسیاری از دولتها علاوه بر وضع موازین قانونی برای مقابله با نفرتپراکنی در شبکههای اجتماعی، توافقنامههایی با شرکتهای شبکههای اجتماعی به منظور همکاری برای پرداختن این مسئله امضاء کردهاند. پس از حملهی سال ۲۰۱۹ به دو مسجد در نیوزیلند، رهبران جهان با مدیران فیسبوک، توئیتر، گوگل و دیگر شرکتها دیدار و رهنمودهایی موسوم به «فراخوان کرایستچرچ» را برای مقابله با نفرتپراکنی و ترویج خشونت در فضای مجازی تهیه کردند. جالب این که آمریکا این توافقنامه را امضا نکرد. اکنون کمیسیون اروپا سرگرم همکاری مستقیم با شرکتهای شبکههای اجتماعی ــ از جمله فیسبوک، توئیتر و یوتیوب ــ است تا با نفرتپراکنی در اروپا مقابله کند. در مه ۲۰۱۶، این گروه «آییننامهی مقابله با نفرتپراکنیِ غیرقانونی در فضای مجازی» را منتشر کرد. بر اساس گزارش فوریهی ۲۰۱۹، «اکنون شرکتهای فناوری اطلاعات ۸۹ درصد از مطالب گزارششده را طی ۲۴ ساعت ارزیابی و ۷۲ درصد از مطالبی را که نفرتپراکنیِ غیرقانونی به شمار میرود، حذف میکنند. این در حالی است که این ارقام در آغاز وضع این آییننامه به ترتیب ۴۰ و ۲۸ درصد بود.» در آمریکا، فیسبوک، توئیتر، گوگل و میکروسافت دست به دست «اتحادیهی ضد افترا» داده و «آزمایشگاه مشکلگشایی از نفرت سایبری» را ایجاد کردهاند.
بهرغم این تلاشها برای کاهش نفرتپراکنی در شبکههای اجتماعی، مشکل همچنان پابرجا است. برای فهم علت این امر باید فرایند تعدیل محتوا را به دقت بررسی کنیم تا از اقدامات شرکتهای شبکههای اجتماعی و میزان ثمربخشی آن آگاه شویم.
تعدیل محتوا
بهترین راه برای تعریف تعدیل محتوا این است که آن را مجموعهای از روشها با ویژگیهای مشترکی بدانیم که برای نظارت بر محتوای تولیدشده توسط کاربران و تصمیمگیری دربارهی باقی ماندن آن در شبکههای اجتماعی به کار میرود. این فرایند اغلب سه مرحلهی متمایز دارد: بازبینیِ سردبیری، شناسایی خودکار، و گزارش جمعی. سازمانهای شبکههای اجتماعی همهی انواع محتواهای بالقوه مضر ــ از جمله نفرتپراکنی، خشونت یا تحریک، برهنگی بزرگسالان، سوءاستفادهی جنسی از بزرگسالان، تقاضای جنسی، خودکشی/آسیب رساندن به خود، قلدری/مزاحمت، برهنگی کودکان، نقض حریم خصوصی، ترویج جرم، یا فروش کالاهای غیرمجاز ــ را بازبینی میکنند...
بازبینی سردبیری
بازبینی سردبیری، نخستین مرحله در فرایند تعدیل محتوا، عبارت است از نظارت بر محتوا پیش از انتشار آن؛ برای مثال، میتوان به امتیاز دادن به فیلمها پیش از نمایش عمومی آنها اشاره کرد. در مورد شبکههای اجتماعی، منظور از بازبینی سردبیری اغلب موازین عمومی وضعشده توسط شبکههای اجتماعی است. شیوهی وضع و اجرای موازین در هر یک از این شبکهها متفاوت است؛ یکی از دلایل این امر آن است که اغلب تعریف آنها از نفرتپراکنی اندکی با یکدیگر فرق دارد ــ بعضی حتی در اشاره به این امر از اصطلاحات متفاوتی مثل «نفرتپراکنی»، «رفتار نفرتانگیز»، «گفتار مغرضانه» و «تصویر نفرتانگیز» استفاده میکنند. معمولاً تعریف یک سازمان شبکهی اجتماعی از نفرتپراکنی دو بخش دارد: (۱) نیت پنهان در پس گفتار سوگیرانهی یک کاربر، و (۲) هدف قرار دادن «گروههای حفاظتشده»ای از مردم که حذف محتوای سوگیرانه را الزامی میکند.
برای مثال، بنا به تعریف فیسبوک، نفرتپراکنی عبارت است از «حملهی مستقیم به افراد» بر اساس نژاد، قومیت، ملیت، دین، گرایش جنسی، طبقه، جنسیت، هویت جنسی، بیماری حاد یا معلولیت، و وضعیت مهاجرتی. فیسبوک حمله را «گفتار خشونتآمیز یا انسانیتزدا» میداند. مثالهایی که فیسبوک از گفتار انسانیتزدا ارائه میدهد مقایسهی افراد با حیوانات یا حشرات را دربرمیگیرد. بر اساس قوانین فیسبوک، سخنان حاکی از زیردستیِ جسمانی، عقلانی یا اخلاقی یک فرد یا گروه به علت ویژگیهای هویتی آنها نیز نفرتپراکنی به شمار میرود. به نظر فیسبوک، دعوت به طرد یا جداسازی یک فرد یا گروه بر اساس ویژگیهای هویتی آنها نفرتپراکنی است. این شرکت دشنامهای نژادی، قومی، زنستیزانه و همجنسگراهراسانه را هم نفرتپراکنی میداند. فیسبوک انتقاد از سیاستهای مهاجرتی و حمایت از محدود کردن این سیاستها، و طنز و تفسیر اجتماعی دربارهی این سیاستها را مجاز میشمارد.
در حالی که فیسبوک نفرتپراکنی را ممنوع میداند، توئیتر از ممنوعیت «رفتار نفرتانگیز» و «تصاویر و کلمات نفرتانگیز» سخن میگوید. توئیتر کاربران را از ترویج خشونت یا تهدید دیگران بر اساس نژاد، قومیت، ملیت، گرایش جنسی، جنسیت، هویت جنسی، تعلقات دینی، سن، معلولیت یا بیماری حاد آنها منع میکند. این شرکت به حسابهایی که هدف اصلیشان تحریک افراد به آسیب رساندن به دیگران از طریق نفرتپراکنی است اجازهی فعالیت نمیدهد. استفاده از واژههای «تحریک» و «تهدید»، اشارهای آشکار به موارد مستثنا از متمم اول قانون اساسی آمریکا است. توئیتر، که در کل بیشتر از فیسبوک و یوتیوب به محافظت از آزادی بیان پایبند است، به طور خاص بر حملاتی تمرکز میکند که شامل تهدیدهای خشونتآمیز، ابراز علاقه به آسیب رساندن جدی به دیگران، اشاره به کشتار یا خشونت علیه گروههای محافظتشده، تحریک خشونت، یا کاربرد مکرر انگها، افتراها یا کلیشههای نژادپرستانه و جنسیتزده است. بر اساس این قوانین، اگر کسی فقط یک بار به انگ یا افترای نژادپرستانه متوسل شود سیاست توئیتر را نقض نکرده است ]و بنابراین نمیتوان حساب او را حذف کرد[. توئیتر به صراحت انتشار تصاویر نفرتانگیز را هم ممنوع میکند.
بنا به قوانین یوتیوب، نفرتپراکنی در این وبسایت مجاز نیست. این شرکت میگوید که مطالب مروج خشونت یا نفرت علیه افراد یا گروهها بر اساس ویژگیهای زیر را حذف میکند: سن، طبقه، معلولیت، قومیت، هویت جنسی، ملیت، نژاد، وضعیت مهاجرتی، دین، جنسیت، گرایش جنسی، قربانیان یک رویداد خشونتآمیز مهم و خویشاوندان آنها یا کهنهسربازان. یوتیوب به طور مشخص ویدیوها یا نظرات تهدیدآمیز یا مشوق خشونت علیه افراد یا گروهها بر اساس ویژگیهای فهرستشده در سیاست خود را حذف میکند. همچون توئیتر، یوتیوب نیز نفرتپراکنی علیه گروههای هویتیِ حفاظتشده را ممنوع کرده است. یوتیوب مثالهایی از مطالب ناقض سیاست خود ارائه کرده است که از میان آنها میتوان به این موارد اشاره کرد: گفتار انسانیتزدایی که افراد یا گروهها را مادونانسان بشمارد یا آنها را با حیوانات یا حشرات مقایسه کند. مطالب مروج خشونت علیه گروههای حفاظتشده، حاوی انگهای نژادی، قومی یا دینی، یا کلیشههای نفرتپراکنانه همگی ممنوعاند. یوتیوب هرگونه ادعای فرودستیِ ذهنیِ افراد یا گروهها، طلب انقیاد یا انکار اتفاقات خشونتآمیز مستندی مثل هولوکاست را ممنوع کرده است. بر اساس قوانین یوتیوب، نفرتپراکنی میتواند به صورت گفتار، نوشتار یا تصویر باشد.
شبکههای اجتماعی دربارهی مقولههای حفاظتشده همرأی نیستند. فیسبوک، توئیتر و یوتیوب همگی عقیده دارند که نژاد، قومیت، دین، گرایش جنسی، جنسیت، هویت جنسی و معلولیت جزئی از این مقولهها هستند. با وجود این، همهی شبکههای اجتماعی دربارهی ممنوعیت نفرتپراکنی بر اساس سن، بیماری، وضعیت مهاجرتی و کهنهسربازیِ افراد اتفاق نظر ندارند. ناهماهنگی میان شبکههای اجتماعی میتواند به سردرگمی بینجامد زیرا ممکن است در یکی از آنها نفرتپراکنی علیه نوعی هویت فردی خاص ممنوع، و در دیگری مجاز باشد. برای مثال، فیسبوک و یوتیوب مقایسهی افراد و گروهها با حیوانات و حشرات را نفرتپراکنی میدانند اما چنین مقایسههایی در توئیتر به طور مشخص ممنوع نیست و در عوض استفادهی مکرر از انگ و افترا و تصاویر نفرتانگیز، ممنوع است. به همین ترتیب...در بین این سه شبکهی اجتماعی فقط یوتیوب است که انکار هولوکاست را به طور مشخص ممنوع کرده است.
هرچند ممکن است که فیسبوک، توئیتر، یوتیوب و دیگر شبکههای اجتماعی تعریف متفاوتی از نفرتپراکنی ارائه کنند اما همگی از ساختار واحدی برای اجرای این دستورالعملها پیروی میکنند. پژوهشگران با تحلیل محتوای واکنشهای گوناگون این شبکهها به نقض قوانین از سوی کاربران دریافتند که نقض سیاستها میتواند هشت پیامد احتمالی داشته باشد: وضع محدودیتهایی علیه حساب کاربری، ارسال هشدار به کاربر، حذف مطلب، تعلیق حساب، حذف حساب، همکاری با پلیس، و مسدود کردن دسترسی به مطالب و نظرات کاربر و جلوگیری از ارتباط او با دیگران بیآنکه خودش بداند ــ روش موسوم به «ممنوعیت از طریق پنهان کردن». در آمریکا حسابهای شبکههای اجتماعی چند راستگرای افراطیِ سرشناس به علت نقض مستمر سیاستهای این شرکتها به طور دائم بسته شده است. مایلو یانوپولوس و الکس جونز، یکی از مروجان توطئهباوری، برای همیشه از فعالیت در توئیتر محروم شدهاند. هرچند این مجازات به ندرت اِعمال میشود اما ابزار مؤثری است. با حذف حساب کسانی که به طور مکرر و فاحش به قوانین شبکههای اجتماعی بیاعتنایی میکنند، این شرکتها بلندگو را از آنها میگیرند و ترویج این نظرات را به شدت دشوارتر میکنند. دو سال پس از بسته شدن حساب مایلو یانوپولوس در توئیتر، تداوم لغو سخنرانیها و حمایتهای مالی از او سبب شده بود که بیش از ۴ میلیون دلار بدهکار شود.
شبکههای اجتماعی سازمانهای مستقلی هستند که میتوانند اظهار نظر را به صلاحدید خود به نفع کاربران، آگهیدهندگان و سرمایهگذارانشان کنترل کنند. قوانین این شبکهها لازمالاجرا است. نقض این مقررات میتواند به بسته شدن حساب افراد یا سازمانها بینجامد و آنها را از ارتباط با میلیاردها کاربر در سراسر دنیا محروم کند.
شناسایی خودکار
مرحلهی بعدی در تعدیل محتوا عبارت است از شناسایی خودکار با استفاده از نرمافزارهای پیچیده. شبکههای اجتماعی برای حذف محتوای مغایر با قوانین خود به الگوریتم و هوش مصنوعی تکیه میکنند. بر اساس «گزارش شفافیت سه ماههی نخست سال ۲۰۲۰» فیسبوک، این شرکت ۸۹ درصد از موارد نفرتپراکنی را پیش از گزارش کاربران حذف کرد. تحقیقات اخیر حاکی از دستیابی به الگوریتمهای مناسبی برای حذف نفرتپراکنی از شبکههای اجتماعی است...
این امر نویدبخش است اما نباید از یاد برد که ممکن است الگوریتمها و هوش مصنوعی از سوگیریِ ضمنیِ برنامهنویسها متأثر باشند. صفیه نوبل، دانشیار دانشگاه یوسیالای، در کتاب «الگوریتمهای ظلم و ستم»، نشان میدهد که الگوریتمهای جستوجوی آنلاین میتوانند متأثر از نژادپرستی و تبعیض جنسی باشند. گرچه او به طور خاص به تعدیل محتوای شبکههای اجتماعی نمیپردازد اما به ما یادآوری میکند که سوگیریهای ضمنیِ برنامهنویسان میتواند در حذف بعضی انواع نفرتپراکنی یا نادیده گرفتن آنها نقش داشته باشد. برای مثال، اگر یک مهندس مقایسهی انسان با حیوانات را نفرتپراکنی نداند، ممکن است این مقایسه را در الگوریتم خود نگنجاند. این مسئله توجه ما را به دشواریِ خلق هوش مصنوعی و الگوریتمهایی جلب میکند که بتوانند بین دو چیز تمایز قائل شوند: نفرتپراکنی ممنوع در قوانین و مقررات شبکههای اجتماعی و اظهار نظری که ممکن است به عقیدهی بعضی از کاربران اهانتآمیز باشد. ممکن است چیزی که یک الگوریتم نفرتپراکنی بپندارد در واقع شوخیِ تقریباً بیضرری میان چند کاربر باشد. بنابراین، باید به این مسئله هم توجه کرد که چه کسی دارد اصطلاحات خاصی را به کار میبرد. فرق است میان زنی که به شوخی دوستش را «پتیاره» میخواند و مردی که این واژه را در اشاره به یک زن به کار میبرد.
حجم زیاد مطالبی که اکنون از طریق شناسایی خودکار حذف میشود پرسشهایی را دربارهی ماهیت این مطالب برمیانگیزد. برای مثال، فیسبوک در گزارشهای شفافیت خود جزئیات خاصی را دربارهی مطالب حذفشده ارائه نمیکند. این مسئله بهویژه وقتی نگرانکننده میشود که این واقعیت را در نظر بگیریم که این مطالب پیش از قرار گرفتن در معرض دید و ارزیابی کاربران حذف میشوند.
گزارش جمعی
آخرین، و شاید مشهودترین، مرحلهی تعدیل محتوا عبارت است از گزارش جمعی که طی آن کاربران از محتوایی که به نظرشان قوانین و مقررات شبکههای اجتماعی را نقض میکند، شکایت میکنند. سپس کارمندان با بررسی این محتوا دربارهی جلوگیری از دسترسی، حذف یا باقی نگه داشتن آن در سایت تصمیم میگیرند.
شبکههای اجتماعی میلیاردها کاربر در سراسر جهان دارند و بازبینی مطالب کار شاقی است. برای مثال، کاربران فیسبوک هر روز از بیش از یک میلیون مطلب شکایت میکنند. شبکههای اجتماعی اغلب این کار را از طریق برونسپاری به سازمانهای دیگری مثل آپورک، سادرلند و دلویت واگذار میکنند. کارکنان این سازمانها در نقاط گوناگونی در سراسر دنیا پراکندهاند و این کار را معمولاً کارمندان دونپایه با دستمزد بسیار کمی در خفا انجام میدهند. برای مثال، درآمد سالانهی یک کارمند معمولی فیسبوک ۲۴۰ هزار دلار است، در حالی که کارمندی که در یکی از سازمانهای پیمانکار به تعدیل محتوا مشغول است، سالانه فقط ۲۸ هزار دلار حقوق میگیرد. هر یک از این کارمندان هر هفته ۱۵۰۰ مطلب خشونتآمیز، نفرتانگیز یا ناراحتکننده را بازبینی میکنند و در نتیجه به شوک ناشی از ترس و دیگر اختلالات روانی مبتلا میشوند. در سال ۲۰۲۰، فیسبوک پذیرفت که برای جبران خسارت ناشی از اختلالات روانی- از جمله اختلال روانی بعد از سانحه، به ۱۱۲۵۰نفر از این کارمندان ۵۲ میلیون دلار غرامت بپردازد.
علاوه بر تأثیر این شغل بر سلامت روانی کارمندان، وجهه و دستمزد ناچیز آن هم مشکلآفرین است. این افراد باید تصمیم بگیرند که آیا مطلب گزارششده واقعاً نفرتپراکنی است یا صرفاً توهینآمیز است. تعیین حد و مرز میان نفرتپراکنی و اهانت بسیار دشوار، زمانبر و محتاج آموزش است. شبکههای اجتماعیای مثل فیسبوک برای این فرایند اولویت قائل نیستند؛ این امر نشان میدهد که شاید این شرکت آنقدر که ادعا میکند به حذف نفرتپراکنی از وبسایت خود اهمیت نمیدهد. اگر با نگاه بدبینانه به این مسئله بنگریم، میتوان گفت که شاید فیسبوک و دیگر شبکههای اجتماعی به مطالب مناقشهانگیز ــ از جمله نفرتپراکنی ــ علاقه دارند زیرا کاربران را فعال و سرگرم نگه میدارد. افزایش فعالیت و توجه کاربران به معنای جذب آگهیهای بیشتر است.
اگر خوشبین باشیم، میتوان گفت که فیسبوک مشغول ایجاد فرایندی است که به کاربران اجازه میدهد تا دربارهی آنچه به نظرشان تصمیمات نادرست یا نامنصفانه دربارهی حذف مطالب است، قضاوت کنند. فیسبوک سرگرم ایجاد هیئت نظارتی برای بازبینی موارد مناقشهانگیز تعدیل محتوا است. بر اساس پیشنویس منشور این شرکت، فیسبوک میخواهد ۴۰ نفر را به عضویت هیئتی جهانی منصوب کند. فعلاً معلوم نیست که این هیئت چند مورد را بازبینی خواهد کرد، گرچه فیسبوک گفته است که هر مورد توسط سه تا پنج نفر از اعضای این هیئت بازبینی خواهد شد تا تصمیم نهایی را اخذ کنند و علت را برای کاربران توضیح دهند. اما فعلاً کاربران برای اعتراض به تصمیم مسئولان تعدیل محتوا چندان فرصتی ندارند.
گرچه هر یک از شبکههای اجتماعی آمیزهای از بازبینی سردبیری، شناسایی خودکار و گزارش جمعی را برای نظارت بر محتوا در وبسایتهای خود به کار میبرند اما دربارهی هر یک از مراحل فرایند تعدیل محتوا باید به چند مسئله اشاره کرد. فهم و اجرای قوانین و مقررات این شبکهها باید برای کاربران آسان باشد. افزون بر این، پاسخ شرکتها به موارد نقض این قوانین باید منسجم باشد تا نتوان آنها را به سوگیری در اجرای سیاستها متهم کرد. در هنگام استفاده از هوش مصنوعی و الگوریتمها برای حذف محتوا باید سوگیریِ ضمنیِ مهندسان نرمافزار را در نظر گرفت تا بتوان بیطرفیِ فناوری را تضمین کرد. با توجه به نقش مهم مجریان تعدیل محتوا در متمایز کردن نفرتپراکنی از توهین، شبکههای اجتماعی باید به گزارش جمعی و بازبینیِ متعاقب آن بیشتر اهمیت دهند.
استنباط عمومی از فرایند تعدیل محتوا
کاربران شبکههای اجتماعی معمولاً از طرز کار فرایند تعدیل محتوا خبر ندارند. سارا مایرز وست در تحقیقی استنباط کاربران از نقش شرکتهای شبکههای اجتماعی در تعدیل محتوای خود، برداشت آنها از نوع مطالب حذفشده، و تأثیر این امر بر اظهار نظر علنی مردم را بررسی کرد. پژوهش او نشان داد که کاربران از چرایی و چگونگی حذف مطالب خود تصور دقیقی ندارند. اکثر آنها عقیده داشتند که مطالبشان به این علت حذف شده که کسی مداخله کرده ــ یعنی دیگر کاربران از آن مطالب شکایت کردهاند ــ در حالی که در واقع نقش اصلی بر عهدهی هوش مصنوعی است. بعضی از کاربران حذف مطالب را ناشی از سوگیری سیاسی شرکتهای شبکههای اجتماعی میدانستند. این امر، دستکم تا حدی، معلول این واقعیت است که اظهار نظرهای به شدت بیادبانه در سایتهای خبریِ محافظهکار رایجتر است. اخیراً گروهی از پژوهشگران با ارزیابی و مقایسهی شیوع بیادبی در نظرات ثبتشده در صفحات فیسبوکیِ رسانههای خبری آمریکایی دریافتند که ۱۹ درصد از کل نظرات ثبتشده در صفحات فیسبوکیِ رسانههای خبری محافظهکار به شدت بیادبانه بود، در حالی که این رقم در مورد صفحات فیسبوکی رسانههای خبری لیبرال 9 درصد بود.افزون بر این، تعداد نظرات به شدت بیادبانه در صفحات فیسبوکی رسانههای خبری محلی سه برابر رسانههای ملی بود.
تصور رایج دربارهی سوگیری سیاسی شرکتهای شبکههای اجتماعی توجه ترامپ را نیز به خود جلب کرد و او هم نسبت به سوگیری این سازمانها ابراز نارضایتی کرد.
ترامپ در واکنش به تصمیم فیسبوک و توئیتر مبنی بر ممانعت از فعالیت راستگرایان افراطی، از جمله الکس جونز، این شرکتها را به رعایت آزادی بیان بیقیدوشرط فراخواند. دولت او از کاربران شبکههای اجتماعی خواست که اگر فکر کردند توئیتر و فیسبوک آنها را به علت دیدگاههای سیاسی خود تنبیه کرده به طور مستقیم به کاخ سفید شکایت کنند. ترامپ در مه ۲۰۱۹ برای تسهیل این فرایند، فرم آنلاینی را در توئیتر منتشر کرد.
با توجه به عدم شفافیت سازمانهای شبکههای اجتماعی پیرامون این مسئله، عجیب نیست که کاربران شبکههای اجتماعی تصور درستی از فرایند تعدیل محتوا ندارند. برای مثال، تازه در سال ۲۰۱۸ بود که فیسبوک با انتشار نسخهی روزآمدی از سیاستهای مشروح خود به کاربران توضیح داد که روند تصمیمگیری دربارهی گزارش نفرتپراکنی چگونه است. هرچه شبکههای اجتماعی توضیحات بیشتری دربارهی تکتک مراحل فرایند تعدیل محتوا ارائه دهند بهتر است. همانطور که گفتیم، احتمال سوگیری یا اشتباه در سراسر این فرایند وجود دارد. آموزش دادن به کاربران به آنها کمک میکند تا از مقررات اعلامشده پیروی و در صورت بروز اشتباه با تصمیمات مخالفت کنند.
همانطور که گفتیم، فرایند تعدیل محتوا به سازمانهای شبکههای اجتماعی اجازه میدهد تا دربارهی دسترسی کاربران به نوشتهها، تصاویر و ویدیوها تصمیم بگیرند. با توجه به نقش محتوای رسانهها در شکل دادن به ایدئولوژی غالب دربارهی ویژگیهای هویتیای مثل نژاد، جنسیت یا گرایش جنسی، شبکههای اجتماعی باید منابع لازم را به فرایند تعدیل محتوا اختصاص دهند.
تعدیل محتوای نفرتپراکنی چقدر مؤثر است؟
بهرغم کوششهای فراوان شرکتهای شبکههای اجتماعی برای ممنوعیت و حذف نفرتپراکنی از سایتهای خود، هنوز نفرتپراکنی به میزان چشمگیری در آنها وجود دارد.
وبسایت «نوهوموفوبزداتکام»، که توسط «مؤسسهی مطالعات و خدمات اقلیتهای جنسی» در دانشگاه آلبرتا ایجاد شده است، نفرتپراکنی علیه اقلیتهای جنسی در توئیتر را پیگیری میکند. این وبسایت آمار روزانهی دشنامهایی مثل f*gg*t و d*ke را ثبت میکند. در پنج سال گذشته، این دو دشنام، به ترتیب، ۴۰/۲۹ میلیون بار و ۷/۵ میلیون بار به کار رفتهاند.
تحقیقات خود من نشان میدهد که شرکتهای شبکههای اجتماعی برای رفع معایب و نقائص فرایند حذف محتوا هنوز راه درازی در پیش دارند. من و هِیلی روسِل در یکی از پژوهشهای اخیر خود ۳۱۱ نمونه از نفرتپراکنی در فیسبوک را شناسایی کردیم و گزارش دادیم. ما دریافتیم که فیسبوک تنها ۴۷ درصد از این مطالب را حذف کرد. تحلیل کیفی این مطالب حاکی از عدم انسجام چشمگیر در واکنشهای فیسبوک بود. برای مثال، ۹ مورد از ۱۲ مورد گزارششدهی حاوی مقایسهی رنگینپوستان با میمون یا گوریل حذف شد. پنج مورد از ده مورد گزارششدهی حاوی ادعای «تروریست» بودن مسلمانان حذف شد. افزون بر این، هرچند بر اساس قوانین فیسبوک حملات جنسیتی ممنوع است اما این شرکت در حذف نفرتپراکنیِ زنستیزانه عملکرد مناسبی نداشت. فیسبوک تنها ۳۸ درصد از موارد گزارششدهی حاوی نفرتپراکنیِ جنسیتی را حذف کرد.
این تحقیق همچنین نشان داد که فیسبوک نمیتواند در فرایند تصمیمگیری به آسانی فحوای کلام را دریابد. فیسبوک چند اظهار نظر آشکارا نژادپرستانه یا زنستیزانه را احتمالاً به علت ناتوانی از درک فحوای کلام حذف نکرد. برای مثال، ما اظهار نظری دربارهی اپرا وینفری را که حاوی اصطلاح «پتیارهی پنبهچین» بود به فیسبوک گزارش دادیم اما این اظهار نظر حذف نشد. اگر تعدیلکنندگان محتوا از ارتباط میان بردهداری، تاریخ پنبه به عنوان محصول فروشیِ ایالتهای جنوبی آمریکا و تجربهی آمریکاییهای آفریقاییتبار به عنوان اخلاف بردههایی که به پنبهچینی وادار میشدند، آگاه نباشند در این صورت نمیفهمند که این اصطلاح چقدر نژادپرستانه است. البته این امر عجیب نیست زیرا فیسبوک معمولاً انتظار ندارد که تعدیلکنندگان محتوا بتوانند برای بررسی محتوای گزارش داده شده فحوای کلام را دریابند.
این تحقیق به ما نشان داد که اگر صفحاتی مثل «ماه تاریخ سفیدپوستان آمریکایی»، «آمریکاییهای سفیدپوست عصبانی»، «اشخاص مایهی تأسف» و «ترامپ ۲۰۲۰» را ندیده و گزارش نداده بودیم، همان ۴۸ درصد از مطالب نفرتپراکنی که حذف شد احتمالاً باقی میماند. بنابراین، باید پرسید که شرکتهای شبکههای اجتماعی چقدر از نفرتپراکنی در سایتهای خود پول درمیآورند. مطالب مناقشهانگیز جلب توجه میکند و مدت حضور کاربران در این شبکهها را افزایش میدهد. با استناد به این مشغولیت میتوان با اطمینان به آگهیدهندگان گفت که اعضای گروه موردنظرشان چند بار یک آگهی خاص را خواهند دید. حذف نکردن نفرتپراکنی، حتی پس از گزارش دادن کاربران، حاکی از آن است که شاید شرکتهای شبکههای اجتماعی بیشتر به سود علاقه داشته باشند تا به مردم. فیسبوک، یوتیوب (که متعلق به گوگل است)، و توئیتر همگی شرکتهای سهامی عام هستند و در نتیجه در برابر سهامداران مسئولاند. هدف آنها پول درآوردن است. سازمانهایی نظیر «انجمن ملی ترقی رنگینپوستان»، «اتحادیهی مبارزه با افترا» و «مطبوعات آزاد» با توجه به سودآوریِ بالقوهی نفرتپراکنی برای فیسبوک، دست به دست هم دادند و کارزار #نفرتبرایسودآوریرامتوقفکنید به راه انداختند؛ این کارزار از آگهیدهندگان میخواست که در ژوئیهی ۲۰۲۰ برای انتشار آگهی به فیسبوک پول ندهند. موفقیت این کارزار خیرهکننده بود و بیش از ۱۰۰۰ شرکت، از جمله استارباکس، تارگِت و وُرایزِن، اعلام کردند که تا وقتی فیسبوک به تغییراتی نظیر حذف گروههای هوادار برتری سفیدپوستان و مشارکت در بازرسیِ منظم تن ندهد به آن آگهی نخواهند داد. انفعال شرکتهای شبکههای اجتماعی به استمرار نفرتپراکنی خواهد انجامید، امری که پیامدهای مهمی در زندگی واقعی دارد.
نفرتپراکنیِ آنلاین و خشونت آفلاین
نفرتپراکنی در اینترنت با اقدامات خشونتآمیز در زندگی واقعی ارتباط دارد. برای مثال، در سال ۲۰۱۲ انتشار فیلم کوتاه ضداسلامیِ «معصومیت مسلمانان» در یوتیوب به اعتراضات و تظاهرات خشونتآمیزی در سراسر جهان انجامید. در این بلواها ۵۰ نفر کشته و تعدادی زخمی شدند. سازندگان این فیلم، که پیامبر اسلام را تحقیر میکرد، به مرگ تهدید شدند و یکی از مقامهای دولت پاکستان برای کسی که تهیهکنندهی این فیلم را به قتل برساند جایزه تعیین کرد.
در آمریکا، عاملان حملات اخیر برتریطلبان سفیدپوست به تولید و مصرف مطالب نفرتپراکنانه در شبکههای اجتماعی مشغول بودند. تیراندازی که در سال ۲۰۱۵ در چارلستون، در ایالت کارولینای جنوبی، با حمله به یک کلیسای اسقفیِ متودیستِ متعلق به آفریقاییتبارها ۹ روحانیِ سیاهپوست را در هنگام مراسم دعا و نیایش به قتل رساند پیش از این حمله عکسهایی از خود را در فیسبوک منتشر کرده بود که در آنها جلیقهای مُنَقَّش به نمادهای سفیدپوستان برتریطلب بر تن داشت. دادستانهای فدرال در محاکمهی این فرد گفتند که او از طریق مطالب موجود در اینترنت «به دست خودش افراطگرا شده» و اعتقاد یافته که تحقق برتری سفیدپوستان مستلزم توسل به خشونت است.
حملهی سال ۲۰۱۹ به دو مسجد در نیوزیلند، که به مرگ ۵۱ نفر انجامید، با شبکههای اجتماعی ارتباط داشت. عامل این حمله با اشاره به پیودایپای، ستارهی مناقشهانگیز یوتیوب، بیانیهی ۷۴ صفحهای او را در توئیتر و اِیتچَن منتشر کرد، و سپس این کشتار را به طور زنده در فیسبوک و توئیتر پخش کرد. پیش از آن که شرکتهای شبکههای اجتماعی به خود بیایند، ویدیوهای این قتلعام در فیسبوک، ردیت، توئیتر و یوتیوب دست به دست شده بود.
این مثالها نشان میدهد که افراطگرایان از شبکههای اجتماعی به عنوان ابزاری برای انتشار پیام خود استفاده میکنند اما حتی در میان افراد میانهرو نیز نفرتپراکنی در شبکههای اجتماعی به گسترش کلیشهها و دیدگاههای تعصبآمیز دامن میزند، امری که میتواند به انواع گوناگونی از بدرفتاری، از پرخاشگری جزئی تا تبعیض، بینجامد. با توجه به تأثیرات منفی گستردهی نفرتپراکنی، باید برای کاستن از تأثیر آن در شبکههای اجتماعی راهحلهایی یافت و در عین حال نقش مهم این شبکهها در سازماندهیِ جمعی برای تغییر اجتماعی را پذیرفت.
حل مشکل
به استثنای آلمان و فرانسه، دولتها سازمانهای شبکههای اجتماعی را در قبال اظهارنظرهای کاربران این سایتها مسئول نمیدانند. بنابراین، این شرکتها عمدتاً باید خودشان بر خود نظارت کنند. در نتیجه، این سازمانها اغلب به شیوهای نامنسجم به مطالب مشکلآفرین واکنش نشان میدهند، امری که میتواند به آتشافروزی دامن بزند.
پس از قتل جورج فلوید به دست مأموران پلیس مینیاپولیس، تظاهرات علیه خشونت پلیس سراسر دنیا را فرا گرفت. در بعضی از تظاهرات، درگیریهای خشونتآمیزی میان معترضان و پلیس رخ داد. ترامپ در واکنش به این رویدادها در توئیتی نوشت: «این اوباش دارند به یاد و خاطرهی جورج فلوید اهانت میکنند، و من اجازه نخواهم داد که چنین اتفاقی بیفتد. همین حالا با آقای فرماندار تیم والز حرف زدم و به او گفتم که ارتش تا آخرِ کار با اوست. اگر مشکلی پیش بیاید، بر اوضاع مسلط خواهیم شد اما وقتی غارت شروع شود، تیراندازی شروع خواهد شد. ممنونم!»
توئیتر اعلام کرد که چون این توئیت قوانین آنها علیه خشونتستایی را نقض کرده، برای حفظ «منافع عمومی» امکان پسندیدن، پاسخ دادن یا ریتوئیت کردن آن را از کاربران سلب کرده اما آن را حذف نکرده و همچنان قابل مشاهده است.
فیسبوک نه این مطلب را حذف کرد و نه به آن برچسب زد. در نتیجه، بعضی از کاربران خشمگین شدند و پرسیدند که چرا فیسبوک به رئیس جمهور، بر خلاف دیگران، اجازه داده است که قوانین استفاده از آن را نقض کند. این اتفاق توجه مردم را به قدرت فیسبوک در محافظت از تعریف خاصی از آزادی بیان جلب کرد، تعریفی که اظهارنظرهای زیانباری را که نفرتپراکنی را تشدید و حقوق مدنی را تهدید میکند، مجاز میشمارد.
در ژوئیهی ۲۰۲۰، فیسبوک نتیجهی بازرسی خود از حقوق مدنی را منتشر کرد. ۱۰۰ سازمان حقوق مدنی در تهیهی این گزارش نقش داشتند. بر اساس این گزارش، فیسبوک هنوز به شدت محتاج بهبود سیاستها و اقدامات خود پیرامون شناسایی و حذف نفرتپراکنی است. برای مثال، فیسبوک فاقد نظام دقیقی برای ارزیابی میزان نفرتپراکنی علیه گروههای خاص است.
اگر سازمانهای شبکههای اجتماعی بخواهند قاطعانهتر با نفرتپراکنی مقابله کنند، میتوانند با توجه به تحقیقات اخیر از چند گزینه استفاده کنند. در درجهی اول، این سازمانها میتوانند در فرایند حذف بیش از پیش به فحوای کلام توجه کنند. پژوهشهای اخیر در این حوزه نشان میدهد که بهرغم گزارش کاربران، این سازمانها میزان چشمگیری از مطالب ناقض مقررات خود را حذف نمیکنند. ارائهی راهنماییهای لازم به تعدیلکنندگان محتوا میتواند در اخذ تصمیمهای منسجمتر و درستتر دربارهی حذف مطالب به آنها کمک کند.
این سازمانها همچنین باید به صورتی شفافتر با نفرتپراکنی در سایتهای خود مقابله کنند. بر اساس قوانین آلمان، شبکههای اجتماعیِ دارای بیش از یک میلیون کاربر موظفاند که با ارائهی گزارشهایی بگویند که کاربران از چه مطالبی به اتهام نفرتپراکنی شکایت و این شرکتها کدام یک از این مطالب را حذف کردهاند. ارائهی چنین گزارشهایی در سطح جهانی به افراد، نهادهای دولتی و سازمانهای غیردولتی کمک میکند تا ماهیت مشکل را بهتر بفهمند و راهحلهای جامعتری برای آن بیابند. تلاش برای افزایش شفافیت میتواند نگرانی دربارهی سودجویی شبکههای اجتماعی از نفرتپراکنی را کاهش دهد.
یک راهحل دیگر این است که کاربران این شبکههای اجتماعی را ترک کنند و در عوض از طریق پیامرسانهایی مثل واتساپ یا اسنپچت با یکدیگر ارتباط برقرار کنند. اما این کار برای بسیاری از کاربران ممکن نیست. برای مثال، فارغالتحصیلان جدید اغلب برای یافتن شغلی در حوزهی انتخابیِ خود یا برای حفظ تماس با خانوادهی خود که دور از آنها زندگی میکنند به شبکههای اجتماعی احتیاج دارند. افزون بر این، ترک شبکههای اجتماعی به افزایش قدرت کسانی میانجامد که از این شبکهها برای اهداف پلید خود استفاده میکنند، و دیگران را از مزایا و محاسن این شبکهها ــ از جمله جمعآوری اخبار و معاشرت ــ محروم میکند. در واقع، برای بسیاری از اعضای گروههای بهحاشیهراندهشدهای مثل جوانان عضو اقلیتهای جنسی، شبکههای اجتماعی میتواند راهی برای تماس با همتایان و همفکری دربارهی مسائل گوناگون باشد. پیشنهاد ترک شبکههای اجتماعی، محاسن و نقش مهم آنها در بسیاری از جنبههای زندگی، بهویژه برای جوانان، را نادیده میگیرد.
راهحل مشکل، ترک شبکههای اجتماعی نیست. در عوض، باید با استفاده از فشار افکار عمومی یا تدابیر قانونی، سازمانهای شبکههای اجتماعی را به تخصیص منابع بیشتر برای حل این مشکل ترغیب کرد. شراکت میان این سازمانها و نهادهای ناظری مثل اتحادیهی اروپا یا دولتها میتواند به نتایج مثبتی بینجامد. به هر حال، کاربران، ناظران، دولتها و دیگر نهادها باید هوشیار بمانند و از هیچ کوششی برای به حداقل رساندن نفرتپراکنی در شبکههای اجتماعی دریغ نکنند.
منبع: آسو
کیتلین رینگ کارلسون دانشیار دپارتمان ارتباطات در دانشگاه سیاتل است. آنچه خواندید برگردان گزیدههایی از این نوشته با عنوان اصلیِ زیر است:
Caitlin Ring Carlson (2021) Hate Speech, MIT Press.
نظرها
نظری وجود ندارد.