ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

نفرت‌پراکنی و شبکه‌های اجتماعی

نفرت‌پراکنیِ آنلاین علاوه بر ترویج کلیشه‌ها و تصورات نادرست منفی از بعضی گروه‌ها، تأثیری کاملاً واقعی بر افراد دارد...اینترنت، هویت‌سازی پیرامون نژاد و قومیت را امکان‌پذیر می‌کند. شاید بدترین تأثیر این پیام‌های منفی این باشد که مردم چیزهایی را که در شبکه‌های اجتماعی درباره‌ی آنها گفته می‌شود باور می‌کنند و فرودستی خود را می‌پذیرند. به نظر پژوهشگران مطالعات نژادی انتقادی، نفرت‌پراکنی نوعی حمله است که به افراد آسیب می‌رساند.

در دهه‌های اخیر، محل جدیدی برای اشاعه‌ی نفرت‌پراکنی پیدا شده است: شبکه‌های اجتماعی. این شبکه‌ها به تک‌تک کاربران اجازه می‌دهند که نظرات خود را با جهانیان در میان بگذارند. ترکیب شبکه‌های اجتماعی و امکان ناشناس ماندن در اینترنت محیطی را ایجاد کرده که نفرت‌پراکنی در آن می‌تواند گسترش یابد. در نظرسنجی‌ای در سال ۲۰۱۷، از هر ده آمریکایی یک نفر گفت که در فضای مجازی به علت نژاد، جنسیت یا قومیتش آزار دیده است. از هر چهار آمریکایی آفریقایی‌تبار یک نفر، و از هر ده آمریکایی لاتین‌تبار یک نفر گفت که به علت نژاد یا قومیتش در اینترنت آزار دیده است. نفرت‌پراکنی در فیسبوک، اینستاگرام، توئیتر، یوتیوب و تقریباً هر شبکه‌ی اجتماعی دیگری به چشم می‌خورد. هرچند هیچ آمار جهانی‌ای از نفرت‌پراکنی در شبکه‌های اجتماعی وجود ندارد اما گزارش شفافیت فیسبوک حاکی از آن است که در سه ماهه‌ی اول سال ۲۰۲۰، این شرکت درباره‌ی ۹/۶ میلیون مطلب اقدامات مقتضی را انجام داده است.

واژگان، تصاویر و نمادهای تنفرآمیزی که در شبکه‌های اجتماعی منتشر می‌شود، می‌تواند به شدت بر افراد و جوامع تأثیر بگذارد. نفرت‌پراکنی در شبکه‌های اجتماعی کلیشه‌ها را اشاعه می‌دهد، از نظر عاطفی و روان‌شناختی به قربانیان آسیب می‌رساند، و اغلب از گفتگو در فضای مجازی جلوگیری می‌کند. بر اساس یکی از تحقیقات جدید، صفحات فیسبوکیِ موهنی که توسط چند شهروند دانمارکی دستکاری شده بود تا به صفحات گروه‌های جهادی شباهت یابد به احساسات منفی نسبت به مسلمانان در دانمارک دامن زد. مطالب منتشرشده در شبکه‌های اجتماعی در چند مورد از خشونت‌های ناشی از سوگیری و تعصب نقش داشته‌اند. برای مثال، عامل کشتار در کنیسه‌ی شجره‌ی حیات در پیتسبورگ در سال ۲۰۱۸، عضو شبکه‌ی اجتماعی «گب» بود که مقر افراط‌گرایان رانده‌شده از شبکه‌های اجتماعی بزرگ‌تر است. او با انتشار توطئه‌بافی‌هایی درباره‌ی یهودیان در این شبکه‌ی اجتماعی ادعا کرده بود که آنها می‌خواهند سفیدپوستان را به اقلیتی در آمریکا تبدیل کنند. عامل کشتار سال ۲۰۱۹ در ال پاسو در تگزاس، که ۲۲ کشته و ۲۴ زخمی بر جای گذاشت، با انتشار مطلبی چهارصفحه‌ای در سایت 8chan به ترویج پروپاگاندای نژادپرستانه و ناسیونالیستی پرداخته و مهاجران را به سرقت شغل‌های آمریکایی‌ها متهم کرده بود.

نفرت‌پراکنیِ آنلاین علاوه بر ترویج کلیشه‌ها و تصورات نادرست منفی از بعضی گروه‌ها، تأثیری کاملاً واقعی بر افراد دارد. همان‌طور که جسی دنیلز نشان داده است، اینترنت، هویت‌سازی پیرامون نژاد و قومیت را امکان‌پذیر می‌کند. شاید بدترین تأثیر این پیام‌های منفی این باشد که مردم چیزهایی را که در شبکه‌های اجتماعی درباره‌ی آنها گفته می‌شود باور می‌کنند و فرودستی خود را می‌پذیرند. به نظر پژوهشگران مطالعات نژادی انتقادی، نفرت‌پراکنی نوعی حمله است که به افراد آسیب می‌رساند.

نفرت‌پراکنی در شبکه‌های اجتماعی می‌تواند مانع از اظهار نظر و مشارکت سیاسی زنان، رنگین‌پوستان و اقلیت‌های جنسی شود. دنیل کیتس سیترون و هلن نورتون نظریه‌ای درباره‌ی شهروندی دیجیتال ارائه داده‌اند که نشان می‌دهد فعالیت‌های آنلاین از چه راه‌هایی مشغولیت مدنی، مشارکت سیاسی و گفتگوی عمومی را افزایش می‌دهد. به نظر سیترون، افرادی که هدف نفرت‌پراکنی آنلاین قرار می‌گیرند، از مشارکت در شبکه‌های آنلاین خود بازمی‌مانند. در سال ۲۰۱۶، ویجایا گاده، مدیر بخش حقوقی توئیتر، در سرمقاله‌ای در «واشنگتن پست» تأیید کرد که اگر توئیتر از نفرت‌پراکنی جلوگیری نکند، آزادی بیان به عنوان یکی از اصول اساسی این شرکت بی‌معنا خواهد شد زیرا مردم از اظهار نظر می‌ترسند...

چارچوب حقوقی

به استثنای آلمان، کشورها و نهادهای بین‌المللی‌ای نظیر سازمان ملل و اتحادیه‌ی اروپا عموماً عقیده ندارند که شرکت‌های شبکه‌های اجتماعی مسئول حرف‌های کاربران خود هستند. بر اساس قوانین رسمی این کشورها و سازمان‌ها، نفرت‌پراکنی ممنوع است و نفرت‌پراکنان مستحق مجازات‌اند اما شرکت‌های شبکه‌های اجتماعی مسئول رفتار کاربران نیستند.

هرچند نفرت‌پراکنی در آمریکا قانونی است اما سازمان‌های شبکه‌های اجتماعی، فضاهای مجازیِ خصوصی به شمار می‌روند و بنابراین ملزم به پایبندی به متمم اول قانون اساسی نیستند و می‌توانند آزادی بیان را در شبکه‌های اجتماعی محدود کنند. میان افراد و شرکتی مثل یوتیوب یا توئیتر قراردادی وجود دارد و کاربران ملزم به رعایت این شروط هستند. شبکه‌های اجتماعی می‌توانند با حذف مطالب یا حساب‌ها کاربرانی را که موازین و قوانین این شبکه‌ها را نادیده می‌گیرند، مجازات کنند. با وجود این، دولت آمریکا به ندرت مداخله می‌کند. بر اساس بند ۲۳۰ «قانون ضوابط اخلاقی ارتباطات»، ارائه‌دهندگان خدمات رایانه‌ای دوسویه در آمریکا ــ از جمله ارائه‌دهندگان خدمات اینترنتی و شرکت‌های شبکه‌های اجتماعی ــ ناشر و، در نتیجه، مسئول رفتار شخص ثالث در سایت‌های خود نیستند.

در آمریکا رویکرد دولت مبتنی بر عدم مداخله در کنترل نفرت‌پراکنی در شبکه‌های اجتماعی است اما در سال ۲۰۱۷، آلمان قانونی را تصویب کرد که بر اساس آن شرکت‌های شبکه‌های اجتماعیِ دارای بیش از دو میلیون کاربر باید مطالب مغایر با محدودیت‌های وضع‌شده در «قانون جزایی آلمان» علیه نفرت‌پراکنی را حذف یا دسترسی به آنها را مسدود کنند. شرکت‌ها باید «نفرت‌پراکنی آشکار» را طی ۲۴ ساعت پس از دریافت اخطاریه حذف کنند؛ در غیر این صورت، ممکن است ۵۰ میلیون یورو جریمه شوند. به عقیده‌ی مدافعان این قانون، چنین قانونی ضروری است زیرا شرکت‌هایی مثل فیسبوک و توئیتر را ترغیب می‌کند که با جدیت بیشتری با نفرت‌پراکنی در سایت‌های خود مقابله کنند. به نظر مخالفان، این قانون آزادی بیان را بیش از اندازه محدود می‌کند و احتمالاً به حذف مطالبی خواهد انجامید که باید قانونی و مجاز به شمار رود. مجمع ملی فرانسه نیز در ژوئیه‌ی ۲۰۱۹، قانونی را تصویب کرد که شرکت‌های شبکه‌های اجتماعی را به حذف نفرت‌پراکنی آشکار ملزم می‌کند؛ شرکت‌هایی که چنین نکنند ممکن است حداکثر ۱/۴ میلیون یورو جریمه شوند. بر اساس این قانون، شبکه‌های اجتماعی باید دکمه‌ی جدیدی ایجاد کنند تا کاربران آسان‌تر بتوانند موارد نفرت‌پراکنی را گزارش دهند.

بسیاری از دولت‌ها علاوه بر وضع موازین قانونی برای مقابله با نفرت‌پراکنی در شبکه‌های اجتماعی، توافق‌نامه‌هایی با شرکت‌های شبکه‌های اجتماعی به منظور همکاری برای پرداختن این مسئله امضاء کرده‌اند. پس از حمله‌ی سال ۲۰۱۹ به دو مسجد در نیوزیلند، رهبران جهان با مدیران فیسبوک، توئیتر، گوگل و دیگر شرکت‌ها دیدار و رهنمودهایی موسوم به «فراخوان کرایست‌چرچ» را برای مقابله با نفرت‌پراکنی و ترویج خشونت در فضای مجازی تهیه کردند. جالب این که آمریکا این توافق‌نامه را امضا نکرد. اکنون کمیسیون اروپا سرگرم همکاری مستقیم با شرکت‌های شبکه‌های اجتماعی ــ از جمله فیسبوک، توئیتر و یوتیوب ــ است تا با نفرت‌پراکنی در اروپا مقابله کند. در مه ۲۰۱۶، این گروه «آیین‌نامه‌ی مقابله با نفرت‌پراکنیِ غیرقانونی در فضای مجازی» را منتشر کرد. بر اساس گزارش فوریه‌ی ۲۰۱۹، «اکنون شرکت‌های فناوری اطلاعات ۸۹ درصد از مطالب گزارش‌شده را طی ۲۴ ساعت ارزیابی و ۷۲ درصد از مطالبی را که نفرت‌پراکنیِ غیرقانونی به شمار می‌رود، حذف می‌کنند. این در حالی است که این ارقام در آغاز وضع این آیین‌نامه به ترتیب ۴۰ و ۲۸ درصد بود.» در آمریکا، فیسبوک، توئیتر، گوگل و میکروسافت دست به دست «اتحادیه‌ی ضد افترا» داده و «آزمایشگاه مشکل‌گشایی از نفرت‌ سایبری» را ایجاد کرده‌اند.

به‌رغم این تلاش‌ها برای کاهش نفرت‌پراکنی در شبکه‌های اجتماعی، مشکل همچنان پابرجا است. برای فهم علت این امر باید فرایند تعدیل محتوا را به دقت بررسی کنیم تا از اقدامات شرکت‌های شبکه‌های اجتماعی و میزان ثمربخشی آن آگاه شویم.

تعدیل محتوا

بهترین راه برای تعریف تعدیل محتوا این است که آن را مجموعه‌ای از روش‌ها با ویژگی‌های مشترکی بدانیم که برای نظارت بر محتوای تولیدشده توسط کاربران و تصمیم‌گیری درباره‌ی باقی ماندن آن در شبکه‌‌های اجتماعی به کار می‌رود. این فرایند اغلب سه مرحله‌ی متمایز دارد: بازبینیِ سردبیری، شناسایی خودکار، و گزارش جمعی. سازمان‌های شبکه‌های اجتماعی همه‌ی انواع محتواهای بالقوه مضر ــ از جمله نفرت‌پراکنی، خشونت یا تحریک، برهنگی بزرگسالان، سوءاستفاده‌ی جنسی از بزرگسالان، تقاضای جنسی، خودکشی/آسیب رساندن به خود، قلدری/مزاحمت، برهنگی کودکان، نقض حریم خصوصی، ترویج جرم، یا فروش کالاهای غیرمجاز ــ را بازبینی می‌کنند...

بازبینی سردبیری

بازبینی سردبیری، نخستین مرحله در فرایند تعدیل محتوا، عبارت است از نظارت بر محتوا پیش از انتشار آن؛ برای مثال، می‌توان به امتیاز دادن به فیلم‌ها پیش از نمایش عمومی آنها اشاره کرد. در مورد شبکه‌های اجتماعی، منظور از بازبینی سردبیری اغلب موازین عمومی وضع‌شده توسط شبکه‌های اجتماعی است. شیوه‌ی وضع و اجرای موازین در هر یک از این شبکه‌ها متفاوت است؛ یکی از دلایل این امر آن است که اغلب تعریف آنها از نفرت‌پراکنی اندکی با یکدیگر فرق دارد ــ بعضی حتی در اشاره به این امر از اصطلاحات متفاوتی مثل «نفرت‌پراکنی»، «رفتار نفرت‌انگیز»، «گفتار مغرضانه» و «تصویر نفرت‌انگیز» استفاده می‌کنند. معمولاً تعریف یک سازمان شبکه‌ی اجتماعی از نفرت‌پراکنی دو بخش دارد: (۱) نیت پنهان در پس گفتار سوگیرانه‌ی یک کاربر، و (۲) هدف قرار دادن «گروه‌های حفاظت‌شده»ای از مردم که حذف محتوای سوگیرانه‌ را الزامی می‌کند.

برای مثال، بنا به تعریف فیسبوک، نفرت‌پراکنی عبارت است از «حمله‌ی مستقیم به افراد» بر اساس نژاد، قومیت، ملیت، دین، گرایش جنسی، طبقه، جنسیت، هویت جنسی، بیماری حاد یا معلولیت، و وضعیت مهاجرتی. فیسبوک حمله را «گفتار خشونت‌آمیز یا انسانیت‌زدا» می‌داند. مثال‌هایی که فیسبوک از گفتار انسانیت‌زدا ارائه می‌دهد مقایسه‌ی افراد با حیوانات یا حشرات را دربرمی‌گیرد. بر اساس قوانین فیسبوک، سخنان حاکی از زیردستیِ جسمانی، عقلانی یا اخلاقی یک فرد یا گروه به علت ویژگی‌های هویتی آنها نیز نفرت‌پراکنی به شمار می‌رود. به نظر فیسبوک، دعوت به طرد یا جداسازی یک فرد یا گروه بر اساس ویژگی‌های هویتی آنها نفرت‌پراکنی است. این شرکت دشنام‌های نژادی، قومی، زن‌‌ستیزانه و همجنس‌گراهراسانه را هم نفرت‌پراکنی می‌داند. فیسبوک انتقاد از سیاست‌های مهاجرتی و حمایت از محدود کردن این سیاست‌ها، و طنز و تفسیر اجتماعی درباره‌ی این سیاست‌ها را مجاز می‌شمارد.

در حالی که فیسبوک نفرت‌پراکنی را ممنوع می‌داند، توئیتر از ممنوعیت «رفتار نفرت‌انگیز» و «تصاویر و کلمات نفرت‌انگیز» سخن می‌گوید. توئیتر کاربران را از ترویج خشونت یا تهدید دیگران بر اساس نژاد، قومیت، ملیت، گرایش جنسی، جنسیت، هویت جنسی، تعلقات دینی، سن، معلولیت یا بیماری حاد آنها منع می‌کند. این شرکت به حساب‌هایی که هدف اصلی‌شان تحریک افراد به آسیب رساندن به دیگران از طریق نفرت‌پراکنی است اجازه‌ی فعالیت نمی‌دهد. استفاده از واژه‌های «تحریک» و «تهدید»، اشاره‌‌ای آشکار به موارد مستثنا از متمم اول قانون اساسی آمریکا است. توئیتر، که در کل بیشتر از فیسبوک و یوتیوب به محافظت از آزادی بیان پایبند است، به طور خاص بر حملاتی تمرکز می‌کند که شامل تهدیدهای خشونت‌آمیز، ابراز علاقه به آسیب رساندن جدی به دیگران، اشاره به کشتار یا خشونت علیه گروه‌های محافظت‌شده، تحریک خشونت، یا کاربرد مکرر انگ‌ها، افتراها یا کلیشه‌های نژادپرستانه و جنسیت‌زده است. بر اساس این قوانین، اگر کسی فقط یک بار به انگ یا افترای نژادپرستانه متوسل شود سیاست توئیتر را نقض نکرده است ]و بنابراین نمی‌توان حساب او را حذف کرد[. توئیتر به صراحت انتشار تصاویر نفرت‌انگیز را هم ممنوع می‌کند.

بنا به قوانین یوتیوب، نفرت‌پراکنی در این وب‌سایت مجاز نیست. این شرکت می‌گوید که مطالب مروج خشونت یا نفرت علیه افراد یا گروه‌ها بر اساس ویژگی‌های زیر را حذف می‌کند: سن، طبقه، معلولیت، قومیت، هویت جنسی، ملیت، نژاد، وضعیت مهاجرتی، دین، جنسیت، گرایش جنسی، قربانیان یک رویداد خشونت‌آمیز مهم و خویشاوندان آنها یا کهنه‌سربازان. یوتیوب به طور مشخص ویدیوها یا نظرات تهدیدآمیز یا مشوق خشونت علیه افراد یا گروه‌ها بر اساس ویژگی‌های فهرست‌شده در سیاست خود را حذف می‌کند. همچون توئیتر، یوتیوب نیز نفرت‌پراکنی علیه گروه‌های هویتیِ حفاظت‌شده را ممنوع کرده است. یوتیوب مثال‌هایی از مطالب ناقض سیاست خود ارائه کرده است که از میان آنها می‌توان به این موارد اشاره کرد: گفتار انسانیت‌زدایی که افراد یا گروه‌ها را مادون‌انسان بشمارد یا آنها را با حیوانات یا حشرات مقایسه کند. مطالب مروج خشونت علیه گروه‌های حفاظت‌شده، حاوی انگ‌های نژادی، قومی یا دینی، یا کلیشه‌های نفرت‌پراکنانه همگی ممنوع‌اند. یوتیوب هرگونه ادعای فرودستیِ ذهنیِ افراد یا گروه‌ها، طلب انقیاد یا انکار اتفاقات خشونت‌آمیز مستندی مثل هولوکاست را ممنوع کرده است. بر اساس قوانین یوتیوب، نفرت‌پراکنی می‌تواند به صورت گفتار، نوشتار یا تصویر باشد.

شبکه‌های اجتماعی درباره‌ی مقوله‌های حفاظت‌شده هم‌رأی نیستند. فیسبوک، توئیتر و یوتیوب همگی عقیده دارند که نژاد، قومیت، دین، گرایش جنسی، جنسیت، هویت جنسی و معلولیت جزئی از این مقوله‌ها هستند. با وجود این، همه‌ی شبکه‌های اجتماعی درباره‌ی ممنوعیت نفرت‌پراکنی بر اساس سن، بیماری، وضعیت مهاجرتی و کهنه‌سربازیِ افراد اتفاق نظر ندارند. ناهماهنگی میان شبکه‌های اجتماعی می‌تواند به سردرگمی بینجامد زیرا ممکن است در یکی از آنها نفرت‌پراکنی علیه نوعی هویت فردی خاص ممنوع، و در دیگری مجاز باشد. برای مثال، فیسبوک و یوتیوب مقایسه‌ی افراد و گروه‌ها با حیوانات و حشرات را نفرت‌پراکنی می‌دانند اما چنین مقایسه‌هایی در توئیتر به طور مشخص ممنوع نیست و در عوض استفاده‌ی مکرر از انگ و افترا و تصاویر نفرت‌انگیز، ممنوع است. به همین ترتیب...در بین این سه شبکه‌ی اجتماعی فقط یوتیوب است که انکار هولوکاست را به طور مشخص ممنوع کرده است.

هرچند ممکن است که فیسبوک، توئیتر، یوتیوب و دیگر شبکه‌های اجتماعی تعریف متفاوتی از نفرت‌پراکنی ارائه کنند اما همگی از ساختار واحدی برای اجرای این دستورالعمل‌ها پیروی می‌کنند. پژوهشگران با تحلیل محتوای واکنش‌های گوناگون این شبکه‌ها به نقض قوانین از سوی کاربران دریافتند که نقض سیاست‌ها می‌تواند هشت پیامد احتمالی داشته باشد: وضع محدودیت‌هایی علیه حساب کاربری، ارسال هشدار به کاربر، حذف مطلب، تعلیق حساب، حذف حساب، همکاری با پلیس، و مسدود کردن دسترسی به مطالب و نظرات کاربر و جلوگیری از ارتباط او با دیگران بی‌آنکه خودش بداند ــ روش موسوم به «ممنوعیت از طریق پنهان کردن». در آمریکا حساب‌های شبکه‌های اجتماعی‌ چند راست‌گرای افراطیِ سرشناس به علت نقض مستمر سیاست‌های این شرکت‌ها به طور دائم بسته شده است. مایلو یانوپولوس و الکس جونز، یکی از مروجان توطئه‌باوری، برای همیشه از فعالیت در توئیتر محروم شده‌اند. هرچند این مجازات به ندرت اِعمال می‌شود اما ابزار مؤثری است. با حذف حساب‌ کسانی که به طور مکرر و فاحش به قوانین شبکه‌های اجتماعی بی‌اعتنایی می‌کنند، این شرکت‌ها بلندگو را از آنها می‌گیرند و ترویج این نظرات را به شدت دشوارتر می‌کنند. دو سال پس از بسته شدن حساب مایلو یانوپولوس در توئیتر، تداوم لغو سخنرانی‌ها و حمایت‌های مالی از او سبب شده بود که بیش از ۴ میلیون دلار بدهکار شود.

شبکه‌های اجتماعی سازمان‌های مستقلی هستند که می‌توانند اظهار نظر را به صلاحدید خود به نفع کاربران، آگهی‌دهندگان و سرمایه‌گذاران‌شان کنترل کنند. قوانین این شبکه‌ها لازم‌الاجرا است. نقض این مقررات می‌تواند به بسته شدن حساب افراد یا سازمان‌ها بینجامد و آنها را از ارتباط با میلیاردها کاربر در سراسر دنیا محروم کند.

شناسایی خودکار

مرحله‌ی بعدی در تعدیل محتوا عبارت است از شناسایی خودکار با استفاده از نرم‌افزارهای پیچیده. شبکه‌های اجتماعی برای حذف محتوای مغایر با قوانین خود به الگوریتم‌ و هوش مصنوعی تکیه می‌کنند. بر اساس «گزارش شفافیت سه ماهه‌ی نخست سال ۲۰۲۰» فیسبوک، این شرکت ۸۹ درصد از موارد نفرت‌پراکنی را پیش از گزارش کاربران حذف کرد. تحقیقات اخیر حاکی از دستیابی به الگوریتم‌های مناسبی برای حذف نفرت‌پراکنی از شبکه‌های اجتماعی است...

این امر نویدبخش است اما نباید از یاد برد که ممکن است الگوریتم‌ها و هوش مصنوعی از سوگیریِ ضمنیِ برنامه‌نویس‌ها متأثر باشند. صفیه نوبل، دانشیار دانشگاه یوسی‌ال‌ای، در کتاب «الگوریتم‌های ظلم و ستم»، نشان می‌دهد که الگوریتم‌های جست‌وجوی آنلاین می‌توانند متأثر از نژادپرستی و تبعیض جنسی باشند. گرچه او به طور خاص به تعدیل محتوای شبکه‌های اجتماعی نمی‌پردازد اما به ما یادآوری می‌کند که سوگیری‌های ضمنیِ برنامه‌نویسان می‌تواند در حذف بعضی انواع نفرت‌پراکنی یا نادیده گرفتن آنها نقش داشته باشد. برای مثال، اگر یک مهندس مقایسه‌ی انسان با حیوانات را نفرت‌پراکنی نداند، ممکن است این مقایسه را در الگوریتم خود نگنجاند. این مسئله توجه ما را به دشواریِ خلق هوش مصنوعی و الگوریتم‌هایی جلب می‌کند که بتوانند بین دو چیز تمایز قائل شوند: نفرت‌پراکنی ممنوع‌ در قوانین و مقررات شبکه‌های اجتماعی و اظهار نظری که ممکن است به عقیده‌ی بعضی از کاربران اهانت‌آمیز باشد. ممکن است چیزی که یک الگوریتم نفرت‌پراکنی بپندارد در واقع شوخیِ تقریباً بی‌ضرری میان چند کاربر باشد. بنابراین، باید به این مسئله هم توجه کرد که چه کسی دارد اصطلاحات خاصی را به کار می‌برد. فرق است میان زنی که به شوخی دوستش را «پتیاره» می‌خواند و مردی که این واژه را در اشاره به یک زن به کار می‌برد.

حجم زیاد مطالبی که اکنون از طریق شناسایی خودکار حذف می‌شود پرسش‌هایی را درباره‌ی ماهیت این مطالب برمی‌انگیزد. برای مثال، فیسبوک در گزارش‌های شفافیت خود جزئیات خاصی را درباره‌ی مطالب حذف‌شده ارائه نمی‌کند. این مسئله به‌ویژه وقتی نگران‌کننده می‌شود که این واقعیت را در نظر بگیریم که این مطالب پیش از قرار گرفتن در معرض دید و ارزیابی کاربران حذف می‌شوند.

گزارش جمعی

آخرین، و شاید مشهودترین، مرحله‌ی تعدیل محتوا عبارت است از گزارش جمعی که طی آن کاربران از محتوایی که به نظرشان قوانین و مقررات شبکه‌ها‌ی اجتماعی را نقض می‌کند، شکایت می‌کنند. سپس کارمندان با بررسی این محتوا درباره‌ی جلوگیری از دسترسی، حذف یا باقی نگه داشتن آن در سایت تصمیم می‌گیرند.

شبکه‌های اجتماعی میلیاردها کاربر در سراسر جهان دارند و بازبینی مطالب کار شاقی است. برای مثال، کاربران فیسبوک هر روز از بیش از یک میلیون مطلب شکایت می‌کنند. شبکه‌های اجتماعی اغلب این کار را از طریق برون‌سپاری به سازمان‌های دیگری مثل آپ‌ورک، سادرلند و دلویت واگذار می‌کنند. کارکنان این سازمان‌ها در نقاط گوناگونی در سراسر دنیا پراکنده‌اند و این کار را معمولاً کارمندان دون‌پایه‌ با دستمزد بسیار کمی در خفا انجام می‌دهند. برای مثال، درآمد سالانه‌ی یک کارمند معمولی فیسبوک ۲۴۰ هزار دلار است، در حالی که کارمندی که در یکی از سازمان‌های پیمانکار به تعدیل محتوا مشغول است، سالانه فقط ۲۸ هزار دلار حقوق می‌گیرد. هر یک از این کارمندان هر هفته ۱۵۰۰ مطلب خشونت‌آمیز، نفرت‌انگیز یا ناراحت‌کننده را بازبینی می‌کنند و در نتیجه به شوک ناشی از ترس و دیگر اختلالات روانی مبتلا می‌شوند. در سال ۲۰۲۰، فیسبوک پذیرفت که برای جبران خسارت ناشی از اختلالات روانی- از جمله اختلال روانی بعد از سانحه، به ۱۱۲۵۰نفر از این کارمندان ۵۲ میلیون دلار غرامت بپردازد.

علاوه بر تأثیر این شغل بر سلامت روانی کارمندان، وجهه‌ و دستمزد ناچیز آن هم مشکل‌آفرین است. این افراد باید تصمیم بگیرند که آیا مطلب گزارش‌شده واقعاً نفرت‌پراکنی است یا صرفاً توهین‌آمیز است. تعیین حد و مرز میان نفرت‌پراکنی و اهانت بسیار دشوار، زمان‌بر و محتاج آموزش است. شبکه‌های اجتماعی‌ای مثل فیسبوک برای این فرایند اولویت قائل نیستند؛ این امر نشان می‌دهد که شاید این شرکت آن‌قدر که ادعا می‌کند به حذف نفرت‌پراکنی از وبسایت خود اهمیت نمی‌دهد. اگر با نگاه بدبینانه به این مسئله بنگریم، می‌توان گفت که شاید فیسبوک و دیگر شبکه‌های اجتماعی به مطالب مناقشه‌انگیز ــ از جمله نفرت‌پراکنی ــ علاقه دارند زیرا کاربران را فعال و سرگرم نگه می‌دارد. افزایش فعالیت و توجه کاربران به معنای جذب آگهی‌های بیشتر است.

اگر خوشبین باشیم، می‌توان گفت که فیسبوک مشغول ایجاد فرایندی است که به کاربران اجازه می‌دهد تا درباره‌ی آنچه به نظرشان تصمیمات نادرست یا نامنصفانه درباره‌ی حذف مطالب است، قضاوت کنند. فیسبوک سرگرم ایجاد هیئت نظارتی برای بازبینی موارد مناقشه‌انگیز تعدیل محتوا است. بر اساس پیش‌نویس منشور این شرکت، فیسبوک می‌خواهد ۴۰ نفر را به عضویت هیئتی جهانی منصوب کند. فعلاً معلوم نیست که این هیئت چند مورد را بازبینی خواهد کرد، گرچه فیسبوک گفته است که هر مورد توسط سه تا پنج نفر از اعضای این هیئت بازبینی خواهد شد تا تصمیم نهایی را اخذ کنند و علت را برای کاربران توضیح دهند. اما فعلاً کاربران برای اعتراض به تصمیم مسئولان تعدیل محتوا چندان فرصتی ندارند.

گرچه هر یک از شبکه‌های اجتماعی آمیزه‌ای از بازبینی سردبیری، شناسایی خودکار و گزارش جمعی را برای نظارت بر محتوا در وبسایت‌های خود به کار می‌برند اما درباره‌ی هر یک از مراحل فرایند تعدیل محتوا باید به چند مسئله اشاره کرد. فهم و اجرای قوانین و مقررات این شبکه‌ها باید برای کاربران آسان باشد. افزون بر این، پاسخ شرکت‌ها به موارد نقض این قوانین باید منسجم باشد تا نتوان آنها را به سوگیری در اجرای سیاست‌ها متهم کرد. در هنگام استفاده از هوش مصنوعی و الگوریتم‌ها برای حذف محتوا باید سوگیریِ ضمنیِ مهندسان نرم‌افزار را در نظر گرفت تا بتوان بی‌طرفیِ فناوری را تضمین کرد. با توجه به نقش مهم مجریان تعدیل محتوا در متمایز کردن نفرت‌پراکنی از توهین، شبکه‌های اجتماعی باید به گزارش جمعی و بازبینیِ متعاقب آن بیشتر اهمیت دهند.

استنباط عمومی از فرایند تعدیل محتوا

کاربران شبکه‌های اجتماعی معمولاً از طرز کار فرایند تعدیل محتوا خبر ندارند. سارا مایرز وست در تحقیقی استنباط کاربران از نقش شرکت‌های شبکه‌های اجتماعی در تعدیل محتوای خود، برداشت آنها از نوع مطالب حذف‌شده، و تأثیر این امر بر اظهار نظر علنی مردم را بررسی کرد. پژوهش او نشان داد که کاربران از چرایی و چگونگی حذف مطالب خود تصور دقیقی ندارند. اکثر آنها عقیده داشتند که مطالب‌شان به این علت حذف شده که کسی مداخله کرده ــ یعنی دیگر کاربران از آن مطالب شکایت کرده‌اند ــ در حالی که در واقع نقش اصلی بر عهده‌ی هوش مصنوعی است. بعضی از کاربران حذف مطالب را ناشی از سوگیری سیاسی شرکت‌های شبکه‌های اجتماعی می‌دانستند. این امر، دست‌کم تا حدی، معلول این واقعیت است که اظهار نظرهای به شدت بی‌ادبانه در سایت‌های خبریِ محافظه‌کار رایج‌تر است. اخیراً گروهی از پژوهشگران با ارزیابی و مقایسه‌ی شیوع بی‌ادبی در نظرات ثبت‌شده در صفحات فیسبوکیِ رسانه‌های خبری آمریکایی دریافتند که ۱۹ درصد از کل نظرات ثبت‌شده در صفحات فیسبوکیِ رسانه‌های خبری محافظه‌کار به شدت بی‌ادبانه بود، در حالی که این رقم در مورد صفحات فیسبوکی رسانه‌های خبری لیبرال 9 درصد بود.افزون بر این، تعداد نظرات به شدت بی‌ادبانه در صفحات فیسبوکی رسانه‌های خبری محلی سه برابر رسانه‌های ملی بود.

تصور رایج درباره‌ی سوگیری سیاسی شرکت‌های شبکه‌های اجتماعی توجه ترامپ را نیز به خود جلب کرد و او هم نسبت به سوگیری این سازمان‌ها ابراز نارضایتی کرد.

ترامپ در واکنش به تصمیم فیسبوک و توئیتر مبنی بر ممانعت از فعالیت راست‌گرایان افراطی، از جمله الکس جونز، این شرکت‌ها را به رعایت آزادی بیان بی‌قیدوشرط فراخواند. دولت او از کاربران شبکه‌های اجتماعی خواست که اگر فکر کردند توئیتر و فیسبوک آنها را به علت دیدگاه‌های سیاسی خود تنبیه کرده به طور مستقیم به کاخ سفید شکایت کنند. ترامپ در مه ۲۰۱۹ برای تسهیل این فرایند، فرم آنلاینی را در توئیتر منتشر کرد.

با توجه به عدم شفافیت سازمان‌های شبکه‌های اجتماعی پیرامون این مسئله، عجیب نیست که کاربران شبکه‌های اجتماعی تصور درستی از فرایند تعدیل محتوا ندارند. برای مثال، تازه در سال ۲۰۱۸ بود که فیسبوک با انتشار نسخه‌ی روزآمدی از سیاست‌های مشروح خود به کاربران توضیح داد که روند تصمیم‌گیری درباره‌ی گزارش نفرت‌پراکنی چگونه است. هرچه شبکه‌های اجتماعی توضیحات بیشتری درباره‌ی تک‌تک مراحل فرایند تعدیل محتوا ارائه دهند بهتر است. همان‌طور که گفتیم، احتمال سوگیری یا اشتباه در سراسر این فرایند وجود دارد. آموزش دادن به کاربران به آنها کمک می‌کند تا از مقررات اعلام‌شده پیروی و در صورت بروز اشتباه با تصمیمات مخالفت کنند.

همان‌طور که گفتیم، فرایند تعدیل محتوا به سازمان‌های شبکه‌های اجتماعی اجازه می‌دهد تا درباره‌ی دسترسی کاربران به نوشته‌ها، تصاویر و ویدیوها تصمیم بگیرند. با توجه به نقش محتوای رسانه‌ها در شکل دادن به ایدئولوژی غالب درباره‌ی ویژگی‌های هویتی‌ای مثل نژاد، جنسیت یا گرایش جنسی، شبکه‌های اجتماعی باید منابع لازم را به فرایند تعدیل محتوا اختصاص دهند.

تعدیل محتوای نفرت‌پراکنی چقدر مؤثر است؟

به‌رغم کوشش‌های فراوان شرکت‌های شبکه‌های اجتماعی برای ممنوعیت و حذف نفرت‌پراکنی از سایت‌های خود، هنوز نفرت‌پراکنی به میزان چشمگیری در آنها وجود دارد.

وبسایت «نوهوموفوبزدات‌کام»، که توسط «مؤسسه‌ی مطالعات و خدمات اقلیت‌های جنسی» در دانشگاه آلبرتا ایجاد شده است، نفرت‌پراکنی علیه اقلیت‌های جنسی در توئیتر را پیگیری می‌کند. این وبسایت آمار روزانه‌ی دشنام‌هایی مثل f*gg*t و d*ke را ثبت می‌کند. در پنج سال گذشته، این دو دشنام، به ترتیب، ۴۰/۲۹ میلیون بار و ۷/۵ میلیون بار به کار رفته‌اند.

تحقیقات خود من نشان می‌دهد که شرکت‌های شبکه‌های اجتماعی برای رفع معایب و نقائص فرایند حذف محتوا هنوز راه درازی در پیش دارند. من و هِیلی روسِل در یکی از پژوهش‌های اخیر خود ۳۱۱ نمونه از نفرت‌پراکنی در فیسبوک را شناسایی کردیم و گزارش دادیم. ما دریافتیم که فیسبوک تنها ۴۷ درصد از این مطالب را حذف کرد. تحلیل کیفی این مطالب حاکی از عدم انسجام چشمگیر در واکنش‌های فیسبوک بود. برای مثال، ۹ مورد از ۱۲ مورد گزارش‌شده‌ی حاوی مقایسه‌ی رنگین‌پوستان با میمون یا گوریل حذف شد. پنج مورد از ده مورد گزارش‌شده‌ی حاوی ادعای «تروریست» بودن مسلمانان حذف شد. افزون بر این، هرچند بر اساس قوانین فیسبوک حملات جنسیتی ممنوع است اما این شرکت در حذف نفرت‌پراکنیِ زن‌ستیزانه عملکرد مناسبی نداشت. فیسبوک تنها ۳۸ درصد از موارد گزارش‌شده‌ی حاوی نفرت‌پراکنیِ جنسیتی را حذف کرد.

این تحقیق همچنین نشان داد که فیسبوک نمی‌تواند در فرایند تصمیم‌گیری به آسانی فحوای کلام را دریابد. فیسبوک چند اظهار نظر آشکارا نژادپرستانه یا زن‌ستیزانه را احتمالاً به علت ناتوانی از درک فحوای کلام حذف نکرد. برای مثال، ما اظهار نظری درباره‌ی اپرا وینفری را که حاوی اصطلاح «پتیاره‌ی پنبه‌چین» بود به فیسبوک گزارش دادیم اما این اظهار نظر حذف نشد. اگر تعدیل‌کنندگان محتوا از ارتباط میان برده‌داری، تاریخ پنبه به عنوان محصول فروشیِ ایالت‌های جنوبی آمریکا و تجربه‌ی آمریکایی‌های آفریقایی‌تبار به عنوان اخلاف برده‌هایی که به پنبه‌چینی وادار می‌شدند، آگاه نباشند در این صورت نمی‌فهمند که این اصطلاح چقدر نژادپرستانه است. البته این امر عجیب نیست زیرا فیسبوک معمولاً انتظار ندارد که تعدیل‌کنندگان محتوا بتوانند برای بررسی محتوای گزارش داده شده فحوای کلام را دریابند.

این تحقیق به ما نشان داد که اگر صفحاتی مثل «ماه تاریخ سفیدپوستان آمریکایی»، «آمریکایی‌های سفیدپوست عصبانی»، «اشخاص مایه‌ی تأسف» و «ترامپ ۲۰۲۰» را ندیده و گزارش نداده بودیم، همان ۴۸ درصد از مطالب نفرت‌پراکنی که حذف شد احتمالاً باقی می‌ماند. بنابراین، باید پرسید که شرکت‌های شبکه‌های اجتماعی چقدر از نفرت‌پراکنی در سایت‌های خود پول درمی‌آورند. مطالب مناقشه‌انگیز جلب توجه می‌کند و مدت حضور کاربران در این شبکه‌ها را افزایش می‌دهد. با استناد به این مشغولیت می‌توان با اطمینان به آگهی‌دهندگان گفت که اعضای گروه موردنظرشان چند بار یک آگهی خاص را خواهند دید. حذف نکردن نفرت‌پراکنی، حتی پس از گزارش دادن کاربران، حاکی از آن است که شاید شرکت‌های شبکه‌های اجتماعی بیشتر به سود علاقه داشته باشند تا به مردم. فیسبوک، یوتیوب (که متعلق به گوگل است)، و توئیتر همگی شرکت‌های سهامی عام‌ هستند و در نتیجه در برابر سهام‌داران مسئول‌اند. هدف آنها پول درآوردن است. سازمان‌هایی نظیر «انجمن ملی ترقی رنگین‌پوستان»، «اتحادیه‌ی مبارزه با افترا» و «مطبوعات آزاد» با توجه به سودآوریِ بالقوه‌ی نفرت‌پراکنی برای فیسبوک، دست به دست هم دادند و کارزار #نفرت‌برای‌سودآوری‌رامتوقف‌کنید به راه انداختند؛ این کارزار از آگهی‌دهندگان می‌خواست که در ژوئیه‌ی ۲۰۲۰ برای انتشار آگهی به فیسبوک پول ندهند. موفقیت این کارزار خیره‌کننده بود و بیش از ۱۰۰۰ شرکت، از جمله استارباکس، تارگِت و وُرایزِن، اعلام کردند که تا وقتی فیسبوک به تغییراتی نظیر حذف گروه‌های هوادار برتری سفیدپوستان و مشارکت در بازرسیِ منظم تن ندهد به آن آگهی نخواهند داد. انفعال شرکت‌های شبکه‌های اجتماعی به استمرار نفرت‌پراکنی خواهد انجامید، امری که پیامدهای مهمی در زندگی واقعی دارد.

نفرت‌پراکنیِ آنلاین و خشونت آفلاین

نفرت‌پراکنی در اینترنت با اقدامات خشونت‌آمیز در زندگی واقعی ارتباط دارد. برای مثال، در سال ۲۰۱۲ انتشار فیلم کوتاه ضداسلامیِ «معصومیت مسلمانان» در یوتیوب به اعتراضات و تظاهرات خشونت‌آمیزی در سراسر جهان انجامید. در این بلواها ۵۰ نفر کشته و تعدادی زخمی شدند. سازندگان این فیلم، که پیامبر اسلام را تحقیر می‌کرد، به مرگ تهدید شدند و یکی از مقام‌های دولت پاکستان برای کسی که تهیه‌کننده‌ی این فیلم را به قتل برساند جایزه تعیین کرد.

در آمریکا، عاملان حملات اخیر برتری‌طلبان سفیدپوست به تولید و مصرف مطالب‌ نفرت‌پراکنانه در شبکه‌های اجتماعی مشغول بودند. تیراندازی که در سال ۲۰۱۵ در چارلستون، در ایالت کارولینای جنوبی، با حمله به یک کلیسای اسقفیِ متودیستِ متعلق به آفریقایی‌تبارها ۹ روحانیِ سیاه‌پوست را در هنگام مراسم دعا و نیایش به قتل رساند پیش از این حمله عکس‌هایی از خود را در فیسبوک منتشر کرده بود که در آنها جلیقه‌ای مُنَقَّش به نمادهای سفیدپوستان برتری‌طلب بر تن داشت. دادستان‌های فدرال در محاکمه‌ی این فرد گفتند که او از طریق مطالب موجود در اینترنت «به دست خودش افراط‌گرا شده» و اعتقاد یافته که تحقق برتری سفیدپوستان مستلزم توسل به خشونت است.

حمله‌ی سال ۲۰۱۹ به دو مسجد در نیوزیلند، که به مرگ ۵۱ نفر انجامید، با شبکه‌های اجتماعی ارتباط داشت. عامل این حمله با اشاره به پیودای‌پای، ستاره‌ی مناقشه‌انگیز یوتیوب، بیانیه‌ی ۷۴ صفحه‌ای او را در توئیتر و اِیت‌چَن منتشر کرد، و سپس این کشتار را به طور زنده در فیسبوک و توئیتر پخش کرد. پیش از آن که شرکت‌های شبکه‌های اجتماعی به خود بیایند، ویدیوهای این قتل‌عام در فیسبوک، ردیت، توئیتر و یوتیوب دست به دست شده بود.

این مثال‌ها نشان می‌دهد که افراط‌گرایان از شبکه‌های اجتماعی به عنوان ابزاری برای انتشار پیام خود استفاده می‌کنند اما حتی در میان افراد میانه‌رو نیز نفرت‌پراکنی در شبکه‌های اجتماعی به گسترش کلیشه‌ها و دیدگاه‌های تعصب‌آمیز دامن می‌زند، امری که می‌تواند به انواع گوناگونی از بدرفتاری، از پرخاشگری جزئی تا تبعیض، بینجامد. با توجه به تأثیرات منفی گسترده‌ی نفرت‌پراکنی، باید برای کاستن از تأثیر آن در شبکه‌های اجتماعی راه‌حل‌هایی یافت و در عین حال نقش مهم این شبکه‌ها در سازمان‌دهیِ جمعی برای تغییر اجتماعی را پذیرفت.

حل مشکل

به استثنای آلمان و فرانسه، دولت‌ها سازمان‌های شبکه‌های اجتماعی را در قبال اظهارنظرهای کاربران این سایت‌ها مسئول نمی‌دانند. بنابراین، این شرکت‌ها عمدتاً باید خودشان بر خود نظارت کنند. در نتیجه، این سازمان‌ها اغلب به شیوه‌ای نامنسجم به مطالب مشکل‌آفرین واکنش نشان می‌دهند، امری که می‌تواند به آتش‌افروزی دامن بزند.

پس از قتل جورج فلوید به دست مأموران پلیس مینیاپولیس، تظاهرات علیه خشونت پلیس سراسر دنیا را فرا گرفت. در بعضی از تظاهرات، درگیری‌های خشونت‌آمیزی میان معترضان و پلیس رخ داد. ترامپ در واکنش به این رویدادها در توئیتی نوشت: «این اوباش دارند به یاد و خاطره‌ی جورج فلوید اهانت می‌کنند، و من اجازه نخواهم داد که چنین اتفاقی بیفتد. همین حالا با آقای فرماندار تیم والز حرف زدم و به او گفتم که ارتش تا آخرِ کار با اوست. اگر مشکلی پیش بیاید، بر اوضاع مسلط خواهیم شد اما وقتی غارت شروع شود، تیراندازی شروع خواهد شد. ممنونم!»

توئیتر اعلام کرد که چون این توئیت قوانین آنها علیه خشونت‌ستایی را نقض کرده، برای حفظ «منافع عمومی» امکان پسندیدن، پاسخ دادن یا ریتوئیت کردن آن را از کاربران سلب کرده اما آن را حذف نکرده و همچنان قابل ‌مشاهده است.

فیسبوک نه این مطلب را حذف کرد و نه به آن برچسب زد. در نتیجه، بعضی از کاربران خشمگین شدند و پرسیدند که چرا فیسبوک به رئیس جمهور، بر خلاف دیگران، اجازه داده است که قوانین استفاده از آن را نقض کند. این اتفاق توجه مردم را به قدرت فیسبوک در محافظت از تعریف خاصی از آزادی بیان جلب کرد، تعریفی که اظهارنظرهای زیان‌باری را که نفرت‌پراکنی را تشدید و حقوق مدنی را تهدید می‌کند، مجاز می‌شمارد.

در ژوئیه‌ی ۲۰۲۰، فیسبوک نتیجه‌ی بازرسی خود از حقوق مدنی را منتشر کرد. ۱۰۰ سازمان حقوق مدنی در تهیه‌ی این گزارش نقش داشتند. بر اساس این گزارش، فیسبوک هنوز به شدت محتاج بهبود سیاست‌ها و اقدامات خود پیرامون شناسایی و حذف نفرت‌پراکنی است. برای مثال، فیسبوک فاقد نظام دقیقی برای ارزیابی میزان نفرت‌پراکنی علیه گروه‌های خاص است.

اگر سازمان‌های شبکه‌های اجتماعی بخواهند قاطعانه‌تر با نفرت‌پراکنی مقابله کنند، می‌توانند با توجه به تحقیقات اخیر از چند گزینه استفاده کنند. در درجه‌ی اول، این سازمان‌ها می‌توانند در فرایند حذف بیش از پیش به فحوای کلام توجه کنند. پژوهش‌های اخیر در این حوزه نشان می‌دهد که به‌رغم گزارش کاربران، این سازمان‌ها میزان چشمگیری از مطالب ناقض مقررات خود را حذف نمی‌کنند. ارائه‌ی راهنمایی‌های لازم به تعدیل‌کنندگان محتوا می‌تواند در اخذ تصمیم‌های منسجم‌تر و درست‌تر درباره‌ی حذف مطالب به آنها کمک کند.

این سازمان‌ها همچنین باید به صورتی شفاف‌تر با نفرت‌پراکنی در سایت‌های خود مقابله کنند. بر اساس قوانین آلمان، شبکه‌های اجتماعیِ دارای بیش از یک میلیون کاربر موظف‌اند که با ارائه‌ی گزارش‌هایی بگویند که کاربران از چه مطالبی به اتهام نفرت‌پراکنی شکایت و این شرکت‌ها کدام یک از این مطالب را حذف کرده‌اند. ارائه‌ی چنین گزارش‌هایی در سطح جهانی به افراد، نهادهای دولتی و سازمان‌های غیردولتی کمک می‌کند تا ماهیت مشکل را بهتر بفهمند و راه‌حل‌های جامع‌تری برای آن بیابند. تلاش برای افزایش شفافیت می‌تواند نگرانی درباره‌ی سودجویی شبکه‌های اجتماعی از نفرت‌پراکنی را کاهش دهد.

یک راه‌حل دیگر این است که کاربران این شبکه‌های اجتماعی را ترک کنند و در عوض از طریق پیام‌رسان‌هایی مثل واتس‌اپ یا اسنپ‌چت با یکدیگر ارتباط برقرار کنند. اما این کار برای بسیاری از کاربران ممکن نیست. برای مثال، فارغ‌التحصیلان جدید اغلب برای یافتن شغلی در حوزه‌ی انتخابیِ خود یا برای حفظ تماس با خانواده‌ی خود که دور از آنها زندگی می‌کنند به شبکه‌های اجتماعی احتیاج دارند. افزون بر این، ترک شبکه‌های اجتماعی به افزایش قدرت کسانی می‌انجامد که از این شبکه‌ها برای اهداف پلید خود استفاده می‌کنند، و دیگران را از مزایا و محاسن این شبکه‌ها ــ از جمله جمع‌آوری اخبار و معاشرت ــ محروم می‌کند. در واقع، برای بسیاری از اعضای گروه‌های به‌حاشیه‌رانده‌شده‌ای مثل جوانان عضو اقلیت‌های جنسی، شبکه‌های اجتماعی می‌تواند راهی برای تماس با همتایان و هم‌فکری درباره‌ی مسائل گوناگون باشد. پیشنهاد ترک شبکه‌های اجتماعی، محاسن و نقش مهم آنها در بسیاری از جنبه‌های زندگی، به‌ویژه برای جوانان، را نادیده می‌گیرد.

راه‌حل مشکل، ترک شبکه‌های اجتماعی نیست. در عوض، باید با استفاده از فشار افکار عمومی یا تدابیر قانونی، سازمان‌های شبکه‌های اجتماعی را به تخصیص منابع بیشتر برای حل این مشکل ترغیب کرد. شراکت میان این سازمان‌ها و نهادهای ناظری مثل اتحادیه‌ی اروپا یا دولت‌ها می‌تواند به نتایج مثبتی بینجامد. به هر حال، کاربران، ناظران، دولت‌ها و دیگر نهادها باید هوشیار بمانند و از هیچ کوششی برای به حداقل رساندن نفرت‌پراکنی در شبکه‌های اجتماعی دریغ نکنند.

منبع: آسو

کیتلین رینگ کارلسون دانشیار دپارتمان ارتباطات در دانشگاه سیاتل است. آنچه خواندید برگردان گزیده‌هایی از این نوشته با عنوان اصلیِ زیر است:

Caitlin Ring Carlson (2021) Hate Speech, MIT Press.

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.