پلتفرم‌های شبکه‌های اجتماعی اساساً برای بیشینه‌سازی تعامل طراحی شده‌اند، نه برای تقویت همزیستی اجتماعی. اگرچه این پلتفرم‌ها مزایای انکارناپذیری—از جمله ارتباط، آموزش و افزایش آگاهی—ارائه می‌دهند، اما هم‌زمان دارای کاستی‌های ساختاری هستند که به‌طور ناخواسته به بازتولید و تقویت تبعیض علیه اقلیت‌ها دامن می‌زنند، به‌ویژه از طریق عادی‌سازی محتوای تکرارشونده.

در مرکز این مسئله، یک واقعیت ساده روان‌شناختی قرار دارد: آنچه انسان بارها و بارها می‌بیند، به‌تدریج طبیعی، قابل‌قبول و نماینده واقعیت تلقی می‌شود. این امر صرفاً یک فرض نیست؛ دهه‌ها پژوهش در علوم رفتاری نشان داده‌اند که مواجهه مکرر، باورها، ادراک و رفتار انسان را شکل می‌دهد. الگوریتم‌های شبکه‌های اجتماعی آگاهانه از این سازوکار بهره می‌برند و محتوایی مشابه آنچه کاربر پیش‌تر مشاهده کرده است را بازتولید می‌کنند، بی‌آنکه پیامدهای اجتماعی آن را در نظر گیرند.

عادی‌سازی از طریق تکرار

زمانی که کاربر بر محتوایی بی‌ضرر—مانند نجات حیوانات یا نوآوری‌های علمی—کلیک می‌کند، پلتفرم بلافاصله محتوای مشابهی را پیشنهاد می‌دهد. این سازوکار در نظریه خنثی به نظر می‌رسد، اما در عمل، هنگامی که به محتوای آسیب‌زا یا تبعیض‌آمیز اعمال می‌شود، پیامدهای خطرناکی به همراه دارد.

اگر فرد—even یک‌بار و از روی کنجکاوی—به مشاهده محتوایی بپردازد که:

اقلیت‌ها را به‌عنوان تهدید معرفی می‌کند

مهاجران را عامل سرقت فرصت‌های شغلی می‌داند

یک نژاد، قومیت یا رنگ پوست را با جرم پیوند می‌دهد

خشونت، قلدری یا ارعاب را تمجید می‌کند

الگوریتم غالباً با ارائه محتوای مشابه واکنش نشان می‌دهد.

مواجهه مکرر صرفاً آگاهی‌بخش نیست، بلکه شرطی‌ساز است. با گذشت زمان، بیننده این روایت‌ها را فراگیر، عادی و موجه تلقی می‌کند. به این ترتیب، اسلام‌هراسی، احساسات ضداقلیتی و دیگر گفتمان‌های تبعیض‌آمیز، حتی در میان افرادی که در ابتدا چنین دیدگاه‌هایی نداشتند، به امری عادی تبدیل می‌شود.

چرخه جهانی تحریف ادراک

این تحریف الگوریتمی در همه جهات و فراتر از مرزها عمل می‌کند. در محیط‌های افراطی، ممکن است افراد تنها چند ویدئو را مشاهده کنند که غرب را فاسد، خشونت‌طلب یا دشمن دین معرفی می‌کند. سپس الگوریتم‌ها این تصویر را تقویت کرده و این تصور را ایجاد می‌کنند که غرب به‌طور یکپارچه خصمانه و منحرف است؛ امری که به نارضایتی و رادیکالیزه‌شدن دامن می‌زند. در جوامع غربی نیز، یک کلیک ساده بر محتوای منتقد مهاجرت یا اقلیت‌ها می‌تواند زنجیره‌ای از ویدئوهای مشابه را فعال کند و این باور را تقویت نماید که اقلیت‌ها تهدیدی برای امنیت، اقتصاد یا هویت فرهنگی هستند.

در هر دو حالت، کاربر از مواجهه با دیدگاه‌های متوازن، نمونه‌های مثبت و توضیحات زمینه‌ای محروم می‌شود؛ عواملی که می‌توانند از شدت ترس و خصومت بکاهند. نتیجه، جهان‌بینی محدود و تحریف‌شده‌ای است که نه بر اساس واقعیت، بلکه بر مبنای تکرار الگوریتمی شکل می‌گیرد.

فشار اجتماعی، یادگیری اجتماعی و نفوذ دیجیتال

پژوهش‌های روان‌شناسی و جامعه‌شناسی به‌طور مداوم نشان داده‌اند که انسان‌ها به‌شدت تحت تأثیر هنجارهای اجتماعی ادراک‌شده قرار دارند. مطالعات بیان می‌کنند که:

مواجهه مکرر، پذیرش ایده‌ها—حتی ایده‌های افراطی یا نادرست—را افزایش می‌دهد

تقویت شبه‌همسالان، مانند لایک و اشتراک‌گذاری، باورها را تثبیت می‌کند

نظریه یادگیری اجتماعی تأیید می‌کند که افراد نگرش‌ها و رفتارهایی را می‌پذیرند که به‌طور مداوم مشاهده می‌کنند

در شبکه‌های اجتماعی، الگوریتم‌ها به‌مثابه «همسالان نامرئی» عمل می‌کنند که به‌طور مستمر روایت‌های خاصی را تقویت می‌نمایند. تکرار محتوای تبعیض‌آمیز، پیام ضمنی روشنی ارسال می‌کند: این امر رایج است، قابل‌قبول است و طبیعی است.

این پویایی در آسیب‌های دنیای واقعی نیز مشاهده شده است، از جمله:

عادی‌سازی گفتار نفرت‌انگیز در فضاهای آنلاین پیش از بروز خشونت فیزیکی

بی‌حس‌شدن مخاطبان در برابر خشونت بر اثر مواجهه مداوم

اشاره عاملان حملات افراطی به زیست‌بوم‌های محتوایی آنلاین به‌عنوان بخشی از تقویت ایدئولوژیک آنان

موضع (سازمان عدم خشونت) فری‌مسلم: هشدار بدون اتهام

سازمان فری‌مسلم (Freemuslim) و رهبری آن با نگرانی عمیق به این پدیده می‌نگرند، بی‌آنکه نیت سوء را به پلتفرم‌ها نسبت دهند. شبکه‌های اجتماعی ممکن است قصد ترویج تبعیض نداشته باشند، اما نظام‌های مبتنی بر تعامل، ناخواسته آن را پاداش می‌دهند. عادی‌سازی، ایده‌های زیان‌بار را کم‌خطر نمی‌کند، بلکه آن‌ها را از نظر اجتماعی پذیرفتنی‌تر می‌سازد. هنگامی که نفرت عادی جلوه می‌کند، مقاومت کاهش می‌یابد؛ هنگامی که خشونت معمولی به نظر می‌رسد، همدلی فرسایش می‌یابد؛ و زمانی که تبعیض موجه تلقی می‌شود، جامعه دچار گسست می‌گردد.

این آسیب، اقلیت‌ها، زنان، کودکان، گروه‌های دینی و در نهایت کل بشریت را—در هر کشور و در هر فرهنگ—متأثر می‌سازد.

دعوت به اصلاح ساختاری، نه سانسور

فری‌مسلم ( سازمان عدم خشونت)خواستار اصلاحات بنیادین در شیوه مدیریت سیستم‌های توصیه محتوا در شبکه‌های اجتماعی است، از جمله:

تقویت پالایش محتوای تبعیض‌آمیز، خشونت‌آمیز و زیان‌بار، حتی در اشکال ضمنی

محدودسازی مواجهه تکرارشونده با محتوای مرتبط با نفرت، خشونت، قلدری یا رفتارهای آسیب‌زا، صرف‌نظر از کنجکاوی کاربر

تمایز زمینه‌ای میان محتوای آموزشی و محتوای تمجیدکننده آسیب

ایجاد توازن الگوریتمی از طریق ارائه دیدگاه‌های انسانی، آموزشی یا اصلاحی در برابر روایت‌های زیان‌بار

پذیرش مسئولیت مشترک، به‌گونه‌ای که الگوهای تعامل کاربران نیز در کاهش چرخه‌های عادی‌سازی مضر لحاظ شود

اگر مواجهه مکرر می‌تواند مغز انسان را شکل دهد—و علم این امر را تأیید می‌کند—پلتفرم‌ها مسئولیتی اخلاقی برای کاهش این تکرارهای آسیب‌زا دارند.

نتیجه‌گیری: فناوری، جامعه را شکل می‌دهد

شبکه‌های اجتماعی صرفاً بازتاب‌دهنده جامعه نیستند؛ بلکه به‌طور فعال در شکل‌دهی آن نقش دارند. آنچه برجسته می‌شود، پذیرفته می‌گردد و آنچه تکرار می‌شود، عادی می‌شود.

فری‌مسلم بر این باور است که فناوری باید در خدمت انسانیت باشد، نه عامل تفرقه. بدون اصلاحات سنجیده، نظام‌های الگوریتمی همچنان به‌طور ناخواسته تبعیض را تقویت، شکاف‌ها را عمیق و آسیب را عادی‌سازی خواهند کرد. این بیانیه فراخوانی برای خاموش‌کردن صداها نیست، بلکه دعوتی است به طراحی پلتفرم‌هایی که کرامت انسانی را پاس می‌دارند