پلتفرمهای شبکههای اجتماعی اساساً برای بیشینهسازی تعامل طراحی شدهاند، نه برای تقویت همزیستی اجتماعی. اگرچه این پلتفرمها مزایای انکارناپذیری—از جمله ارتباط، آموزش و افزایش آگاهی—ارائه میدهند، اما همزمان دارای کاستیهای ساختاری هستند که بهطور ناخواسته به بازتولید و تقویت تبعیض علیه اقلیتها دامن میزنند، بهویژه از طریق عادیسازی محتوای تکرارشونده.
در مرکز این مسئله، یک واقعیت ساده روانشناختی قرار دارد: آنچه انسان بارها و بارها میبیند، بهتدریج طبیعی، قابلقبول و نماینده واقعیت تلقی میشود. این امر صرفاً یک فرض نیست؛ دههها پژوهش در علوم رفتاری نشان دادهاند که مواجهه مکرر، باورها، ادراک و رفتار انسان را شکل میدهد. الگوریتمهای شبکههای اجتماعی آگاهانه از این سازوکار بهره میبرند و محتوایی مشابه آنچه کاربر پیشتر مشاهده کرده است را بازتولید میکنند، بیآنکه پیامدهای اجتماعی آن را در نظر گیرند.
عادیسازی از طریق تکرار
زمانی که کاربر بر محتوایی بیضرر—مانند نجات حیوانات یا نوآوریهای علمی—کلیک میکند، پلتفرم بلافاصله محتوای مشابهی را پیشنهاد میدهد. این سازوکار در نظریه خنثی به نظر میرسد، اما در عمل، هنگامی که به محتوای آسیبزا یا تبعیضآمیز اعمال میشود، پیامدهای خطرناکی به همراه دارد.
اگر فرد—even یکبار و از روی کنجکاوی—به مشاهده محتوایی بپردازد که:
اقلیتها را بهعنوان تهدید معرفی میکند
مهاجران را عامل سرقت فرصتهای شغلی میداند
یک نژاد، قومیت یا رنگ پوست را با جرم پیوند میدهد
خشونت، قلدری یا ارعاب را تمجید میکند
الگوریتم غالباً با ارائه محتوای مشابه واکنش نشان میدهد.
مواجهه مکرر صرفاً آگاهیبخش نیست، بلکه شرطیساز است. با گذشت زمان، بیننده این روایتها را فراگیر، عادی و موجه تلقی میکند. به این ترتیب، اسلامهراسی، احساسات ضداقلیتی و دیگر گفتمانهای تبعیضآمیز، حتی در میان افرادی که در ابتدا چنین دیدگاههایی نداشتند، به امری عادی تبدیل میشود.
چرخه جهانی تحریف ادراک
این تحریف الگوریتمی در همه جهات و فراتر از مرزها عمل میکند. در محیطهای افراطی، ممکن است افراد تنها چند ویدئو را مشاهده کنند که غرب را فاسد، خشونتطلب یا دشمن دین معرفی میکند. سپس الگوریتمها این تصویر را تقویت کرده و این تصور را ایجاد میکنند که غرب بهطور یکپارچه خصمانه و منحرف است؛ امری که به نارضایتی و رادیکالیزهشدن دامن میزند. در جوامع غربی نیز، یک کلیک ساده بر محتوای منتقد مهاجرت یا اقلیتها میتواند زنجیرهای از ویدئوهای مشابه را فعال کند و این باور را تقویت نماید که اقلیتها تهدیدی برای امنیت، اقتصاد یا هویت فرهنگی هستند.
در هر دو حالت، کاربر از مواجهه با دیدگاههای متوازن، نمونههای مثبت و توضیحات زمینهای محروم میشود؛ عواملی که میتوانند از شدت ترس و خصومت بکاهند. نتیجه، جهانبینی محدود و تحریفشدهای است که نه بر اساس واقعیت، بلکه بر مبنای تکرار الگوریتمی شکل میگیرد.
فشار اجتماعی، یادگیری اجتماعی و نفوذ دیجیتال
پژوهشهای روانشناسی و جامعهشناسی بهطور مداوم نشان دادهاند که انسانها بهشدت تحت تأثیر هنجارهای اجتماعی ادراکشده قرار دارند. مطالعات بیان میکنند که:
مواجهه مکرر، پذیرش ایدهها—حتی ایدههای افراطی یا نادرست—را افزایش میدهد
تقویت شبههمسالان، مانند لایک و اشتراکگذاری، باورها را تثبیت میکند
نظریه یادگیری اجتماعی تأیید میکند که افراد نگرشها و رفتارهایی را میپذیرند که بهطور مداوم مشاهده میکنند
در شبکههای اجتماعی، الگوریتمها بهمثابه «همسالان نامرئی» عمل میکنند که بهطور مستمر روایتهای خاصی را تقویت مینمایند. تکرار محتوای تبعیضآمیز، پیام ضمنی روشنی ارسال میکند: این امر رایج است، قابلقبول است و طبیعی است.
این پویایی در آسیبهای دنیای واقعی نیز مشاهده شده است، از جمله:
عادیسازی گفتار نفرتانگیز در فضاهای آنلاین پیش از بروز خشونت فیزیکی
بیحسشدن مخاطبان در برابر خشونت بر اثر مواجهه مداوم
اشاره عاملان حملات افراطی به زیستبومهای محتوایی آنلاین بهعنوان بخشی از تقویت ایدئولوژیک آنان
موضع (سازمان عدم خشونت) فریمسلم: هشدار بدون اتهام
سازمان فریمسلم (Freemuslim) و رهبری آن با نگرانی عمیق به این پدیده مینگرند، بیآنکه نیت سوء را به پلتفرمها نسبت دهند. شبکههای اجتماعی ممکن است قصد ترویج تبعیض نداشته باشند، اما نظامهای مبتنی بر تعامل، ناخواسته آن را پاداش میدهند. عادیسازی، ایدههای زیانبار را کمخطر نمیکند، بلکه آنها را از نظر اجتماعی پذیرفتنیتر میسازد. هنگامی که نفرت عادی جلوه میکند، مقاومت کاهش مییابد؛ هنگامی که خشونت معمولی به نظر میرسد، همدلی فرسایش مییابد؛ و زمانی که تبعیض موجه تلقی میشود، جامعه دچار گسست میگردد.
این آسیب، اقلیتها، زنان، کودکان، گروههای دینی و در نهایت کل بشریت را—در هر کشور و در هر فرهنگ—متأثر میسازد.
دعوت به اصلاح ساختاری، نه سانسور
فریمسلم ( سازمان عدم خشونت)خواستار اصلاحات بنیادین در شیوه مدیریت سیستمهای توصیه محتوا در شبکههای اجتماعی است، از جمله:
تقویت پالایش محتوای تبعیضآمیز، خشونتآمیز و زیانبار، حتی در اشکال ضمنی
محدودسازی مواجهه تکرارشونده با محتوای مرتبط با نفرت، خشونت، قلدری یا رفتارهای آسیبزا، صرفنظر از کنجکاوی کاربر
تمایز زمینهای میان محتوای آموزشی و محتوای تمجیدکننده آسیب
ایجاد توازن الگوریتمی از طریق ارائه دیدگاههای انسانی، آموزشی یا اصلاحی در برابر روایتهای زیانبار
پذیرش مسئولیت مشترک، بهگونهای که الگوهای تعامل کاربران نیز در کاهش چرخههای عادیسازی مضر لحاظ شود
اگر مواجهه مکرر میتواند مغز انسان را شکل دهد—و علم این امر را تأیید میکند—پلتفرمها مسئولیتی اخلاقی برای کاهش این تکرارهای آسیبزا دارند.
نتیجهگیری: فناوری، جامعه را شکل میدهد
شبکههای اجتماعی صرفاً بازتابدهنده جامعه نیستند؛ بلکه بهطور فعال در شکلدهی آن نقش دارند. آنچه برجسته میشود، پذیرفته میگردد و آنچه تکرار میشود، عادی میشود.
فریمسلم بر این باور است که فناوری باید در خدمت انسانیت باشد، نه عامل تفرقه. بدون اصلاحات سنجیده، نظامهای الگوریتمی همچنان بهطور ناخواسته تبعیض را تقویت، شکافها را عمیق و آسیب را عادیسازی خواهند کرد. این بیانیه فراخوانی برای خاموشکردن صداها نیست، بلکه دعوتی است به طراحی پلتفرمهایی که کرامت انسانی را پاس میدارند