افشای اسناد محرمانه؛ متا به «پنهان‌کاری درباره آسیب اینستاگرام به کودکان» متهم شد

اسناد تازه‌ای که از محرمانگی خارج شده‌اند، ادعاهای سنگینی را علیه شرکت متا ـ مالک فیس‌بوک و اینستاگرام ـ مطرح می‌کنند. طبق این اسناد، متا سال‌ها از آسیب‌های روانی و اجتماعی محصولاتش بر نوجوانان آگاه بوده اما آن را پنهان کرده است. شاکیان می‌گویند سیاست‌های شرکت در عمل، حفاظت از کاربران کودک و نوجوان را قربانی افزایش سود و رشد کرده است.

۱۴۰۴/۰۹/۰۲ - ۱۰:۵۱
۱۴۰۴/۰۹/۰۲ - ۱۰:۵۲
 0
افشای اسناد محرمانه؛ متا به «پنهان‌کاری درباره آسیب اینستاگرام به کودکان» متهم شد
مارک زاکربرگ، مدیرعامل متا، در جلسه استماع کمیته قضایی سنا در واشنگتن. اسناد تازه منتشرشده از افزایش فشارهای حقوقی و عمومی بر این شرکت خبر می‌دهند.

به گزارش ملت بیدار: اسناد تازه‌افشاشده یک پرونده قضایی فدرال در آمریکا نشان می‌دهد شرکت متا (مالک پلتفرم‌های فیس‌بوک و اینستاگرام) نه‌تنها از آسیب‌های روانی و اجتماعی شبکه‌های خود بر نوجوانان باخبر بوده، بلکه از اجرای بسیاری از راهکارهای ایمنی آگاهانه جلوگیری کرده است.

این شکایت که در دادگاه ناحیه کالیفرنیا مطرح شده، بخشی از دعوایی گسترده‌تر با بیش از ۱۸۰۰ شاکی است که شرکت‌های متا، تیک‌تاک، اسنپ و یوتیوب را به نادیده‌گرفتن سلامت کاربران جوان در برابر انگیزه‌های مالی متهم می‌کند.

در مستندات منتشرشده، اظهارات مدیران سابق، ایمیل‌های داخلی و پژوهش‌های درون‌سازمانی وجود دارد که تصویر نگران‌کننده‌ای از نحوه واکنش متا به هشدارهای ایمنی ترسیم می‌کند.

به ادعای شاکیان، حتی گزارش‌های داخلی شرکت نیز حاکی از افزایش اضطراب، افسردگی و مشکلات خوردن در میان نوجوانانی است که به‌صورت سنگین از پلتفرم‌های متا استفاده می‌کردند. اما نتایج این تحقیقات یا بایگانی شدند یا به‌صورت گزینشی به بیرون درز یافتند.

ادعای نخست: آستانه بالای متا برای حذف محتوای مرتبط با قاچاق جنسی

شاکیان می‌گویند اینستاگرام برای حذف حساب‌های مرتبط با قاچاق انسان، تا ۱۶ بار تخلف را نادیده می‌گرفت و تنها در مورد هفدهم اقدام به تعلیق می‌کرد. در حالی‌که راهی آسان برای گزارش سوء‌استفاده‌ از کودکان وجود نداشت. متا این ادعا را رد کرده و گفته است حساب‌های مشکوک را فوراً حذف می‌کند.

ادعای دوم: پنهان‌کاری در برابر کنگره

اسناد مدعی‌اند که متا نتایج پژوهش‌هایی را پنهان کرده که ارتباط مستقیم بین استفاده از شبکه‌هایش و افزایش افسردگی در نوجوانان را نشان می‌داد. به گفته شاکیان، شرکت در پاسخ به سؤالات رسمی مجلس سنا، آگاهانه حقیقت را انکار کرد.

ادعای سوم: بی‌توجهی به ارتباط بزرگسالان غریبه با نوجوانان

طبق شکایت، متا سال‌ها اجرای تنظیمات «خصوصی پیش‌فرض» را برای حساب‌های نوجوانان به تعویق انداخت تا از کاهش رشد کاربری جلوگیری کند. نتیجه، میلیون‌ها تعامل ناخواسته میان نوجوانان و بزرگسالان بود.

ادعای چهارم: هدف‌گیری کاربران خردسال

مستندات داخلی نشان می‌دهد استراتژی متا بر جذب و نگه‌داشت کاربران کم‌سن، حتی زیر ۱۳ سال، متمرکز بوده است. برخی کارمندان درون شرکت این اقدام را با تبلیغات شرکت‌های دخانیات در دهه‌های گذشته مقایسه کرده‌اند.

ادعای پنجم: کنارگذاشتن اقدامات ضدسمی بودن

پروژه‌هایی مانند «پنهان‌سازی لایک‌ها» و محدودکردن فیلترهای زیبایی، که می‌توانستند احساس مقایسه اجتماعی و نارضایتی از بدن را کاهش دهند، به‌دلیل نگرانی از افت مشارکت کاربران در مرحله آزمایش متوقف شدند.

ادعای ششم: حذف‌نشدن خودکار محتوای مضر

شاکیان می‌گوینـد سیستم‌های هوش مصنوعی متا حتی با اطمینان بالا محتواهای مروج خودآزاری یا سوءاستفاده از کودکان را حذف نمی‌کردند. شرکت ترجیح می‌داد این تصمیم‌ها به داوران انسانی واگذار شود، تصمیمی که به باقی‌ماندن بخش زیادی از این محتوا در پلتفرم انجامید.

ادعای هفتم: آگاهی از ماهیت اعتیادآور محصولات و عادی‌سازی آن در افکار عمومی

بر پایه اسناد تازه، مدیران متا از سال‌ها پیش می‌دانستند که طراحی فیس‌بوک و اینستاگرام ماهیتی اعتیادآور دارد و الگوریتم‌های پاداش فوری (مانند نوتیفیکیشن‌ها، لایک و اسکرول بی‌پایان) در مغز نوجوانان واکنش‌های مشابه اعتیاد رفتاری ایجاد می‌کرده‌اند.

با این وجود، به‌جای اعلام خطر یا بازطراحی این ویژگی‌ها، داخلی‌ترین جلسات شرکت بر «مدیریت ادراک رسانه‌ها» تمرکز داشته است تا پیامدهای منفی را «اغراق‌شده» جلوه دهد.

به گفته شاکیان، متا در اسناد بازاریابی خود از اصطلاحاتی چون «افزایش تعامل ارگانیک» برای پنهان‌کردن همان الگوریتم‌هایی استفاده می‌کرد که موجب اعتیاد دیجیتال در نوجوانان می‌شدند. در حالی‌که پژوهشگران داخلی هشدار داده بودند استفاده بیش از دو ساعت در روز می‌تواند تأثیر مستقیم بر خواب، تمرکز و اعتمادبه‌نفس نوجوانان بگذارد، مدیران اجرایی این یافته‌ها را «بی‌اهمیت برای تجارت» توصیف کردند.

سخنگوی متا در واکنش به گزارش‌ها گفت. «در سال‌های اخیر تغییرات مهمی برای کاهش محتوای مضر و افزایش کنترل والدین اجرا کرده‌ایم. ما برخلاف ادعای مطرح‌شده، هدفمان همیشه ایجاد تجربه‌ای ایمن و مفید برای کاربران بوده است»

با این حال، کارشناسان معتقدند این پرونده، فارغ از نتیجه نهایی، مرز تازه‌ای را در مسئولیت اجتماعی شرکت‌های فناوری نسبت به سلامت روان کاربران ترسیم کرده است./ پایان پیام

سرویس تامین محتوا تولید و بازنشر محتوا