به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

در دسترس بودن گسترده ویدیوی تصویربرداری چارلی کرک، چالش‌های تعدیل محتوا را نشان می‌دهد

در دسترس بودن گسترده ویدیوی تصویربرداری چارلی کرک، چالش‌های تعدیل محتوا را نشان می‌دهد

اسوشیتد پرس
1404/08/03
17 بازدید

بلافاصله پس از تیراندازی به چارلی کرک در طی یک رویداد دانشگاهی در یوتا، ویدیوی گرافیکی از آنچه اتفاق افتاد تقریباً بلافاصله به صورت آنلاین، از چندین زاویه، با سرعت آهسته و زمان واقعی در دسترس قرار گرفت. میلیون‌ها نفر - گاهی خواه ناخواه - به عنوان ویدیوها در پلتفرم‌های رسانه‌های اجتماعی پخش می‌شوند.

پیدا کردن ویدیو در X، در فیس‌بوک، در TikTok، در اینستاگرام، در YouTube به راحتی امکان‌پذیر بود — حتی در Truth Social رئیس‌جمهور دونالد ترامپ. این پلتفرم‌ها، عموماً می‌گفتند در صورت نقض خط‌مشی‌های خود، حداقل برخی از ویدیوها را حذف می‌کنند، مثلاً اگر شخص به هر نحوی از قتل تمجید می‌کرد.

دو روز پس از مرگ کرک، علی‌رغم تماس‌ها برای حذف ویدیوها، همچنان به راحتی در رسانه‌های اجتماعی یافت می‌شد.

لورا ادلسون، استادیار دانشگاه علوم کامپیوتر در Northe، می‌گوید: «به‌سرعت مشخص نبود که مثلاً اینستاگرام فقط در حذف برخی از ویدیوهای گرافیکی چارلی کرک شکست خورده است یا اینکه آنها تصمیمی آگاهانه برای کنار گذاشتن آن‌ها داشته‌اند.

رویدادها چالش‌های تعدیل محتوا را به تصویر می‌کشند که پلتفرم‌ها در رسیدگی به رویدادهای سریع در زمان واقعی با آن روبرو هستند، که با مرگ یک فعال محافظه‌کار قطبی که در مقابل جمعیت مسلح به تلفن‌های هوشمند در حال ضبط لحظه مورد اصابت گلوله قرار گرفت، پیچیده است.

این مسئله‌ای است که شرکت‌های رسانه‌های اجتماعی قبلاً با آن سروکار داشته‌اند. فیس‌بوک با تیراندازی دسته‌جمعی در نیوزلند در سال 2019 مجبور شد با افرادی که می‌خواهند خشونت را پخش مستقیم کنند، مبارزه کند.. مردم همچنین دعوا، خودکشی و قتل را به صورت زنده پخش کرده اند.

این شرکت گفت که یوتیوب گفت که «برخی محتوای گرافیکی» مربوط به رویداد را در صورتی که زمینه کافی ارائه نشود حذف می‌کند و ویدیوها را محدود می‌کند تا برای کاربران زیر 18 سال یا افرادی که وارد سیستم نشده‌اند دیده نشوند.

YouTube گفت: «ما از نزدیک پلتفرم خود را زیر نظر داریم و محتوای خبری را در صفحه اصلی، در جستجو و توصیه‌ها به‌طور برجسته ارتقا می‌دهیم تا به افراد کمک کنیم مطلع بمانند.

در بیانیه‌ای، TikTok گفت که "متعهد به اجرای فعال دستورالعمل‌های انجمن ما است و تدابیر امنیتی بیشتری را برای جلوگیری از تماشای غیرمنتظره فیلم‌هایی که قوانین ما را نقض می‌کند، اعمال کرده است."

TikTok همچنین اقدام به محدود کردن فیلم از فید "برای شما" خود کرد تا افراد اگر می‌خواهند آن را ببینند باید آن را جستجو کنند و صفحه‌های هشدار محتوا را اضافه کرد و همچنین برای حذف ویدیوهایی که تصاویر گرافیکی و نمای نزدیک را نشان می‌دادند کار کرد.

الگوریتم‌های پلت‌فرم‌های رسانه‌های اجتماعی به تعامل پاداش می‌دهند. اگر ویدیویی با واکنش‌های زیادی مواجه شود، به بالای فیدهای افراد منتقل می‌شود، جایی که افراد بیشتری آن را می‌بینند و با آن درگیر می‌شوند و این چرخه ادامه می‌یابد.

"منظورم این است که این دنیایی است که همه ما انجام داده ایم. این معامله ای است که همه ما انجام داده ایم. شخصی که می تواند تصمیم بگیرد چه چیزی در اینستاگرام ارزش خبری دارد، مارک زاکربرگ است. شخصی که می تواند تصمیم بگیرد چه چیزی در X باقی بماند، ایلان ماسک است. آنها مالک آن پلتفرم ها هستند، و آنها باید تصمیم بگیرند که چه چیزی روی آنها باشد.. اگر ما می خواهیم که یک نفر دیگر آن را زنده کند. در دنیایی که مهمترین آنها کانال های اطلاعاتی که در گردش هستند توسط افراد مجرد کنترل می شوند.»

و این افراد هستند که تصمیم می‌گیرند چه چیزی را در اولویت قرار دهند. متا، X و سایر پلت‌فرم‌های اجتماعی در سال‌های اخیر با تکیه بر هوش مصنوعی که می‌تواند بیش از حد و کمتر از آن تعدیل کند، تعدیل محتوای انسانی را کاهش داده‌اند.

ایالات متحده. هیچ مقررات کلی برای منع نمایش محتوای خشونت‌آمیز در اینترنت ندارد، اگرچه معمولاً پلتفرم‌ها تلاش می‌کنند تا خردسالان بتوانند آن را مشاهده نکنند. البته، این همیشه جواب نمی‌دهد، زیرا سن کاربران همیشه تأیید نمی‌شود و بچه‌ها معمولاً هنگام ثبت‌نام در پلتفرم‌های اجتماعی درباره سن خود دروغ می‌گویند.

مقامات در جاهای دیگر قوانینی وضع کرده‌اند که شرکت‌های رسانه‌های اجتماعی را ملزم می‌کند تا برای محافظت از کاربران خود در برابر آسیب‌های آنلاین، اقدامات بیشتری انجام دهند. بریتانیا و اتحادیه اروپا هر دو قوانین گسترده‌ای دارند که پلتفرم‌های فناوری را مسئول «ایمنی آنلاین» می‌کند.

قانون ایمنی آنلاین بریتانیا، پلتفرم‌هایی را ملزم می‌کند، حتی آنهایی که در بریتانیا مستقر نیستند، از کاربران در برابر بیش از ده‌ها نوع محتوا، از سوء استفاده جنسی از کودکان گرفته تا هرزه‌نگاری شدید محافظت کنند.

محتوای که یک جرم جنایی مانند حمله خشونت‌آمیز به شخصی را به تصویر می‌کشد، لزوماً محتوای غیرقانونی نیست، اما پلتفرم‌ها همچنان باید ارزیابی کنند که آیا با سایر مطالب ممنوعه مانند تشویق تروریسم مغایرت دارد یا خیر.

دولت بریتانیا می‌گوید این قوانین به‌ویژه برای محافظت از کودکان در برابر «محتوای مضر و نامناسب سنی» طراحی شده‌اند و به والدین و کودکان «روش‌های واضح و قابل دسترس» برای گزارش مشکلات آنلاین ارائه می‌دهند.

این شامل مطالبی است که «خشونت یا جراحت جدی را به تصویر می‌کشد یا تشویق می‌کند»، که خدمات آنلاین برای جلوگیری از دیدن کودکان مورد نیاز است.

نقض قوانین بریتانیا می‌تواند با جریمه‌ای تا 18 میلیون پوند (24.4 میلیون دلار) یا 10 درصد از درآمد سالانه یک شرکت مجازات شود، و مدیران ارشد نیز می‌توانند به دلیل عدم رعایت آنها از نظر کیفری مسئول شناخته شوند.

قانون بریتانیا هنوز نسبتاً جدید است و از ماه مارس شروع به اجرا کرد و در مراحلی اجرا شد.

بقیه اروپا قوانین مشابهی دارند که در سال 2023 اجرایی شد.

بر اساس قانون ایمنی دیجیتال اتحادیه اروپا، شرکت‌های فناوری موظفند مسئولیت بیشتری در قبال مطالب موجود در سایت‌های خود داشته باشند، زیرا تهدید به جریمه‌های سنگین می‌شود.. بزرگ‌ترین پلتفرم‌های آنلاین و موتورهای جستجو، از جمله گوگل، فیس‌بوک، اینستاگرام و تیک‌توک، تحت بررسی‌های بیشتری قرار دارند.

بروکسل می‌گوید پلتفرم‌ها باید مکانیسم‌های «استفاده آسان» را به کاربران ارائه دهند تا محتوای غیرقانونی تلقی می‌شوند، مانند مواد تروریسم و ​​سوء استفاده جنسی از کودکان را پرچم‌گذاری کنند، و اضافه می‌کند که پلتفرم‌ها باید پس از آن به گزارش‌ها «به‌موقع» عمل کنند.

اما نیازی به پلتفرم‌هایی نیست که به طور فعال در مورد مواد غیرقانونی پلیس و حذف آن‌ها اقدام کنند.

دیوید باودر، نویسنده رسانه AP در این داستان مشارکت داشت.