به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

يشكل ظهور التنمر عبر الإنترنت المزيف مشكلة متنامية للمدارس

يشكل ظهور التنمر عبر الإنترنت المزيف مشكلة متنامية للمدارس

أسوشيتد برس
1404/10/01
4 مشاهدات
<ديف><ديف>

تواجه المدارس مشكلة متنامية تتمثل في استخدام الطلاب الذكاء الاصطناعي لتحويل الصور البريئة لزملاء الدراسة إلى صور مزيفة جنسية صريحة.

إن تداعيات انتشار الصور ومقاطع الفيديو التي تم التلاعب بها يمكن أن تخلق كابوسًا للضحايا.

تم تسليط الضوء على التحدي الذي تواجهه المدارس في خريف هذا العام عندما اجتاحت الصور العارية التي أنشأها الذكاء الاصطناعي مدرسة متوسطة في لويزيانا. تم توجيه التهم في نهاية المطاف إلى صبيين، ولكن ليس قبل طرد أحد الضحايا بسبب بدء شجار مع صبي اتهمته بإنشاء صور لها ولأصدقائها.

"على الرغم من أن القدرة على تغيير الصور كانت متاحة منذ عقود، إلا أن ظهور الذكاء الاصطناعي جعل من السهل على أي شخص تغيير أو إنشاء مثل هذه الصور مع القليل من التدريب أو الخبرة،" كما قال عمدة أبرشية لافورش، كريج ويبر، في بيان صحفي. "يسلط هذا الحادث الضوء على قلق جدي يجب على جميع الآباء معالجته مع أطفالهم."

إليك بعض النصائح الرئيسية من قصة وكالة أسوشييتد برس حول ظهور الصور العارية التي أنشأها الذكاء الاصطناعي وكيفية استجابة المدارس.

يُعتقد أن المزيد من الولايات أصدرت قوانين لمعالجة التزييف العميق

يُعتقد أن الملاحقة القضائية الناجمة عن التزييف العميق في المدرسة الإعدادية في لويزيانا هي الأولى بموجب قانون الولاية الجديد، حسبما قال سناتور الولاية الجمهوري باتريك كونيك، الذي صاغ التشريع.

يعد هذا القانون واحدًا من العديد من القوانين في جميع أنحاء البلاد التي تستهدف التزييف العميق. في عام 2025، سنت نصف الولايات على الأقل تشريعات تتناول استخدام الذكاء الاصطناعي التوليدي لإنشاء صور وأصوات تبدو واقعية، ولكنها ملفقة، وفقًا للمؤتمر الوطني للمجالس التشريعية للولايات. تتناول بعض القوانين مواد محاكاة الاعتداء الجنسي على الأطفال.

تمت محاكمة الطلاب أيضًا في فلوريدا وبنسلفانيا وتم طردهم في أماكن مثل كاليفورنيا. كما تم اتهام أحد معلمي الصف الخامس في تكساس باستخدام الذكاء الاصطناعي لإنشاء مواد إباحية للأطفال لطلابه.

أصبح إنشاء التزييف العميق أسهل مع تطور التكنولوجيا

بدأ التزييف العميق كوسيلة لإذلال المعارضين السياسيين والنجوم الشباب. وقال سيرجيو ألكسندر، الباحث المشارك في جامعة تكساس المسيحية الذي كتب عن هذه القضية، إنه حتى السنوات القليلة الماضية، كان الناس بحاجة إلى بعض المهارات التقنية لجعلهم واقعيين.

وقال: "الآن، يمكنك القيام بذلك على أحد التطبيقات، ويمكنك تنزيله على وسائل التواصل الاجتماعي، وليس من الضروري أن تكون لديك أي خبرة فنية على الإطلاق".

ووصف نطاق المشكلة بأنه مذهل. قال المركز الوطني للأطفال المفقودين والمستغلين إن عدد صور الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي والتي تم الإبلاغ عنها إلى خطه السيبراني ارتفع من 4700 في عام 2023 إلى 440.000 في الأشهر الستة الأولى فقط من عام 2025.

يخشى الخبراء أن المدارس لا تفعل ما يكفي

يوصي سمير هندوجا، المدير المشارك لمركز أبحاث التنمر عبر الإنترنت، بأن تقوم المدارس بتحديث سياساتها على التزييف العميق الناتج عن الذكاء الاصطناعي وتحسن في شرحه. وقال إنه بهذه الطريقة، "لا يعتقد الطلاب أن الموظفين والمعلمين غافلين تمامًا، مما قد يجعلهم يشعرون أنه يمكنهم التصرف دون عقاب".

وقال إن العديد من أولياء الأمور يفترضون أن المدارس تعالج هذه المشكلة عندما لا يفعلون ذلك.

"الكثير منهم غير مدركين وجاهلين للغاية"، كما قال هندوجا، وهو أيضًا أستاذ في كلية علم الجريمة والعدالة الجنائية بجامعة فلوريدا أتلانتيك. "نسمع عن متلازمة النعامة، مجرد نوع من دفن رؤوسهم في الرمال، على أمل ألا يحدث هذا بين شبابهم."

يمكن أن تكون الصدمة الناجمة عن التزييف العميق للذكاء الاصطناعي ضارة بشكل خاص

تختلف التزييف العميق للذكاء الاصطناعي عن التنمر التقليدي لأنه بدلاً من النص أو الإشاعة السيئة، يوجد مقطع فيديو أو صورة غالبًا ما تنتشر بسرعة كبيرة ثم تستمر في الظهور مرة أخرى، مما يخلق دورة من الصدمة، كما قال ألكسندر.

وقال إن العديد من الضحايا يصابون بالاكتئاب والقلق.

"إنهم يصمتون حرفيًا لأنه يجعل الأمر يبدو وكأنه، كما تعلمون، لا توجد طريقة يمكنهم من خلالها إثبات أن هذا ليس حقيقيًا - لأنه يبدو حقيقيًا بنسبة 100٪".

يتم تشجيع أولياء الأمور على التحدث مع الطلاب

قال ألكسندر إن أولياء الأمور يمكنهم بدء المحادثة من خلال سؤال أطفالهم بشكل عرضي عما إذا كانوا قد شاهدوا أي مقاطع فيديو مزيفة مضحكة عبر الإنترنت.

وقال: خذ لحظة للضحك على بعضهم، مثل مطاردة Bigfoot للمتنزهين. ومن هناك، يمكن للوالدين أن يسألوا أطفالهم: "هل فكرتم كيف سيكون الأمر لو كنتم في هذا الفيديو، حتى لو كان الفيديو مضحكًا؟" ومن ثم يمكن للوالدين أن يسألوا ما إذا كان أحد زملائهم قد قام بتصوير مقطع فيديو مزيف، حتى ولو كان غير ضار.

"بناء على الأرقام، أضمن أنهم سيقولون أنهم يعرفون شخصا ما"، قال.

إذا واجه الأطفال أشياء مثل التزييف العميق، فإنهم بحاجة إلى معرفة أنه يمكنهم التحدث مع والديهم دون التعرض للمشاكل، كما تقول لورا تيرني، المؤسس والرئيس التنفيذي لـ المعهد الاجتماعي، الذي يقوم بتثقيف الناس حول الاستخدام المسؤول لوسائل التواصل الاجتماعي وساعد المدارس على تطوير السياسات. وقالت إن العديد من الأطفال يخشون أن يبالغ آباؤهم في رد فعلهم أو يأخذوا هواتفهم بعيدًا.

وهي تستخدم الاختصار SHIELD كخريطة طريق لكيفية الاستجابة. يشير الحرف "S" إلى "توقف" ولا تتقدم. "H" يشير إلى "التجمع" مع شخص بالغ موثوق به. "أنا" مخصص لـ "إبلاغ" أي منصات وسائط اجتماعية يتم نشر الصورة عليها. "E" هو إشارة لجمع "الأدلة"، مثل من ينشر الصورة، ولكن ليس لتنزيل أي شيء. الحرف "L" مخصص "للحد" من الوصول إلى وسائل التواصل الاجتماعي. الحرف "D" هو تذكير "لتوجيه" الضحايا للمساعدة.

"أعتقد أن حقيقة أن هذا الاختصار يتكون من ست خطوات يظهر أن هذه القضية معقدة حقًا".

___

تتلقى التغطية التعليمية لوكالة Associated Press دعمًا ماليًا من عدة مؤسسات خاصة. AP هي المسؤولة الوحيدة عن جميع المحتويات. يمكنك العثور على معايير AP للعمل مع المؤسسات الخيرية، وقائمة بالداعمين ومناطق التغطية الممولة على AP.org.