افزایش آزار و اذیت سایبری دیپ فیک مشکلی رو به رشد برای مدارس ایجاد می کند
مدرسهها با مشکل رو به رشد دانشآموزان مواجه هستند که از هوش مصنوعی برای تبدیل تصاویر بیگناه همکلاسیها به جعلیهای عمیق جنسی استفاده میکنند.
پیامدهای انتشار عکس ها و ویدیوهای دستکاری شده می تواند برای قربانیان کابوس ایجاد کند.
چالش مدارس در پاییز امسال برجسته شد، زمانی که تصاویر برهنه تولید شده توسط هوش مصنوعی در مدرسه راهنمایی لوئیزیانا را فرا گرفت. دو پسر در نهایت متهم شدند، اما نه قبل از اینکه یکی از قربانیان به دلیل شروع درگیری با پسری که او متهم به ایجاد تصاویر او و دوستانش کرده بود، اخراج شود.
"در حالی که توانایی تغییر تصاویر برای چندین دهه در دسترس بوده است، ظهور A.I. تغییر یا ایجاد چنین تصاویری را برای هر کسی آسانتر کرده است." انتشار خبر "این حادثه نگرانی جدی را نشان می دهد که همه والدین باید با فرزندان خود به آن توجه کنند."
در اینجا نکات کلیدی از داستان AP در مورد افزایش تصاویر برهنه تولید شده توسط هوش مصنوعی و نحوه واکنش مدارس وجود دارد.
سناتور جمهوریخواه ایالتی پاتریک کانیک، نویسنده این قانون، گفت: «پاتریک کانیک» سناتور ایالتی جمهوری خواه، که این قانون را تهیه کرده است، گفت:ایالت های بیشتری قوانینی را برای رسیدگی به دیپ فیک تصویب می کنند
تصور می شود که پیگرد قانونی ناشی از دیپ فیک های مدرسه راهنمایی لوئیزیانا اولین مورد تحت قانون جدید این ایالت باشد.
این قانون یکی از بسیاری از مواردی است که در سراسر کشور هدف قرار دادن دیپ فیک است. طبق کنفرانس ملی قانونگذاران ایالتی، در سال 2025، حداقل نیمی از ایالت ها قانونی را تصویب کردند که به استفاده از هوش مصنوعی مولد برای ایجاد تصاویر و صداهای به ظاهر واقعی، اما ساختگی می پردازد. برخی از قوانین به مطالب شبیه سازی شده سوء استفاده جنسی از کودکان می پردازند.
دانشجویان همچنین در فلوریدا و پنسیلوانیا تحت پیگرد قانونی قرار گرفتهاند و در مکانهایی مانند کالیفرنیا اخراج شدهاند. یک معلم کلاس پنجم در تگزاس نیز متهم به استفاده از هوش مصنوعی برای ایجاد پورنوگرافی کودکان از دانش آموزانش شد.
ایجاد دیپ فیک با پیشرفت تکنولوژی آسان تر می شود
دیپ فیک به عنوان راهی برای تحقیر مخالفان سیاسی و ستاره های جوان شروع شد. سرجیو الکساندر، همکار پژوهشی در دانشگاه مسیحی تگزاس که در مورد این موضوع نوشته است، گفت: تا چند سال گذشته، مردم به برخی مهارتهای فنی نیاز داشتند تا آنها را واقعبین کنند.
او گفت: «اکنون، میتوانید این کار را در یک برنامه انجام دهید، میتوانید آن را در رسانههای اجتماعی دانلود کنید، و نیازی به داشتن هیچ تخصص فنی ندارید.
او دامنه این مشکل را خیرهکننده توصیف کرد. مرکز ملی کودکان ناپدید شده و استثمار شده گفت که تعداد تصاویر سوء استفاده جنسی از کودکان تولید شده توسط هوش مصنوعی که به خط راهنمایی سایبری آن گزارش شده است از 4700 مورد در سال 2023 به 440000 مورد در شش ماهه اول سال 2025 افزایش یافته است. مرکز تحقیقات آزار و اذیت سایبری، توصیه میکند که مدارس سیاستهای خود را در مورد دیپفیکهای تولید شده توسط هوش مصنوعی بهروزرسانی کنند و در توضیح آنها بهتر شوند. او گفت که به این ترتیب، "دانش آموزان فکر نمی کنند که کارکنان، مربیان کاملاً غافل هستند، که ممکن است باعث شود آنها احساس کنند که می توانند بدون مجازات عمل کنند."
او گفت که بسیاری از والدین تصور می کنند که مدارس به این موضوع می پردازند در حالی که آنها به این موضوع توجه نمی کنند.
عدالت در دانشگاه آتلانتیک فلوریدا. "ما در مورد سندرم شترمرغ می شنویم، فقط به نوعی سر خود را در شن فرو می کنند، به این امید که این در بین جوانان آنها اتفاق نمی افتد."
تروما ناشی از دیپفیکهای هوش مصنوعی میتواند بسیار مضر باشد
بهگفته الکساندر، دیپفیکهای هوش مصنوعی با قلدری سنتی متفاوت هستند، زیرا بهجای یک متن یا شایعه بد، ویدیو یا تصویری وجود دارد که اغلب ویروسی میشود و سپس دوباره ظاهر میشود و چرخهای از ضربه ایجاد میکند.
او گفت: بسیاری از قربانیان افسرده و مضطرب میشوند.
او گفت: «آنها به معنای واقعی کلمه تعطیل میشوند، زیرا این احساس را به وجود میآورد که، میدانید، هیچ راهی وجود ندارد که حتی ثابت کنند که این واقعی نیست - زیرا 100٪ واقعی به نظر میرسد. الکساندر گفت:
والدین تشویق میشوند با دانشآموزان صحبت کنند
الکساندر گفت والدین میتوانند گفتگو را با پرسیدن اتفاقی از فرزندان خود شروع کنند. او گفت:
لحظه ای را به خندیدن به برخی از آنها اختصاص دهید، مانند پاگنده که به دنبال کوهنوردان تعقیب می کند. از آنجا، والدین می توانند از فرزندان خود بپرسند: "آیا به این فکر کرده اید که اگر در این ویدیو حضور داشتید، حتی در ویدیوی خنده دار، چگونه بود؟" و سپس والدین میتوانند بپرسند که آیا یکی از همکلاسیهایش ویدیوی جعلی، حتی بیضرر، ساخته است.
او گفت: «بر اساس اعداد، تضمین میکنم که میگویند کسی را میشناسند.
اگر بچه ها با چیزهایی مانند دیپ فیک مواجه می شوند، باید بدانند که می توانند بدون دردسر با والدین خود صحبت کنند، گفت: لورا تیرنی، موسس و مدیر عامل The Social Institute، که به مردم در مورد استفاده مسئولانه از رسانه های اجتماعی آموزش می دهد و به مدارس در توسعه سیاست ها کمک کرده است. او گفت که بسیاری از بچهها میترسند والدینشان بیش از حد واکنش نشان دهند یا تلفنهایشان را بردارند.
او از مخفف SHIELD بهعنوان نقشه راه برای نحوه پاسخگویی استفاده میکند. "S" مخفف "stop" و don't forward. "H" برای "huddle" با یک بزرگسال قابل اعتماد است. "من" برای "اطلاع رسانی" به هر پلتفرم رسانه اجتماعی است که تصویر در آن پست شده است. "E" نشانه ای برای جمع آوری "شواهد" است، مانند اینکه چه کسی تصویر را پخش می کند، اما نه برای دانلود چیزی. "L" برای "محدود کردن" دسترسی به رسانه های اجتماعی است. "D" یادآوری برای "هدایت" قربانیان برای کمک است.
او گفت: «فکر میکنم این واقعیت که مخفف شش مرحله است، نشان میدهد که این موضوع واقعاً پیچیده است.
___
پوشش آموزشی آسوشیتدپرس از چندین بنیاد خصوصی حمایت مالی دریافت می کند. AP تنها مسئول تمام محتوا است. استانداردهای AP را برای کار با بشردوستانه، لیست از حامیان و مناطق تحت پوشش تامین مالی را در AP.org بیابید.