گروههای شبهنظامی در حال آزمایش هوش مصنوعی هستند و انتظار میرود این خطرات افزایش یابد
واشنگتون (AP) - در حالی که بقیه جهان عجله دارند تا از قدرت هوش مصنوعی استفاده کنند، گروههای شبهنظامی نیز در حال آزمایش این فناوری هستند، حتی اگر مطمئن نباشند که دقیقاً چه کاری باید با آن انجام دهند.
href="https://apnews.com/article/trump-ai-regulation-executive-order-state-laws-9cb4dd1bc249e404260b3dc233217388">هوش مصنوعی می تواند ابزار قدرتمندی باشد برای جذب اعضای جدید، و ایجاد تصاویر واقعی و واقعی از امنیت ملی آنها. کارشناسان و آژانسهای جاسوسی هشدار دادهاند.
ماه گذشته شخصی با انتشار پستی در وبسایت طرفدار دولت اسلامی از دیگر حامیان داعش خواست تا هوش مصنوعی را بخشی از عملیات خود کنند. کاربر به زبان انگلیسی نوشت: «یکی از بهترین چیزهای هوش مصنوعی این است که استفاده از آن آسان است.
این کاربر ادامه داد: «بعضی از سازمانهای اطلاعاتی نگران هستند که هوش مصنوعی در استخدام (به) کمک کند. "بنابراین کابوسهای آنها را به واقعیت تبدیل کنید."
داعش که سالها پیش سرزمینهایی را در عراق و سوریه تصرف کرده بود، اما اکنون به که دارای ایدئولوژی خشونتآمیز هستند، سالها پیش متوجه شدند که رسانههای اجتماعی میتوانند ابزاری قوی برای استخدام و اطلاعرسانی نادرست باشند، بنابراین جای تعجب نیست که این گروه در حال آزمایش هوش مصنوعی است.
برای گروههای افراطی با منابع ضعیف - یا حتی یک بازیگر بد فردی با اتصال به وب - میتوان از هوش مصنوعی برای تبلیغ تبلیغات یا جعبههای عمیق در مقیاس باعث میشود که نفوذ آنها در هر نوع تبلیغی گسترده شود و دامنه آنها را افزایش میدهد. انجام کارها بسیار آسان تر است. "با هوش مصنوعی، حتی یک گروه کوچک که پول زیادی ندارند، هنوز هم می توانند تاثیر بگذارند."
چگونه گروههای افراطی در حال آزمایش هستند
گروههای شبهنظامی به محض اینکه برنامههایی مانند ChatGPT به طور گسترده در دسترس قرار گرفتند، شروع به استفاده از هوش مصنوعی کردند. در سالهای پس از آن، آنها به طور فزایندهای از برنامههای هوش مصنوعی مولد برای >ایجاد عکسهای واقعگرایانه استفاده کردهاند. این محتوای جعلی که به الگوریتمهای رسانههای اجتماعی متصل است، میتواند به استخدام افراد ایماندار جدید، گیج کردن یا ترساندن دشمنان و گسترش تبلیغات در مقیاسی غیرقابل تصور چند سال پیش کمک کند.
چنین گروههایی تصاویر جعلی دو سال پیش از جنگ اسرائیل و حماس را منتشر کردند نوزادان خون آلود و رها شده<-outspan> را در ساختمان های بمب گذاری شده به تصویر می کشد. این تصاویر خشم و قطبی شدن را برانگیخت و در عین حال وحشت واقعی جنگ را پنهان کرد. گروههای خشونتآمیز در خاورمیانه از این عکسها برای جذب اعضای جدید استفاده کردند، مانند گروههای نفرتستیز یهودی در ایالات متحده و جاهای دیگر.
سال گذشته پس از یک حمله ای که توسط یکی از افراد وابسته به داعش مسئولیت آن را بر عهده گرفت نزدیک به 140 نفر را در یک کنسرت در روسیه کشت. در روزهای پس از تیراندازی، ویدئوهای تبلیغاتی ساخته شده با هوش مصنوعی به طور گسترده در تابلوهای بحث و گفتگو و رسانه های اجتماعی پخش شد و به دنبال نیروهای جدید بود.
به گفته محققان SITE Intelligence Group، یک شرکت سرمایه گذاری الکترونیکی و شرکتی که فعالیت های ردیابی الکترونیکی را دنبال می کند، داعش همچنین ضبط های صوتی عمیق جعلی از رهبران خود در حال تلاوت متون مقدس ایجاد کرده و از هوش مصنوعی برای ترجمه سریع پیام ها به چندین زبان استفاده کرده است. هوش مصنوعی.
به گفته مارکوس فاولر، یک عامل سابق سیا که اکنون مدیر اجرایی Darktrace Federal، یک شرکت امنیت سایبری است که با دولت فدرال همکاری میکند، چنین گروههایی از چین، روسیه یا ایران عقبتر هستند و همچنان استفادههای پیچیدهتر از هوش مصنوعی را «آرزوآمیز» میدانند. او گفت که هوش مصنوعی ارزان و قدرتمند گسترش مییابد.فاولر گفت: «داعش خیلی زود وارد توییتر شد و راههایی برای استفاده از رسانههای اجتماعی به نفع خود پیدا کرد. "آنها همیشه به دنبال چیز بعدی هستند که به زرادخانه خود اضافه کنند."
مقابله با تهدید رو به رشد
قانونگذاران چندین پیشنهاد ارائه کردهاند و گفتهاند که نیاز فوری به اقدام وجود دارد.
Sen. به عنوان مثال، مارک وارنر از ویرجینیا، دموکرات ارشد کمیته اطلاعات سنا، گفت که ایالات متحده باید برای توسعه دهندگان هوش مصنوعی به اشتراک گذاری اطلاعات در مورد نحوه استفاده از محصولات آنها توسط بازیگران بد، خواه افراط گرا، هکر جنایتکار یا جاسوس خارجی، آسان تر کند. وارنر گفت: «از اواخر سال 2022، با انتشار عمومی ChatGPT، بدیهی است که همان شیفتگی و آزمایش با هوش مصنوعی مولد که عموم مردم داشته اند، در مورد طیف وسیعی از بازیگران بدخیم نیز اعمال می شود.
در طول یک جلسه استماع اخیر در مورد تهدیدات افراطی، قانونگذاران مجلس نمایندگان-alQ آموخته اند که آموزش های لازم را برای استفاده از داعش برای کمک به داعش انجام می دهد. AI.
قانونی که ماه گذشته در مجلس نمایندگان ایالات متحده تصویب شد، مقامات امنیت داخلی را ملزم می کند تا خطرات هوش مصنوعی ناشی از چنین گروه هایی را هر ساله ارزیابی کنند.
آگوست فلوگر، نماینده R-Texas، حامی این لایحه، گفت که محافظت در برابر استفاده مخرب از هوش مصنوعی با آماده شدن برای حملات متعارف بیشتر تفاوتی ندارد.
او گفت: «سیاستها و تواناییهای ما باید همگام با تهدیدهای فردا باشد.