به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

گروه‌های شبه‌نظامی در حال آزمایش هوش مصنوعی هستند و انتظار می‌رود این خطرات افزایش یابد

گروه‌های شبه‌نظامی در حال آزمایش هوش مصنوعی هستند و انتظار می‌رود این خطرات افزایش یابد

اسوشیتد پرس
1404/09/24
13 بازدید

واشنگتون (AP) - در حالی که بقیه جهان عجله دارند تا از قدرت هوش مصنوعی استفاده کنند، گروه‌های شبه‌نظامی نیز در حال آزمایش این فناوری هستند، حتی اگر مطمئن نباشند که دقیقاً چه کاری باید با آن انجام دهند.

href="https://apnews.com/article/trump-ai-regulation-executive-order-state-laws-9cb4dd1bc249e404260b3dc233217388">هوش مصنوعی می تواند ابزار قدرتمندی باشد برای جذب اعضای جدید، و ایجاد تصاویر واقعی و واقعی از امنیت ملی آنها. کارشناسان و آژانس‌های جاسوسی هشدار داده‌اند.

ماه گذشته شخصی با انتشار پستی در وب‌سایت طرفدار دولت اسلامی از دیگر حامیان داعش خواست تا هوش مصنوعی را بخشی از عملیات خود کنند. کاربر به زبان انگلیسی نوشت: «یکی از بهترین چیزهای هوش مصنوعی این است که استفاده از آن آسان است.

این کاربر ادامه داد: «بعضی از سازمان‌های اطلاعاتی نگران هستند که هوش مصنوعی در استخدام (به) کمک کند. "بنابراین کابوس‌های آنها را به واقعیت تبدیل کنید."

داعش که سال‌ها پیش سرزمین‌هایی را در عراق و سوریه تصرف کرده بود، اما اکنون به که دارای ایدئولوژی خشونت‌آمیز هستند، سال‌ها پیش متوجه شدند که رسانه‌های اجتماعی می‌توانند ابزاری قوی برای استخدام و اطلاع‌رسانی نادرست باشند، بنابراین جای تعجب نیست که این گروه در حال آزمایش هوش مصنوعی است.

برای گروه‌های افراطی با منابع ضعیف - یا حتی یک بازیگر بد فردی با اتصال به وب - می‌توان از هوش مصنوعی برای تبلیغ تبلیغات یا جعبه‌های عمیق در مقیاس باعث می‌شود که نفوذ آن‌ها در هر نوع تبلیغی گسترده شود و دامنه آن‌ها را افزایش می‌دهد. انجام کارها بسیار آسان تر است. "با هوش مصنوعی، حتی یک گروه کوچک که پول زیادی ندارند، هنوز هم می توانند تاثیر بگذارند."

چگونه گروه‌های افراطی در حال آزمایش هستند

گروه‌های شبه‌نظامی به محض اینکه برنامه‌هایی مانند ChatGPT به طور گسترده در دسترس قرار گرفتند، شروع به استفاده از هوش مصنوعی کردند. در سال‌های پس از آن، آنها به طور فزاینده‌ای از برنامه‌های هوش مصنوعی مولد برای ایجاد عکس‌های واقع‌گرایانه استفاده کرده‌اند. این محتوای جعلی که به الگوریتم‌های رسانه‌های اجتماعی متصل است، می‌تواند به استخدام افراد ایماندار جدید، گیج کردن یا ترساندن دشمنان و گسترش تبلیغات در مقیاسی غیرقابل تصور چند سال پیش کمک کند.

چنین گروه‌هایی تصاویر جعلی دو سال پیش از جنگ اسرائیل و حماس را منتشر کردند نوزادان خون آلود و رها شده<-outspan> را در ساختمان های بمب گذاری شده به تصویر می کشد. این تصاویر خشم و قطبی شدن را برانگیخت و در عین حال وحشت واقعی جنگ را پنهان کرد. گروه‌های خشونت‌آمیز در خاورمیانه از این عکس‌ها برای جذب اعضای جدید استفاده کردند، مانند گروه‌های نفرت‌ستیز یهودی در ایالات متحده و جاهای دیگر.

سال گذشته پس از یک حمله ای که توسط یکی از افراد وابسته به داعش مسئولیت آن را بر عهده گرفت نزدیک به 140 نفر را در یک کنسرت در روسیه کشت. در روزهای پس از تیراندازی، ویدئوهای تبلیغاتی ساخته شده با هوش مصنوعی به طور گسترده در تابلوهای بحث و گفتگو و رسانه های اجتماعی پخش شد و به دنبال نیروهای جدید بود.

به گفته محققان SITE Intelligence Group، یک شرکت سرمایه گذاری الکترونیکی و شرکتی که فعالیت های ردیابی الکترونیکی را دنبال می کند، داعش همچنین ضبط های صوتی عمیق جعلی از رهبران خود در حال تلاوت متون مقدس ایجاد کرده و از هوش مصنوعی برای ترجمه سریع پیام ها به چندین زبان استفاده کرده است. هوش مصنوعی.

به گفته مارکوس فاولر، یک عامل سابق سیا که اکنون مدیر اجرایی Darktrace Federal، یک شرکت امنیت سایبری است که با دولت فدرال همکاری می‌کند، چنین گروه‌هایی از چین، روسیه یا ایران عقب‌تر هستند و همچنان استفاده‌های پیچیده‌تر از هوش مصنوعی را «آرزوآمیز» می‌دانند. او گفت که هوش مصنوعی ارزان و قدرتمند گسترش می‌یابد.

هکرها از

فاولر گفت: «داعش خیلی زود وارد توییتر شد و راه‌هایی برای استفاده از رسانه‌های اجتماعی به نفع خود پیدا کرد. "آنها همیشه به دنبال چیز بعدی هستند که به زرادخانه خود اضافه کنند."

مقابله با تهدید رو به رشد

قانون‌گذاران چندین پیشنهاد ارائه کرده‌اند و گفته‌اند که نیاز فوری به اقدام وجود دارد.

Sen. به عنوان مثال، مارک وارنر از ویرجینیا، دموکرات ارشد کمیته اطلاعات سنا، گفت که ایالات متحده باید برای توسعه دهندگان هوش مصنوعی به اشتراک گذاری اطلاعات در مورد نحوه استفاده از محصولات آنها توسط بازیگران بد، خواه افراط گرا، هکر جنایتکار یا جاسوس خارجی، آسان تر کند. وارنر گفت: «از اواخر سال 2022، با انتشار عمومی ChatGPT، بدیهی است که همان شیفتگی و آزمایش با هوش مصنوعی مولد که عموم مردم داشته اند، در مورد طیف وسیعی از بازیگران بدخیم نیز اعمال می شود.

در طول یک جلسه استماع اخیر در مورد تهدیدات افراطی، قانونگذاران مجلس نمایندگان-alQ آموخته اند که آموزش های لازم را برای استفاده از داعش برای کمک به داعش انجام می دهد. AI.

قانونی که ماه گذشته در مجلس نمایندگان ایالات متحده تصویب شد، مقامات امنیت داخلی را ملزم می کند تا خطرات هوش مصنوعی ناشی از چنین گروه هایی را هر ساله ارزیابی کنند.

آگوست فلوگر، نماینده R-Texas، حامی این لایحه، گفت که محافظت در برابر استفاده مخرب از هوش مصنوعی با آماده شدن برای حملات متعارف بیشتر تفاوتی ندارد.

او گفت: «سیاست‌ها و توانایی‌های ما باید همگام با تهدیدهای فردا باشد.