کارشناسان می گویند استفاده ترامپ از تصاویر هوش مصنوعی مرزهای جدیدی را کنار می گذارد و اعتماد عمومی را بیشتر از بین می برد
لس آنجلس (AP) - دولت ترامپ از به اشتراک گذاری تصاویر تولید شده توسط هوش مصنوعی به صورت آنلاین، استقبال از تصاویر و میم های کارتونی و تبلیغ آنها در کانال های رسمی کاخ سفید خودداری نکرده است.
اما تصویر ویرایش شده - و واقع بینانه - از وکیل حقوق مدنی در Nekima جدید دستگیر شده است. هشدارهایی در مورد اینکه چگونه دولت خطوط بین واقعی و جعلی را محو می کند.
حساب کریستی نوم، وزیر امنیت داخلی، تصویر اصلی مربوط به دستگیری لوی آرمسترانگ را قبل از اینکه حساب رسمی کاخ سفید تصویر تغییر یافته ای را منتشر کند که او را در حال گریه کردن نشان می دهد، پست کرد. تصویر اصلاحشده بخشی از سیل تصاویر ویرایششده با هوش مصنوعی است که پس از تیراندازی مرگبار به رنه گود و الکس پرتی توسط افسران گشت مرزی ایالات متحده در مینیاپولیس در سراسر طیف سیاسی به اشتراک گذاشته شده است.
با این حال، استفاده کاخ سفید از هوش مصنوعی، کارشناسان اطلاعات نادرست را که میترسند انتشار تصاویر تولید شده یا ویرایششده توسط هوش مصنوعی، درک عمومی از حقیقت را از بین ببرد و بیاعتمادی ایجاد کند، نگران کرده است.
در پاسخ به انتقاد از تصویر ویرایش شده لوی آرمسترانگ، مقامات کاخ سفید این پست را دوچندان کردند و معاون مدیر ارتباطات کائلان دور در X نوشت که "میم ها ادامه خواهند داشت." ابیگیل جکسون معاون سخنگوی کاخ سفید نیز پستی را به اشتراک گذاشت که انتقادات را به سخره گرفت.
دیوید رند، استاد علوم اطلاعات در دانشگاه کرنل، می گوید که این تصویر تغییر یافته را یک الگوی رفتاری می نامید "مطمئناً به نظر می رسد تلاشی برای نشان دادن آن به عنوان یک پست شوخی یا طنز مانند کارتون های قبلی آنها. این احتمالاً قصد دارد آنها را از انتقاد به دلیل ارسال رسانه های دستکاری شده محافظت کند." او گفت که هدف از اشتراکگذاری تصویر تغییر یافته بازداشت «بسیار مبهمتر» از تصاویر کارتونیای که دولت در گذشته به اشتراک گذاشته است، به نظر میرسد.
میمها همیشه پیامهای لایهای را به همراه داشتهاند که برای افرادی که آنها را درک میکنند خندهدار یا آموزنده است، اما برای افراد خارجی غیرقابل کشف است. زک هنری، مشاور ارتباطات جمهوریخواه که Total Virality، یک شرکت بازاریابی تأثیرگذار را تأسیس کرد، گفت: تصاویر تقویتشده یا ویرایششده با هوش مصنوعی جدیدترین ابزاری است که کاخ سفید برای درگیر کردن بخشی از پایگاه ترامپ که زمان زیادی را به صورت آنلاین میگذراند، استفاده میکند.
او گفت: "افرادی که به صورت پایانی آنلاین هستند، آن را می بینند و فوراً آن را به عنوان یک الگوی رفتاری تشخیص می دهند." هنری، که عموماً کار تیم رسانههای اجتماعی کاخ سفید را ستایش میکند، گفت: «ممکن است پدربزرگ و مادربزرگ شما آن را ببینند و الگو را درک نکنند، اما چون واقعی به نظر میرسد، باعث میشود از بچهها یا نوههایشان در مورد آن سؤال بپرسند. مایکل ای. اسپایکس، استاد دانشگاه نورث وسترن و محقق سواد رسانهای خبری، گفت: منابع معتبر، "به جای نشان دادن آنچه در واقع اتفاق میافتد، یک ایده از آنچه در حال رخ دادن است متبلور میکند." او گفت: "دولت باید مکانی باشد که بتوانید به اطلاعات اعتماد کنید، جایی که بتوانید بگویید دقیق است، زیرا آنها مسئولیت دارند این کار را انجام دهند." "با به اشتراک گذاری این نوع محتوا، و ایجاد این نوع محتوا ... اعتماد را از بین می برد - حتی اگر من همیشه به نوعی به اصطلاح اعتماد شک دارم - اما اعتمادی که باید به دولت فدرال خود داشته باشیم تا اطلاعات دقیق و تایید شده را به ما بدهد. این یک ضرر واقعی است و واقعاً من را بسیار نگران می کند."
اسپایکس گفت که از قبل "بحران نهادی" را در مورد بی اعتمادی به سازمان های خبری و آموزش عالی می بیند و احساس می کند که این رفتار کانال های رسمی این مسائل را شعله ور می کند.
رامش سرینیواسان، استاد دانشگاه UCLA و مجری پادکست Utopias، گفت که بسیاری از مردم اکنون این سوال را دارند که از کجا می توانند برای "اطلاعات قابل اعتماد" مراجعه کنند. او گفت: «سیستمهای هوش مصنوعی فقط این مشکلات عدم اعتماد را تشدید، تقویت و تسریع میکنند، غیبت حتی درک آنچه ممکن است واقعیت یا حقیقت یا شواهد در نظر گرفته شود.
سرینیواسان گفت که احساس میکند کاخ سفید و سایر مقامات محتوای تولید شده توسط هوش مصنوعی را به اشتراک میگذارند، نه تنها از مردم عادی دعوت میکنند تا به پست کردن محتوای مشابه ادامه دهند، بلکه به سایرین نیز اجازه میدهند تا به پست کردن محتوای مشابه ادامه دهند. محتوای مصنوعی بدون برچسب او اضافه کرد که با توجه به اینکه پلتفرمهای رسانههای اجتماعی تمایل دارند به محتوای افراطی و توطئهآمیز «از نظر الگوریتمی امتیاز بدهند» - که ابزارهای تولید هوش مصنوعی میتوانند به راحتی ایجاد کنند - «مجموعهای بزرگ و بزرگ از چالشها در دستان خود داریم.
هجوم ویدئوهای تولید شده توسط هوش مصنوعی مربوط به اقدامات اجرایی مهاجرت و گمرک، اعتراضات و تعامل با شهروندان در رسانه های اجتماعی در حال گسترش است. پس از اینکه Renee Good توسط یک افسر ICE در حالی که او در ماشین خود بود مورد اصابت گلوله قرار گرفت، چندین ویدئوی تولید شده توسط هوش مصنوعی از زنان در حال دور شدن از افسران ICE که به آنها گفته بودند بایستند، پخش شد. همچنین بسیاری از ویدئوهای ساختگی از حملات مهاجرتی و افرادی که با افسران ICE روبهرو میشوند، پخش میشود، که اغلب بر سر آنها فریاد میکشند یا غذا را به صورتشان پرتاب میکنند.
جرمی کاراسکو، یک خالق محتوا که در سواد رسانهای و حذف ویدیوهای هوش مصنوعی ویروسی تخصص دارد، گفت که بخش عمده این ویدیوها احتمالاً از حسابهایی میآیند که «کشاورزی تعامل» هستند یا به دنبال سرمایهگذاری بر روی کلیکها با تولید محتوا با کلمات کلیدی محبوب و عبارات جستجو مانند ICE هستند. اما او همچنین گفت که این ویدیوها از افرادی که مخالف ICE و DHS هستند بازدید میکنند و میتوانند آنها را بهعنوان «تخیل طرفداران» تماشا کنند، یا درگیر «تفکر آرزویی» شوند، به این امید که آنها شاهد واکنش واقعی علیه سازمانها و افسران آنها باشند.
با این حال، کاراسکو همچنین معتقد است که اکثر بینندگان نمیتوانند بفهمند که آیا واقعی هستند یا نه. در واقع مهم است، مانند زمانی که مخاطرات بسیار بیشتر است."
حتی زمانی که نشانه های آشکاری از تولید هوش مصنوعی وجود دارد، مانند تابلوهای خیابانی که روی آنها چرند یا اشتباهات آشکار وجود دارد، تنها در "بهترین سناریو" بیننده به اندازه کافی زرنگ است یا توجه کافی برای ثبت استفاده از هوش مصنوعی دارد. تصاویر ساختگی و نادرست پس از دستگیری رهبر معزول ونزوئلا نیکلاس مادورو در اوایل ماه جاری به صورت آنلاین منفجر شد. کارشناسان، از جمله کاراسکو، فکر میکنند که انتشار محتوای سیاسی تولید شده توسط هوش مصنوعی رایجتر میشود.
کاراسکو معتقد است که اجرای گسترده یک سیستم واترمارک که اطلاعات مربوط به منشا یک قطعه رسانه را در لایه ابرداده خود جاسازی میکند، میتواند گامی به سوی راهحل باشد. ائتلاف برای منشأ و اصالت محتوا چنین سیستمی را توسعه داده است، اما کاراسکو فکر نمیکند که حداقل تا یک سال دیگر به طور گسترده مورد استفاده قرار گیرد.
او گفت: «اکنون این یک مسئله برای همیشه باقی خواهد ماند. فکر نمیکنم مردم درک کنند که این چقدر بد است."
__
نویسندگان آسوشیتد پرس جاناتان جی کوپر در فینیکس و باربارا اورتوتای در سانفرانسیسکو در این گزارش مشارکت داشتند.