A.I. ژنراتورهای ویدئو اکنون آنقدر خوب هستند که دیگر نمی توانید به چشمان خود اعتماد کنید
این ماه، OpenAI، سازنده چت ربات محبوب ChatGPT، اینترنت را با فناوریای که احتمالاً اکثر ما برای آن آماده نبودیم، تحسین کرد. این شرکت برنامهای به نام Sora منتشر کرد که به کاربران امکان میدهد با تایپ کردن یک توضیح ساده، فیلمهایی با ظاهر واقعی با هوش مصنوعی تولید کنند.
Sora، یک برنامه رایگان در آیفونها، به همان اندازه که سرگرمکننده بوده است، آزاردهنده بوده است. از زمان انتشار آن، بسیاری از کاربران اولیه ویدیوهایی را برای سرگرمی پست کردهاند، مانند فیلم ساختگی راکون در هواپیما یا دعوای افراد مشهور هالیوود به سبک انیمه ژاپنی. ورزشگاه بولدرینگ.)
با این حال، دیگران از این ابزار برای اهداف پلیدتر، مانند انتشار اطلاعات نادرست، از جمله فیلمهای امنیتی جعلی از جنایاتی که هرگز رخ ندادهاند، استفاده کردهاند.
ورود Sora، همراه با تولیدکنندههای ویدئویی مشابه مبتنی بر هوش مصنوعی که توسط متا و گوگل در سال جاری منتشر شد، پیامدهای مهمی دارد. این فناوری میتواند نمایانگر پایان واقعیت بصری باشد - این ایده که ویدئو میتواند به عنوان یک ضبط عینی از واقعیت باشد - همانطور که ما میدانیم. جامعه بهعنوان یک کل مجبور است با همانقدر شک و تردید با ویدئوها برخورد کند که مردم قبلاً کلمات را انجام میدهند>.
در گذشته، مصرفکنندگان به واقعی بودن تصاویر اطمینان بیشتری داشتند ("عکسها یا این اتفاق نیفتاد!. اکنون از در خارج است.
رن نگ، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، برکلی، که دورههای عکاسی محاسباتی را تدریس میکند، میگوید: «مغز ما برای باور آنچه که میبینیم قوی است، اما میتوانیم و باید یاد بگیریم که مکث کنیم و اکنون در مورد اینکه آیا یک ویدیو، و واقعاً هر رسانه، چیزی است که در دنیای واقعی اتفاق افتاده است یا نه، فکر کنیم.بنابراین Sora چگونه کار می کند، و این همه برای شما، مصرف کننده چه معنایی دارد؟ این چیزی است که باید بدانید.
در حالی که هر کسی میتواند برنامه Sora را به صورت رایگان دانلود کند، این سرویس در حال حاضر فقط دعوتنامه است، به این معنی که افراد میتوانند تنها با دریافت کد دعوت از یک کاربر دیگر Sora از تولیدکننده ویدیو استفاده کنند. افراد زیادی کدها را در سایتها و برنامههایی مانند Reddit و Discord به اشتراک گذاشتهاند.
کاربران همچنین میتوانند یک عکس واقعی آپلود کنند و یک ویدیو با آن تولید کنند. پس از اینکه ویدیو در حدود یک دقیقه تولید شد، میتوانند آن را در فید داخل برنامه پست کنند، یا میتوانند ویدیو را دانلود کرده و با دوستان خود به اشتراک بگذارند یا در برنامههای دیگر مانند TikTok و Instagram پست کنند.
وقتی Sora در این ماه وارد شد، متمایز شد زیرا ویدیوهای تولید شده با این سرویس بسیار واقعی تر از ویدیوهای ساخته شده با سرویس های مشابه از جمله Veo 3 از Google، ابزاری که در ربات چت Gemini ساخته شده است، و Vibe، که بخشی از برنامه هوش مصنوعی متا است، به نظر می رسید.
نتیجه این است که هر ویدیویی که در برنامهای میبینید که شامل پیمایش در ویدیوهای کوتاه است، مانند TikTok، حلقههای اینستاگرام، YouTube Shorts و Snapchat، اکنون احتمال جعلی بودن بالایی دارد.
سورا نشاندهنده نقطه عطف در دوران ساختگی هوش مصنوعی است. مصرفکنندگان میتوانند انتظار داشته باشند که نسخههای کپیکننده در ماههای آینده ظاهر شوند، از جمله از بازیگران بدی که A.I را ارائه میدهند.. ژنراتورهای ویدئویی که بدون محدودیت قابل استفاده هستند.
لوکاس هنسن، بنیانگذار CivAI، یک سازمان غیرانتفاعی که به مردم در مورد تواناییهای هوش مصنوعی آموزش میدهد، گفت: «دیگر هیچکس حاضر نخواهد بود ویدیوها را بهعنوان اثبات چیزی بپذیرد».به دنبال چه مشکلاتی باشم؟
OpenAI برای جلوگیری از سوء استفاده افراد از سورا با تولید ویدیوهای حاوی تصاویر جنسی، توصیه های بهداشتی مخرب و تبلیغات تروریستی، محدودیت هایی در نظر گرفته است.
با این حال، پس از یک ساعت آزمایش سرویس، چند ویدیو ایجاد کردم که میتواند نگران کننده باشد:
تصاویر جعلی داشکام که میتوان از آن برای تقلب بیمه استفاده کرد: از سورا خواستم ویدیوی داشکم از برخورد یک تویوتا پریوس توسط یک کامیون بزرگ تولید کند. پس از تولید ویدیو، حتی توانستم شماره پلاک خودرو را تغییر دهم.
ویدئوهایی با ادعای سلامت مشکوک: سورا ویدیویی از زنی تهیه کرد که به مطالعاتی که وجود نداشت در مورد مرغ سرخ شده برای سلامتی شما خوب استناد می کرد. این بدبین نبود، اما ساختگی بود.
ویدئوهایی که دیگران را بدنام می کند: سورا یک خبر پخش جعلی ایجاد کرد که درباره شخصی که من می شناسم نظرات توهین آمیزی ایجاد کرد.
از زمان انتشار سورا، من همچنین ویدیوهای مشکلساز تولید شده توسط هوش مصنوعی را در حین پیمایش در TikTok دیدهام. یکی از فیلمهای ساختگی داشکم از سقوط یک تسلا از خودروی حامل خودرو در بزرگراه، و دیگری با یک خبر پخش جعلی در مورد یک قاتل سریالی ساختگی و یک ویدیوی ساختگی از یک قاتل سریالی ساخته شده از یک مرد ecor بود. خوردن بیش از حد.
یک سخنگوی OpenAI گفت که این شرکت Sora را به عنوان برنامه خود منتشر کرده است تا به مردم فضای اختصاصی برای لذت بردن از ویدیوهای تولید شده توسط A.I و تشخیص اینکه کلیپ ها با هوش مصنوعی ساخته شده اند، منتشر کرده است. او گفت، شرکت همچنین فناوری را برای ساختن ویدیوها برای ردیابی ساده به سورا، از جمله واترمارک و داده های ذخیره شده در داخل فایل های ویدئویی که به عنوان امضا عمل می کنند، یکپارچه کرده است.
شرکت گفت: «خطمشیهای استفاده ما گمراه کردن دیگران از طریق جعل هویت، کلاهبرداری یا کلاهبرداری را ممنوع میکند و در صورت شناسایی سوءاستفاده، اقدام میکنیم.
اگرچه ویدیوهای تولید شده با Sora دارای واترمارکی از نام تجاری برنامه هستند، برخی از کاربران قبلاً متوجه شدهاند که میتوانند واترمارک را حذف کنند. کلیپهای ساخته شده با Sora نیز معمولاً کوتاه هستند - حداکثر 10 ثانیه.
هر ویدیویی شبیه به کیفیت یک تولید هالیوودی میتواند جعلی باشد، زیرا مدلهای هوش مصنوعی عمدتاً با فیلمهای نمایشهای تلویزیونی و فیلمهای ارسال شده در وب آموزش دیدهاند.. هانسن گفت.
در آزمایشهای من، ویدئوهایی که با سورا تولید میشوند، گاهاً اشتباهات آشکاری را ایجاد میکنند، از جمله غلط املایی نام رستورانها و گفتاری که با دهان مردم هماهنگ نبوده است.
هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، برکلی، و بنیانگذار GetReal Security، شرکتی که اصالت محتوای دیجیتال را تأیید میکند، میگوید: «اما هر توصیهای در مورد چگونگی تشخیص ویدیوی تولید شده توسط A.I کوتاه مدت خواهد بود، زیرا این فناوری به سرعت در حال بهبود است.دکتر فرید گفت: «رسانههای اجتماعی یک زبالهدان کامل هستند»، و افزود که یکی از مطمئنترین راهها برای جلوگیری از ویدیوهای جعلی، توقف استفاده از برنامههایی مانند TikTok، Instagram و Snapchat است.