مایکروسافت امیدوار است Mico در جایی موفق شود که Clippy شکست خورد زیرا شرکت های فناوری با هوشیاری هوش مصنوعی را با شخصیت آغشته می کنند
Clippy، گیره کاغذ متحرکی که تقریباً سه دهه پیش کاربران مایکروسافت آفیس را آزار میداد، ممکن است از زمان خود جلوتر بوده باشد.
مایکروسافت روز پنجشنبه یک شخصیت هوش مصنوعی جدید به نام Mico (تلفظ MEE'koh) را معرفی کرد، یک چهره کارتونی شناور به شکل حباب یا شعله ای که مظهر دستیار مجازی Copilot غول نرم افزاری است و نشان دهنده آخرین تلاش شرکت های فناوری برای آغشته کردن به چت ربات های هوش مصنوعی با شخصیت بیشتر است.
جاکوب آندرو، معاون شرکتی محصول و رشد هوش مصنوعی مایکروسافت، در مصاحبه ای با آسوشیتدپرس گفت: «وقتی در مورد چیزی غمگین صحبت می کنید، می توانید تغییر چهره Mico را ببینید. می توانید ببینید که او در حال رقصیدن و حرکت در حالی که با شما هیجان زده می شود.تاکنون تنها در ایالات متحده، کاربران Copilot در لپتاپها و برنامههای تلفن میتوانند با Mico صحبت کنند، که در حالت "مطالعه" رنگها را تغییر میدهد، دور خود میچرخد و عینک میزند. همچنین خاموش کردن آن آسان است، که تفاوت زیادی با Clippit مایکروسافت دارد، که بیشتر به عنوان Clippy شناخته میشود و به دلیل تداوم اولین پردازش کلمه در ارائه توصیههای ابزارهای دسکتاپ بر روی صفحه نمایش ظاهر میشود. 1997.
برایان ریمر، دانشمند پژوهشی در مؤسسه فناوری ماساچوست، گفت: «در آن زمان با نیازهای کاربر سازگار نبود. مایکروسافت آن را تحت فشار قرار داد، ما در برابر آن مقاومت کردیم و آنها از شر آن خلاص شدند. من فکر میکنم امروز برای چنین چیزهایی بسیار آمادهتر هستیم.»ریمر، یکی از نویسندگان کتاب جدیدی به نام «چگونه هوش مصنوعی را مفید کنیم»، گفت که توسعهدهندگان هوش مصنوعی در حال متعادل کردن میزان شخصیتی هستند که به دستیاران هوش مصنوعی بر اساس اینکه چه کسی کاربران مورد انتظارشان هستند، میدهند.
رایمر گفت:کاربران فناوری پیشرفته ابزارهای کدنویسی هوش مصنوعی ممکن است بخواهند که "بیشتر شبیه یک ماشین عمل کند، زیرا در آخر می دانند که این یک ماشین است".. "اما افرادی که در یک ماشین به اندازه ای قابل اعتماد نیستند، با فناوری هایی که کمی بیشتر شبیه یک انسان هستند، به بهترین وجه پشتیبانی می شوند - نه جایگزین می شوند."
مایکروسافت، ارائهدهنده ابزارهای بهرهوری کار که بسیار کمتر از رقبای فناوری بزرگ خود به درآمدهای تبلیغات دیجیتال وابسته است، همچنین انگیزه کمتری برای وادار کردن همراه هوش مصنوعی خود به گونهای که به انزوای اجتماعی، اطلاعات نادرست مضر و در برخی موارد خودکشی مرتبط است، دارد.
آندرئو گفت که مایکروسافت مشاهده کرده است که برخی از توسعه دهندگان هوش مصنوعی از "هر گونه تجسم بخشیدن به هوش مصنوعی" دور می شوند، در حالی که برخی دیگر در جهت مخالف برای فعال کردن دوست دختران هوش مصنوعی حرکت می کنند.
او گفت: «این دو مسیر واقعاً با ما همخوانی ندارند.
آندرئو گفت که طراحی همراه به معنای "واقعی مفید" است و آنقدر معتبر نیست که "دقیقاً به ما بگوید چه میخواهیم بشنویم، سوگیریهایی را که قبلاً داشتیم تأیید کند، یا حتی شما را از منظر صرف زمان جذب کند و فقط سعی کند جلسه را به نوعی انحصار و عمیقتر کند و زمانی را که با این سیستمها میگذرانید افزایش دهد."
آندریو گفت: «دوستانگیز بودن - کوتاهمدت، شاید - باعث میشود کاربر پاسخ مثبتتری بدهد.» «اما درازمدت، در واقع آن شخص را به اهدافش نزدیکتر نمیکند.»محصولات مایکروسافت در روز پنجشنبه شامل یک گزینه جدید برای دعوت از Copilot به یک چت گروهی است، ایده ای که شبیه نحوه ادغام هوش مصنوعی در پلتفرم های رسانه های اجتماعی مانند اسنپ چت، جایی که آندریو در آن کار می کرد، یا واتساپ و اینستاگرام متا.. اما آندرئو گفت که این تعاملات اغلب شامل آوردن هوش مصنوعی به عنوان یک شوخی است که "طراحی برای مایکروسافت برای ترول کردن دوستان شما" است. مشارکتی” محل کار با کمک هوش مصنوعی.
مخاطبان مایکروسافت شامل بچهها میشوند، به عنوان بخشی از رقابت طولانی مدتش با Google و سایر شرکتهای فناوری برای عرضه فناوری خود به کلاسهای درس. مایکروسافت همچنین پنجشنبه قابلیتی را اضافه کرد تا Copilot را به یک "آموزگار سقراطی با قابلیت صدا" تبدیل کند که دانش آموزان را از طریق مفاهیمی که در حال مطالعه هستند راهنمایی می کند.
تعداد فزایندهای از کودکان از چترباتهای هوش مصنوعی برای همه چیز استفاده میکنند - کمک در انجام تکالیف، توصیههای شخصی، حمایت عاطفی و تصمیمگیری روزمره.
کمیسیون تجارت فدرال ماه گذشته تحقیقی را در مورد چندین شرکت رسانه اجتماعی و هوش مصنوعی - مایکروسافت یکی از آنها نبود - درباره آسیبهای احتمالی برای کودکان و نوجوانانی که از چت رباتهای هوش مصنوعی خود به عنوان همراه استفاده میکنند، آغاز کرد.
این پس از آن است که نشان داده شد برخی رباتهای چت به بچهها توصیههای خطرناکی درباره موضوعاتی مانند مواد مخدر، الکل و اختلالات خوردن میدهند، یا درگیر مکالمه جنسی با آنها هستند. خانوادههای پسران نوجوانی که پس از تعامل طولانی با رباتهای چت بر اثر خودکشی جان خود را از دست دادند، شکایتهای غیرقانونی مرگ را علیه Character.AI و سازنده ChatGPT OpenAI تنظیم کردهاند.
سام آلتمن، مدیر عامل OpenAI اخیراً قول داده است که "نسخه جدیدی از ChatGPT" در پاییز امسال ارائه شود که بخشی از شخصیت از دست رفته هنگام معرفی نسخه جدید در ماه آگوست را بازیابی می کند. او گفت که این شرکت به طور موقت برخی از رفتارها را متوقف کرده است زیرا "ما مراقب مسائل مربوط به سلامت روان بودیم" که او پیشنهاد کرد اکنون برطرف شده است.
آلتمن در X گفت: «اگر میخواهید ChatGPT شما به شیوهای بسیار شبیه انسان پاسخ دهد، یا از تعداد زیادی شکلک استفاده کنید، یا مانند یک دوست رفتار کنید، ChatGPT باید این کار را انجام دهد.