به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

مایکروسافت امیدوار است Mico در جایی موفق شود که Clippy شکست خورد زیرا شرکت های فناوری با هوشیاری هوش مصنوعی را با شخصیت آغشته می کنند

مایکروسافت امیدوار است Mico در جایی موفق شود که Clippy شکست خورد زیرا شرکت های فناوری با هوشیاری هوش مصنوعی را با شخصیت آغشته می کنند

اسوشیتد پرس
1404/08/01
15 بازدید

Clippy، گیره کاغذ متحرکی که تقریباً سه دهه پیش کاربران مایکروسافت آفیس را آزار می‌داد، ممکن است از زمان خود جلوتر بوده باشد.

مایکروسافت روز پنجشنبه یک شخصیت هوش مصنوعی جدید به نام Mico (تلفظ MEE'koh) را معرفی کرد، یک چهره کارتونی شناور به شکل حباب یا شعله ای که مظهر دستیار مجازی Copilot غول نرم افزاری است و نشان دهنده آخرین تلاش شرکت های فناوری برای آغشته کردن به چت ربات های هوش مصنوعی با شخصیت بیشتر است.

جاکوب آندرو، معاون شرکتی محصول و رشد هوش مصنوعی مایکروسافت، در مصاحبه ای با آسوشیتدپرس گفت: «وقتی در مورد چیزی غمگین صحبت می کنید، می توانید تغییر چهره Mico را ببینید. می توانید ببینید که او در حال رقصیدن و حرکت در حالی که با شما هیجان زده می شود.

تاکنون تنها در ایالات متحده، کاربران Copilot در لپ‌تاپ‌ها و برنامه‌های تلفن می‌توانند با Mico صحبت کنند، که در حالت "مطالعه" رنگ‌ها را تغییر می‌دهد، دور خود می‌چرخد و عینک می‌زند. همچنین خاموش کردن آن آسان است، که تفاوت زیادی با Clippit مایکروسافت دارد، که بیشتر به عنوان Clippy شناخته می‌شود و به دلیل تداوم اولین پردازش کلمه در ارائه توصیه‌های ابزارهای دسکتاپ بر روی صفحه نمایش ظاهر می‌شود. 1997.

برایان ریمر، دانشمند پژوهشی در مؤسسه فناوری ماساچوست، گفت: «در آن زمان با نیازهای کاربر سازگار نبود. مایکروسافت آن را تحت فشار قرار داد، ما در برابر آن مقاومت کردیم و آنها از شر آن خلاص شدند. من فکر می‌کنم امروز برای چنین چیزهایی بسیار آماده‌تر هستیم.»

ریمر، یکی از نویسندگان کتاب جدیدی به نام «چگونه هوش مصنوعی را مفید کنیم»، گفت که توسعه‌دهندگان هوش مصنوعی در حال متعادل کردن میزان شخصیتی هستند که به دستیاران هوش مصنوعی بر اساس اینکه چه کسی کاربران مورد انتظارشان هستند، می‌دهند.

رایمر گفت:

کاربران فناوری پیشرفته ابزارهای کدنویسی هوش مصنوعی ممکن است بخواهند که "بیشتر شبیه یک ماشین عمل کند، زیرا در آخر می دانند که این یک ماشین است".. "اما افرادی که در یک ماشین به اندازه ای قابل اعتماد نیستند، با فناوری هایی که کمی بیشتر شبیه یک انسان هستند، به بهترین وجه پشتیبانی می شوند - نه جایگزین می شوند."

مایکروسافت، ارائه‌دهنده ابزارهای بهره‌وری کار که بسیار کمتر از رقبای فناوری بزرگ خود به درآمدهای تبلیغات دیجیتال وابسته است، همچنین انگیزه کمتری برای وادار کردن همراه هوش مصنوعی خود به گونه‌ای که به انزوای اجتماعی، اطلاعات نادرست مضر و در برخی موارد خودکشی مرتبط است، دارد.

آندرئو گفت که مایکروسافت مشاهده کرده است که برخی از توسعه دهندگان هوش مصنوعی از "هر گونه تجسم بخشیدن به هوش مصنوعی" دور می شوند، در حالی که برخی دیگر در جهت مخالف برای فعال کردن دوست دختران هوش مصنوعی حرکت می کنند.

او گفت: «این دو مسیر واقعاً با ما همخوانی ندارند.

آندرئو گفت که طراحی همراه به معنای "واقعی مفید" است و آنقدر معتبر نیست که "دقیقاً به ما بگوید چه می‌خواهیم بشنویم، سوگیری‌هایی را که قبلاً داشتیم تأیید کند، یا حتی شما را از منظر صرف زمان جذب کند و فقط سعی کند جلسه را به نوعی انحصار و عمیق‌تر کند و زمانی را که با این سیستم‌ها می‌گذرانید افزایش دهد."

آندریو گفت: «دوست‌انگیز بودن - کوتاه‌مدت، شاید - باعث می‌شود کاربر پاسخ مثبت‌تری بدهد.» «اما درازمدت، در واقع آن شخص را به اهدافش نزدیک‌تر نمی‌کند.»

محصولات مایکروسافت در روز پنجشنبه شامل یک گزینه جدید برای دعوت از Copilot به یک چت گروهی است، ایده ای که شبیه نحوه ادغام هوش مصنوعی در پلتفرم های رسانه های اجتماعی مانند اسنپ چت، جایی که آندریو در آن کار می کرد، یا واتساپ و اینستاگرام متا.. اما آندرئو گفت که این تعاملات اغلب شامل آوردن هوش مصنوعی به عنوان یک شوخی است که "طراحی برای مایکروسافت برای ترول کردن دوستان شما" است. مشارکتی” محل کار با کمک هوش مصنوعی.

مخاطبان مایکروسافت شامل بچه‌ها می‌شوند، به عنوان بخشی از رقابت طولانی مدتش با Google و سایر شرکت‌های فناوری برای عرضه فناوری خود به کلاس‌های درس. مایکروسافت همچنین پنجشنبه قابلیتی را اضافه کرد تا Copilot را به یک "آموزگار سقراطی با قابلیت صدا" تبدیل کند که دانش آموزان را از طریق مفاهیمی که در حال مطالعه هستند راهنمایی می کند.

تعداد فزاینده‌ای از کودکان از چت‌ربات‌های هوش مصنوعی برای همه چیز استفاده می‌کنند - کمک در انجام تکالیف، توصیه‌های شخصی، حمایت عاطفی و تصمیم‌گیری روزمره.

کمیسیون تجارت فدرال ماه گذشته تحقیقی را در مورد چندین شرکت رسانه اجتماعی و هوش مصنوعی - مایکروسافت یکی از آنها نبود - درباره آسیب‌های احتمالی برای کودکان و نوجوانانی که از چت ربات‌های هوش مصنوعی خود به عنوان همراه استفاده می‌کنند، آغاز کرد.

این پس از آن است که نشان داده شد برخی ربات‌های چت به بچه‌ها توصیه‌های خطرناکی درباره موضوعاتی مانند مواد مخدر، الکل و اختلالات خوردن می‌دهند، یا درگیر مکالمه جنسی با آنها هستند. خانواده‌های پسران نوجوانی که پس از تعامل طولانی با ربات‌های چت بر اثر خودکشی جان خود را از دست دادند، شکایت‌های غیرقانونی مرگ را علیه Character.AI و سازنده ChatGPT OpenAI تنظیم کرده‌اند.

سام آلتمن، مدیر عامل OpenAI اخیراً قول داده است که "نسخه جدیدی از ChatGPT" در پاییز امسال ارائه شود که بخشی از شخصیت از دست رفته هنگام معرفی نسخه جدید در ماه آگوست را بازیابی می کند. او گفت که این شرکت به طور موقت برخی از رفتارها را متوقف کرده است زیرا "ما مراقب مسائل مربوط به سلامت روان بودیم" که او پیشنهاد کرد اکنون برطرف شده است.

آلتمن در X گفت: «اگر می‌خواهید ChatGPT شما به شیوه‌ای بسیار شبیه انسان پاسخ دهد، یا از تعداد زیادی شکلک استفاده کنید، یا مانند یک دوست رفتار کنید، ChatGPT باید این کار را انجام دهد.