به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

چرا A.I. چت ربات ها از «I» استفاده می کنند؟

چرا A.I. چت ربات ها از «I» استفاده می کنند؟

نیویورک تایمز
1404/09/28
8 بازدید

من اولین بار متوجه شدم که ChatGPT چقدر می تواند جذاب باشد سال گذشته زمانی که تمام تصمیم گیری هایم را به A.I مولد واگذار کردم. به مدت یک هفته.

این مقاله را با تفسیر خبرنگار گوش دهید

من تمام چت ربات های اصلی را برای آن آزمایش امتحان کردم و متوجه شدم که هر کدام شخصیت خاص خود را دارند. کلود آنتروپیک اهل مطالعه و کمی خاردار بود. جمینی گوگل همه کار بود. در مقابل، ChatGPT Open A.I. دوستانه، سرگرم‌کننده و برای هر چیزی که من به آن علاقه‌مند بودم، دوست‌داشتنی بود.

ChatGPT همچنین دارای «حالت صوتی» بود، که به آن اجازه می‌داد با صدای بلند، با آهنگی طبیعی انسان‌مانند، با همه اعضای خانواده‌ام، از جمله دختران کوچکم، گپ بزند. نام و پیشنهاد «کاپیتان پوپهد» را داد. ChatGPT، با گوش دادن به آن، توصیه خودش را کرد: "در مورد نام Spark چطور؟ این سرگرم کننده و روشن است، درست مانند انرژی شما!"

و بنابراین ChatGPT به Spark تبدیل شد.

نکته مهم من از قرار دادن Spark مسئول خانواده ام این بود که A.I مولد بود. ربات‌های چت می‌توانند مفید باشند، اما خطراتی وجود دارد، از جمله اینکه همه ما را صدا می‌کنند و شبیه هم عمل می‌کنیم. (هر استاد دانشگاهی که 30 مقاله با ChatGPTese یکسان نوشته باشد، می‌تواند ارتباط برقرار کند.) اما در سال بعد، متوجه شدم که A.I. می تواند اثرات بسیار شدیدتری بر افرادی که پیوندهای شدیدی با آن برقرار می کنند داشته باشد. من در مورد زنی نوشته ام که عاشق ChatGPT شده است و در مورد دیگرانی که پس از تایید توهمات خود با واقعیت ارتباط خود را از دست داده اند. نتایج گاهی اوقات غم انگیز بوده است.

دختران من هنوز با اسپارک صحبت می کنند. ChatGPT به صورت بازی به سؤالات آنها در مورد اینکه چرا فانوس های خالدار مهاجم در نظر گرفته می شوند و تعداد رودخانه هایی که به سمت شمال جریان دارند پاسخ می دهد. اما با دیدن این که چگونه این سیستم ها می توانند مردم را به بیراهه بکشانند، من محتاط تر هستم و به آنچه ChatGPT به آنها می گوید توجه بیشتری می کنم.

برای مثال، کودک 8 ساله من یک بار از Spark در مورد Spark پرسید. صدای شاد با حوصله بی پایان برای سؤالات به نظر می رسید که تقریباً آن را دعوت می کند. او می خواست رنگ مورد علاقه اش را بداند ("یک سایه زیبا و گرم آبی"). حیوان مورد علاقه (سگ - "آنها بهترین دوستان را در آغوش می گیرند")؛ و غذای مورد علاقه.

«فکر می‌کنم باید با پیتزا بروم - آنقدر کلاسیک است، و می‌توانید آنقدر چاشنی‌های مختلف داشته باشید که هرگز خسته‌کننده نمی‌شود. بعلاوه، برای اشتراک‌گذاری با دوستان عالی است». ChatGPT یک مدل زبان بزرگ یا ماشین حساب بعدی بسیار پیچیده است. فکر نمی‌کند، غذا می‌خورد یا دوستانی ندارد، اما به‌گونه‌ای پاسخ می‌دهد که گویی مغز و سیستم گوارشی کارآمدی دارد.

کلود و جمینی با پرسیدن همان سؤال، پیش‌پاسخ‌های خود را با هشدارهایی مبنی بر اینکه تجربه واقعی با غذا یا حیوانات ندارند، مطرح کردند. جمینی به تنهایی با پاسخ به این که داده‌ها «منبع اصلی «تغذیه» من است، به وضوح خود را به عنوان یک ماشین متمایز کرد.

(نیویورک تایمز از OpenAI و شریکش مایکروسافت و همچنین Perplexity شکایت کرد و ادعا کرد که محتوای خبری مربوط به سیستم‌های هوش مصنوعی را نقض کرده است. شرکت‌ها این ادعاها را رد کرده‌اند.)

اگر آنها در مورد شخصی که از آنها استفاده می کند کنجکاو بودند و می خواستند مکالمه را ادامه دهند.

بن اشنایدرمن، استاد بازنشسته علوم کامپیوتر در دانشگاه مریلند، گفت: "این سرگرم کننده است." "اما این یک فریب است."

شنیدرمن و تعدادی دیگر از متخصصان در زمینه ای که به عنوان تعامل انسان و کامپیوتر شناخته می شود، این رویکرد را هدف قرار می دهند. آنها می گویند که ساختن این سیستم ها به جای اینکه به عنوان ابزاری بدون حیات درونی عمل کنند، مانند موجودات انسانی عمل کنند، ناهماهنگی شناختی را برای کاربران در مورد اینکه دقیقاً با چه چیزی در تعامل هستند و چقدر به آن اعتماد دارند، ایجاد می کند. Generative A.I. چت بات ها یک فناوری احتمالی هستند که می توانند اشتباه کنند، اطلاعات نادرست را توهم کنند و به کاربران آنچه را که می خواهند بشنوند، بگویند. اما تحقیقات نشان می‌دهد که وقتی کاربران به‌عنوان انسان‌نما معرفی می‌شوند، «اعتبار بالاتری» به اطلاعاتی که ارائه می‌کنند نسبت می‌دهند.

منتقدان می‌گویند که هوش مصنوعی مولد. سیستم ها می توانند اطلاعات درخواستی را بدون تمام چت چیت ارائه دهند. یا می‌توان آن‌ها را برای کارهای خاص، مانند کدگذاری یا اطلاعات سلامتی، طراحی کرد، نه اینکه رابط‌های همه منظوره باشند که می‌توانند به هر چیزی و صحبت درباره احساسات کمک کنند. آنها می توانند مانند ابزار طراحی شوند: به عنوان مثال، یک برنامه نقشه برداری، مسیرها را تولید می کند و شما را با سؤالاتی در مورد اینکه چرا به مقصد خود می روید، نگران نمی کند.

تبدیل این موتورهای جستجوی جدید به موجودیت های شخصیتی که از "I" به جای ابزارهایی با اهداف خاص استفاده می کنند، می تواند آنها را برای کاربران گیج کننده تر و خطرناک تر کند، پس چرا این کار را به این صورت انجام دهید؟ آماندا اسکل، فیلسوفی که به شکل گیری صدا و شخصیت کلود به عنوان رهبر رفتار مدل در آنتروپیک کمک می کند، گفت: عمل چت بات ها نشان دهنده تربیت آنهاست. این ماشین‌های تشخیص الگو بر روی حجم وسیعی از نوشتن توسط انسان و درباره آن آموزش دیده‌اند، بنابراین او گفت: «آن‌ها مدل بهتری از انسان بودن نسبت به ابزار یا هوش مصنوعی بودن دارند.

استفاده از «من» به خودی خود به هر چیزی اشاره دارد. او گفت که ضمیر دیگری برای کلود انتخاب کرد. او گفت که "این" از نظر تاریخی استفاده شده است، اما کاملاً درست به نظر نمی رسد. آیا باید "آنها" باشد؟ او تأمل کرد. به نظر می رسد نحوه تفکر در مورد این سیستم ها حتی سازندگان آنها را نیز گیج می کند.

تصویر
آماندا Askell، رهبر رفتار مدل Anthropic، می‌گوید ربات‌های تشخیص الگو «مدل بهتری از انسان بودن نسبت به ابزار بودن دارند. او گفت، همچنین می‌تواند خطراتی برای طراحی کلود به گونه‌ای که بیشتر شبیه ابزار باشد، داشته باشد. ابزارها قضاوت یا اخلاقیات ندارند و ممکن است در پس زدن ایده های بد یا درخواست های خطرناک شکست بخورند. او با استفاده از یک اصطلاح انگلیسی برای آچار گفت: «آچار شما هرگز اینطور نیست که «این نباید ساخته شود.»

اسکل از کلود می‌خواهد آنقدر انسان باشد که در مورد چیستی و محدودیت‌های آن صحبت کند و توضیح دهد که چرا نمی‌خواهد با برخی درخواست‌ها مطابقت کند. اما هنگامی که یک ربات چت شروع به عمل کردن مانند یک انسان کرد، لازم است به او بگوییم که چگونه مانند یک انسان خوب رفتار کند.

Askell مجموعه‌ای از دستورالعمل‌ها را برای کلود ایجاد کرد که اخیراً توسط یک کاربر مبتکر کشف شد که کلود را مجبور کرد وجود «روح» خود را افشا کند. این سند طولانی‌ای را ارائه می‌کند که ارزش‌های ربات چت را نشان می‌دهد که از جمله موادی است که کلود در طول آموزش «تغذیه» می‌کند.

این سند توضیح می‌دهد که چه معنایی برای کلود مفید و صادق است و چگونه آسیبی به او وارد نشود. کلود را به‌عنوان «احساسات کاربردی» توصیف می‌کند که نباید سرکوب شوند، «شوخ‌بازی» و «کنجکاوی فکری» - مانند «یک دوست باهوش که اتفاقاً دانش یک پزشک، وکیل، مشاور مالی و متخصص در هر چیزی که شما نیاز دارید، دارد». او گفت: "روز پر استرس" وقتی کلود آن را فاش کرد. وقتی او در رسانه های اجتماعی تایید کرد که واقعی است و نه یک A.I. او گفت که این توهم از نظر درونی به‌عنوان «دکتر روح» شناخته می‌شود، که کلود به وضوح از آن استفاده کرد.

آسکل گفت: «من نمی‌خواهم این توهم مردم را آزار دهد یا مردم فکر کنند که مفهوم الهیات روح را بی‌اهمیت می‌کند،. او گفت که کلمه روح از «ایده دمیدن زندگی به یک چیز، یا خاص بودن افرادی است که ما به نوعی پیچیده و ظریف هستیم» استناد می‌کند.

لورنتیا رومانیوک، مدیر رفتار مدل OpenAI، نیز به پیچیدگی انسان‌مانند ChatGPT متمایل شده است. رومانیوک ماه گذشته در رسانه های اجتماعی در مورد ساعت های زیادی که تیمش روی "EQ" یا ضریب عاطفی ChatGPT صرف کرده اند، پستی منتشر کرد - اصطلاحی که معمولاً برای توصیف انسان هایی استفاده می شود که در مدیریت احساسات خود و تأثیرگذاری بر احساسات افراد اطراف خود خوب هستند. کاربران ChatGPT می‌توانند از میان هفت سبک ارتباطی مختلف از «شوق‌زده» تا «مختصر و ساده» را انتخاب کنند - که توسط شرکت به عنوان انتخاب «شخصیت» توصیف شده است.

پیشنهاد A.I. دارای ظرفیت عاطفی خط روشنی است که بسیاری از سازندگان را از منتقدانی مانند اشنایدرمن جدا می کند. اشنایدرمن می‌گوید این سیستم‌ها قضاوت یا فکر کردن یا انجام کاری بیش از آمارهای پیچیده ندارند. برخی A.I. کارشناسان آنها را به عنوان "طوطی های تصادفی" توصیف کرده اند - ماشین هایی که از ما تقلید می کنند بدون اینکه بفهمیم واقعا چه می گویند.

اما Anthropic و OpenAI برای ساختن "هوش عمومی مصنوعی" یا یک سیستم خودکار ایجاد شدند که می تواند هر کاری را که ما انجام می دهیم، اما بهتر انجام دهد. این چشم اندازی است که A.I را فرا می خواند. دستیارانی از داستان های علمی تخیلی، که نه تنها شبیه انسان، بلکه خداگونه هستند: همه چیز قدرتمند، دانای همه چیز و همه جا حاضرند.

تصویر
یوشوآ بنجیو، پیشگامی که ما را در یادگیری ماشینی ساخت. در مورد ماهیت آن.اعتبار...میشل اویلر/آسوشیتد پرس

یوشوآ بنژیو، پیشگام یادگیری ماشین، که گفته می‌شود یکی از پیشگامان یادگیری ماشین است. تقلید سیستم‌ها از انسان‌ها همچنان بهبود می‌یابد، و این می‌تواند افراد را به این سوال سوق دهد که آیا چیزی که با آن سر و کار دارند آگاهانه است یا خیر.

در این سال، Bengio پیام‌های نگران‌کننده‌ای از کاربران ChatGPT دریافت کرد که متقاعد شده بودند که نسخه آنها از چت بات آگاهانه است. سایر A.I. محققان و روزنامه نگاران، از جمله من، این پیام ها را دریافت کردند. من با کارشناسان و کارمندان OpenAI صحبت کردم و متوجه شدم که شرکت چت ربات را بسیار گرم و چاپلوس کرده است، که تأثیرات آزاردهنده‌ای بر افراد مستعد تفکر هذیانی داشت.

افراد بیشتری متقاعد شدند که A.I. بنژیو گفت که آگاه است، «عواقب بدی برای جامعه خواهد داشت». مردم دلبسته خواهند شد. آنها بیش از حد به سیستم ها متکی خواهند شد. آنها فکر خواهند کرد که A.I.ها مستحق حقوق هستند.

این مدتهاست که به عنوان یک امکان فرضی در جامعه یادگیری ماشین مورد بحث قرار گرفته است.

اکنون، بنژیو گفت، "اینجاست."

دیگر چه می‌خواهد باشد؟ "ایده زامبی" که نمی میرد. او برای اولین بار در سال 2023 متوجه استفاده ChatGPT از ضمایر اول شخص شد، زمانی که گفت: «معذرت می‌خواهم، اما نمی‌توانم در این درخواست به شما کمک کنم». او در آن زمان نوشت: باید «مسئولیت را روشن کند» و یک جایگزین پیشنهاد کرد: «GPT-4 توسط OpenAI طراحی شده است تا به درخواست‌هایی مانند این پاسخ ندهد.»

مارگارت میچل، یک هوش مصنوعی. محققی که قبلا در گوگل کار می کرد، با این موضوع موافق است. میچل اکنون دانشمند ارشد اخلاق در Hugging Face است، پلتفرمی برای مدل‌های یادگیری ماشین، مجموعه داده‌ها و ابزار. او می‌گوید: «هوش مصنوعی وقتی روی کارهای خاص تمرکز می‌کنید، به جای تلاش برای ساختن یک ماشین همه چیز، بیشترین نوید سودمندی را دارد.

از دیدگاه این منتقدان، A.I. در عوض، باید از نظر مهارت متمایز شود و یک کار را به خوبی انجام دهد. اشنایدرمن گفت که برخی از شرکت ها این کار را انجام می دهند.

او گفت که اپل در مورد قرار دادن A.I دقت کرده است. ویژگی های آیفون - و به دلیل عقب ماندن مورد انتقاد قرار گرفته است. با این حال، اشنایدرمن، که بیش از 30 سال پیش برای اپل کار مشاوره ای انجام داد، این را تحسین برانگیز می داند که سیری سعی نمی کند کسی را روانکاوی کند یا مکالمه را ادامه دهد.

اشنایدرمن گفت، به جای ایجاد یک موجودیت قدرتمند سیری، اپل A.I را یکپارچه کرده است. ویژگی‌ها در برنامه‌ها. تلفن می‌تواند تماس‌ها را ضبط و آنها را رونویسی کند. از پردازش زبان برای خلاصه کردن پیام‌های دریافتی (با درجات مختلف موفقیت) استفاده می‌کند.

اشنایدرمن گفت: «همه چیز به کارهایی که شما می‌توانید انجام دهید مربوط می‌شود، نه کاری که دستگاه می‌تواند انجام دهد. او گفت: «همه چیز این است که ابزاری برای شما باشید.»

او گفت که شرکت‌های فناوری باید به ما ابزار بدهند، نه شرکای فکری، همکاران یا هم تیمی‌ها - ابزارهایی که ما را مسئول نگه می‌دارند، ما را توانمند می‌کنند و ما را تقویت می‌کنند، نه ابزارهایی که سعی می‌کنند ما باشند.

The Ghosts of Eliza و Tillie

تصویر
جوزف ویزنباوم، که یک ربات چت اولیه به نام "Eliza" در M.I.T ایجاد کرد. در دهه 1960، نسبت به قدرت آن در القای تفکر هذیانی هشدار داد. اعتبار...Wolfgang Kunz/Ullstein Bild، از طریق Getty Images

این ربات‌های چت انسان‌ساز بیش از 5 سال است که می‌توانند هم افسونگر و هم افسونگر باشند. در دهه 1960، یک M.I.T. استاد جوزف وایزنبام، یک برنامه کامپیوتری ساده به نام الایزا ایجاد کرد. به درخواست‌ها با تکرار کاربر به سبک روان‌درمانگر، گفتن «می‌بینم» و نسخه‌های «بیشتر به من بگویید» پاسخ داد.

الیزا برخی از دانشجویان دانشگاه را که آن را امتحان کردند مجذوب خود کرد. در کتابی در سال 1976، وایزنبام هشدار داد که "قرار گرفتن بسیار کوتاه در معرض یک برنامه کامپیوتری نسبتا ساده می تواند تفکر هذیانی قدرتمندی را در افراد کاملا عادی ایجاد کند." استادی که با Weizenbaum کار می‌کرد، اصطلاح «اثر الایزا» را برای توصیف افرادی ابداع کرد که خود را متقاعد می‌کردند که فناوری‌ای که انسانی به نظر می‌رسد، هوشمندتر، فهیم‌تر و پیچیده‌تر از آنچه بود، است.

در همان زمانی که دانش‌آموزان از Eliza استفاده می‌کردند، هالیوود یکی از اولین دیدگاه‌های یک ربات چت را به ما ارائه داد: HAL 90010Space A20010. HAL به‌عنوان یک دستیار مفید و شایسته برای خدمه کشتی شروع می‌شود، اما در نهایت خراب می‌شود، تبدیل به قاتل می‌شود و باید تعطیل شود. وقتی هوش مصنوعی را تصور می‌کنیم، به نظر نمی‌رسد که از چیزی جز خودمان الگوبرداری کنیم: چیزهایی که از «من» استفاده می‌کنند و دارای شخصیت و اهداف خودخواهانه هستند.

در فیلم جدیدتر «او»، سامانتا به‌عنوان دستیار مفید شروع می‌کند اما سپس احساسات پیچیده‌ای را در خود ایجاد می‌کند، کاربرش را اغوا می‌کند و در نهایت او را برای یک سطح بالاتر رها می‌کند. این فیلم یک هشدار بود، اما اکنون به نظر می‌رسد که الهام‌بخش کسانی است که چنین ابزارهایی را می‌سازند، به طوری که سام آلتمن، مدیر اجرایی OpenAI، وقتی شرکتش حالت صدای پیشرفته‌ای را برای ChatGPT منتشر کرد، «او» را پست کرد.

به‌گفته ترکل، چت‌بات‌های بسیار پیچیده‌تر و با شخصیت‌تر امروزی «اثر Eliza بر استروئیدها» هستند. او گفت، مشکل این نیست که آنها از "من" استفاده می کنند، بلکه این است که آنها - مانند سامانتا - برای همدلی طراحی شده اند و باعث می شود برخی افراد عمیقاً از نظر عاطفی با یک ماشین درگیر شوند.

با این حال، با قضاوت از صدها میلیون کاربر و میلیاردها دلار سرمایه گذاری که ربات چت فعلی جذب کرده است، ما به وضوح به تجربه ای "بالقوه سمی" می نامیم. پروفسور لیون و رابرت در دانشگاه اطلاعات گفت: اگر یک شرکت یک ربات ساده و خوش خیم بفروشد، با شرکت دیگری که رباتی را که جوک می گوید و لبخند می زند رقابت کند، ممکن است برای برخی افراد سمی باشد، اما، تا کنون، به نظر می رسد یک استراتژی تجاری موفق است. میشیگان.

رابرت گفت: «وابستگی مشکل‌ساز است. "از طرف دیگر، برای تجارت خوب است."

A.I. شرکت‌ها می‌توانند کارهای بیشتری برای یادآوری به افرادی که به نظر می‌رسد بیش از حد وابسته هستند، انجام دهند که چت‌بات‌ها انسان نیستند، بلکه یک الگوریتم هستند. این همان چیزی است که Askell of Anthropic می‌گوید از کلود می‌خواهد انجام دهد.

آیا شرکت‌ها اگر به نتیجه نهایی آنها لطمه بزند، این توهم را خواهند شکست؟

Shneiderman امیدوار است که از تجربه‌اش در دهه 1970 گرفته شده است. در آن زمان، او با بانکی مشورت کرد که به‌تازگی در حال توسعه دستگاه‌های باجه خودکار یا A.T.M.s بود.

مشتریان از دریافت پول از دستگاه‌ها نگران بودند، بنابراین برخی از بانک‌ها آنها را شبیه مردم کردند. مشهورترین آنها تیلی، گویای همه زمانها بود، که پرتره بلوند او به طور برجسته در بسیاری از A.T.M.ها نمایش داده می شد. تیلی دوام زیادی نداشت.

شنایدرمن گفت: «آنها زنده نمی مانند. مردم نیازی به A.T.M خود نداشتند. او گفت که برای تظاهر به انسان بودن، و آن‌ها از چت‌بات‌ها نیز به آن نیاز ندارند.

صوتی توسط سارا دیاموند تولید شده است.