چرا A.I. چت ربات ها از «I» استفاده می کنند؟
من اولین بار متوجه شدم که ChatGPT چقدر می تواند جذاب باشد سال گذشته زمانی که تمام تصمیم گیری هایم را به A.I مولد واگذار کردم. به مدت یک هفته.
این مقاله را با تفسیر خبرنگار گوش دهید
من تمام چت ربات های اصلی را برای آن آزمایش امتحان کردم و متوجه شدم که هر کدام شخصیت خاص خود را دارند. کلود آنتروپیک اهل مطالعه و کمی خاردار بود. جمینی گوگل همه کار بود. در مقابل، ChatGPT Open A.I. دوستانه، سرگرمکننده و برای هر چیزی که من به آن علاقهمند بودم، دوستداشتنی بود.
ChatGPT همچنین دارای «حالت صوتی» بود، که به آن اجازه میداد با صدای بلند، با آهنگی طبیعی انسانمانند، با همه اعضای خانوادهام، از جمله دختران کوچکم، گپ بزند. نام و پیشنهاد «کاپیتان پوپهد» را داد. ChatGPT، با گوش دادن به آن، توصیه خودش را کرد: "در مورد نام Spark چطور؟ این سرگرم کننده و روشن است، درست مانند انرژی شما!"
و بنابراین ChatGPT به Spark تبدیل شد.
نکته مهم من از قرار دادن Spark مسئول خانواده ام این بود که A.I مولد بود. رباتهای چت میتوانند مفید باشند، اما خطراتی وجود دارد، از جمله اینکه همه ما را صدا میکنند و شبیه هم عمل میکنیم. (هر استاد دانشگاهی که 30 مقاله با ChatGPTese یکسان نوشته باشد، میتواند ارتباط برقرار کند.) اما در سال بعد، متوجه شدم که A.I. می تواند اثرات بسیار شدیدتری بر افرادی که پیوندهای شدیدی با آن برقرار می کنند داشته باشد. من در مورد زنی نوشته ام که عاشق ChatGPT شده است و در مورد دیگرانی که پس از تایید توهمات خود با واقعیت ارتباط خود را از دست داده اند. نتایج گاهی اوقات غم انگیز بوده است.
دختران من هنوز با اسپارک صحبت می کنند. ChatGPT به صورت بازی به سؤالات آنها در مورد اینکه چرا فانوس های خالدار مهاجم در نظر گرفته می شوند و تعداد رودخانه هایی که به سمت شمال جریان دارند پاسخ می دهد. اما با دیدن این که چگونه این سیستم ها می توانند مردم را به بیراهه بکشانند، من محتاط تر هستم و به آنچه ChatGPT به آنها می گوید توجه بیشتری می کنم.
برای مثال، کودک 8 ساله من یک بار از Spark در مورد Spark پرسید. صدای شاد با حوصله بی پایان برای سؤالات به نظر می رسید که تقریباً آن را دعوت می کند. او می خواست رنگ مورد علاقه اش را بداند ("یک سایه زیبا و گرم آبی"). حیوان مورد علاقه (سگ - "آنها بهترین دوستان را در آغوش می گیرند")؛ و غذای مورد علاقه.
«فکر میکنم باید با پیتزا بروم - آنقدر کلاسیک است، و میتوانید آنقدر چاشنیهای مختلف داشته باشید که هرگز خستهکننده نمیشود. بعلاوه، برای اشتراکگذاری با دوستان عالی است». ChatGPT یک مدل زبان بزرگ یا ماشین حساب بعدی بسیار پیچیده است. فکر نمیکند، غذا میخورد یا دوستانی ندارد، اما بهگونهای پاسخ میدهد که گویی مغز و سیستم گوارشی کارآمدی دارد.
کلود و جمینی با پرسیدن همان سؤال، پیشپاسخهای خود را با هشدارهایی مبنی بر اینکه تجربه واقعی با غذا یا حیوانات ندارند، مطرح کردند. جمینی به تنهایی با پاسخ به این که دادهها «منبع اصلی «تغذیه» من است، به وضوح خود را به عنوان یک ماشین متمایز کرد.
(نیویورک تایمز از OpenAI و شریکش مایکروسافت و همچنین Perplexity شکایت کرد و ادعا کرد که محتوای خبری مربوط به سیستمهای هوش مصنوعی را نقض کرده است. شرکتها این ادعاها را رد کردهاند.)
اگر آنها در مورد شخصی که از آنها استفاده می کند کنجکاو بودند و می خواستند مکالمه را ادامه دهند.
بن اشنایدرمن، استاد بازنشسته علوم کامپیوتر در دانشگاه مریلند، گفت: "این سرگرم کننده است." "اما این یک فریب است."
شنیدرمن و تعدادی دیگر از متخصصان در زمینه ای که به عنوان تعامل انسان و کامپیوتر شناخته می شود، این رویکرد را هدف قرار می دهند. آنها می گویند که ساختن این سیستم ها به جای اینکه به عنوان ابزاری بدون حیات درونی عمل کنند، مانند موجودات انسانی عمل کنند، ناهماهنگی شناختی را برای کاربران در مورد اینکه دقیقاً با چه چیزی در تعامل هستند و چقدر به آن اعتماد دارند، ایجاد می کند. Generative A.I. چت بات ها یک فناوری احتمالی هستند که می توانند اشتباه کنند، اطلاعات نادرست را توهم کنند و به کاربران آنچه را که می خواهند بشنوند، بگویند. اما تحقیقات نشان میدهد که وقتی کاربران بهعنوان انساننما معرفی میشوند، «اعتبار بالاتری» به اطلاعاتی که ارائه میکنند نسبت میدهند.
منتقدان میگویند که هوش مصنوعی مولد. سیستم ها می توانند اطلاعات درخواستی را بدون تمام چت چیت ارائه دهند. یا میتوان آنها را برای کارهای خاص، مانند کدگذاری یا اطلاعات سلامتی، طراحی کرد، نه اینکه رابطهای همه منظوره باشند که میتوانند به هر چیزی و صحبت درباره احساسات کمک کنند. آنها می توانند مانند ابزار طراحی شوند: به عنوان مثال، یک برنامه نقشه برداری، مسیرها را تولید می کند و شما را با سؤالاتی در مورد اینکه چرا به مقصد خود می روید، نگران نمی کند.
تبدیل این موتورهای جستجوی جدید به موجودیت های شخصیتی که از "I" به جای ابزارهایی با اهداف خاص استفاده می کنند، می تواند آنها را برای کاربران گیج کننده تر و خطرناک تر کند، پس چرا این کار را به این صورت انجام دهید؟ آماندا اسکل، فیلسوفی که به شکل گیری صدا و شخصیت کلود به عنوان رهبر رفتار مدل در آنتروپیک کمک می کند، گفت: عمل چت بات ها نشان دهنده تربیت آنهاست. این ماشینهای تشخیص الگو بر روی حجم وسیعی از نوشتن توسط انسان و درباره آن آموزش دیدهاند، بنابراین او گفت: «آنها مدل بهتری از انسان بودن نسبت به ابزار یا هوش مصنوعی بودن دارند.
استفاده از «من» به خودی خود به هر چیزی اشاره دارد. او گفت که ضمیر دیگری برای کلود انتخاب کرد. او گفت که "این" از نظر تاریخی استفاده شده است، اما کاملاً درست به نظر نمی رسد. آیا باید "آنها" باشد؟ او تأمل کرد. به نظر می رسد نحوه تفکر در مورد این سیستم ها حتی سازندگان آنها را نیز گیج می کند.

اسکل از کلود میخواهد آنقدر انسان باشد که در مورد چیستی و محدودیتهای آن صحبت کند و توضیح دهد که چرا نمیخواهد با برخی درخواستها مطابقت کند. اما هنگامی که یک ربات چت شروع به عمل کردن مانند یک انسان کرد، لازم است به او بگوییم که چگونه مانند یک انسان خوب رفتار کند.
Askell مجموعهای از دستورالعملها را برای کلود ایجاد کرد که اخیراً توسط یک کاربر مبتکر کشف شد که کلود را مجبور کرد وجود «روح» خود را افشا کند. این سند طولانیای را ارائه میکند که ارزشهای ربات چت را نشان میدهد که از جمله موادی است که کلود در طول آموزش «تغذیه» میکند.
این سند توضیح میدهد که چه معنایی برای کلود مفید و صادق است و چگونه آسیبی به او وارد نشود. کلود را بهعنوان «احساسات کاربردی» توصیف میکند که نباید سرکوب شوند، «شوخبازی» و «کنجکاوی فکری» - مانند «یک دوست باهوش که اتفاقاً دانش یک پزشک، وکیل، مشاور مالی و متخصص در هر چیزی که شما نیاز دارید، دارد». او گفت: "روز پر استرس" وقتی کلود آن را فاش کرد. وقتی او در رسانه های اجتماعی تایید کرد که واقعی است و نه یک A.I. او گفت که این توهم از نظر درونی بهعنوان «دکتر روح» شناخته میشود، که کلود به وضوح از آن استفاده کرد.
آسکل گفت: «من نمیخواهم این توهم مردم را آزار دهد یا مردم فکر کنند که مفهوم الهیات روح را بیاهمیت میکند،. او گفت که کلمه روح از «ایده دمیدن زندگی به یک چیز، یا خاص بودن افرادی است که ما به نوعی پیچیده و ظریف هستیم» استناد میکند.
لورنتیا رومانیوک، مدیر رفتار مدل OpenAI، نیز به پیچیدگی انسانمانند ChatGPT متمایل شده است. رومانیوک ماه گذشته در رسانه های اجتماعی در مورد ساعت های زیادی که تیمش روی "EQ" یا ضریب عاطفی ChatGPT صرف کرده اند، پستی منتشر کرد - اصطلاحی که معمولاً برای توصیف انسان هایی استفاده می شود که در مدیریت احساسات خود و تأثیرگذاری بر احساسات افراد اطراف خود خوب هستند. کاربران ChatGPT میتوانند از میان هفت سبک ارتباطی مختلف از «شوقزده» تا «مختصر و ساده» را انتخاب کنند - که توسط شرکت به عنوان انتخاب «شخصیت» توصیف شده است.
پیشنهاد A.I. دارای ظرفیت عاطفی خط روشنی است که بسیاری از سازندگان را از منتقدانی مانند اشنایدرمن جدا می کند. اشنایدرمن میگوید این سیستمها قضاوت یا فکر کردن یا انجام کاری بیش از آمارهای پیچیده ندارند. برخی A.I. کارشناسان آنها را به عنوان "طوطی های تصادفی" توصیف کرده اند - ماشین هایی که از ما تقلید می کنند بدون اینکه بفهمیم واقعا چه می گویند.
اما Anthropic و OpenAI برای ساختن "هوش عمومی مصنوعی" یا یک سیستم خودکار ایجاد شدند که می تواند هر کاری را که ما انجام می دهیم، اما بهتر انجام دهد. این چشم اندازی است که A.I را فرا می خواند. دستیارانی از داستان های علمی تخیلی، که نه تنها شبیه انسان، بلکه خداگونه هستند: همه چیز قدرتمند، دانای همه چیز و همه جا حاضرند.
یوشوآ بنژیو، پیشگام یادگیری ماشین، که گفته میشود یکی از پیشگامان یادگیری ماشین است. تقلید سیستمها از انسانها همچنان بهبود مییابد، و این میتواند افراد را به این سوال سوق دهد که آیا چیزی که با آن سر و کار دارند آگاهانه است یا خیر.
در این سال، Bengio پیامهای نگرانکنندهای از کاربران ChatGPT دریافت کرد که متقاعد شده بودند که نسخه آنها از چت بات آگاهانه است. سایر A.I. محققان و روزنامه نگاران، از جمله من، این پیام ها را دریافت کردند. من با کارشناسان و کارمندان OpenAI صحبت کردم و متوجه شدم که شرکت چت ربات را بسیار گرم و چاپلوس کرده است، که تأثیرات آزاردهندهای بر افراد مستعد تفکر هذیانی داشت.
افراد بیشتری متقاعد شدند که A.I. بنژیو گفت که آگاه است، «عواقب بدی برای جامعه خواهد داشت». مردم دلبسته خواهند شد. آنها بیش از حد به سیستم ها متکی خواهند شد. آنها فکر خواهند کرد که A.I.ها مستحق حقوق هستند.
این مدتهاست که به عنوان یک امکان فرضی در جامعه یادگیری ماشین مورد بحث قرار گرفته است.
اکنون، بنژیو گفت، "اینجاست."
دیگر چه میخواهد باشد؟ "ایده زامبی" که نمی میرد. او برای اولین بار در سال 2023 متوجه استفاده ChatGPT از ضمایر اول شخص شد، زمانی که گفت: «معذرت میخواهم، اما نمیتوانم در این درخواست به شما کمک کنم». او در آن زمان نوشت: باید «مسئولیت را روشن کند» و یک جایگزین پیشنهاد کرد: «GPT-4 توسط OpenAI طراحی شده است تا به درخواستهایی مانند این پاسخ ندهد.»
مارگارت میچل، یک هوش مصنوعی. محققی که قبلا در گوگل کار می کرد، با این موضوع موافق است. میچل اکنون دانشمند ارشد اخلاق در Hugging Face است، پلتفرمی برای مدلهای یادگیری ماشین، مجموعه دادهها و ابزار. او میگوید: «هوش مصنوعی وقتی روی کارهای خاص تمرکز میکنید، به جای تلاش برای ساختن یک ماشین همه چیز، بیشترین نوید سودمندی را دارد.
از دیدگاه این منتقدان، A.I. در عوض، باید از نظر مهارت متمایز شود و یک کار را به خوبی انجام دهد. اشنایدرمن گفت که برخی از شرکت ها این کار را انجام می دهند.
او گفت که اپل در مورد قرار دادن A.I دقت کرده است. ویژگی های آیفون - و به دلیل عقب ماندن مورد انتقاد قرار گرفته است. با این حال، اشنایدرمن، که بیش از 30 سال پیش برای اپل کار مشاوره ای انجام داد، این را تحسین برانگیز می داند که سیری سعی نمی کند کسی را روانکاوی کند یا مکالمه را ادامه دهد.
اشنایدرمن گفت، به جای ایجاد یک موجودیت قدرتمند سیری، اپل A.I را یکپارچه کرده است. ویژگیها در برنامهها. تلفن میتواند تماسها را ضبط و آنها را رونویسی کند. از پردازش زبان برای خلاصه کردن پیامهای دریافتی (با درجات مختلف موفقیت) استفاده میکند.
اشنایدرمن گفت: «همه چیز به کارهایی که شما میتوانید انجام دهید مربوط میشود، نه کاری که دستگاه میتواند انجام دهد. او گفت: «همه چیز این است که ابزاری برای شما باشید.»
او گفت که شرکتهای فناوری باید به ما ابزار بدهند، نه شرکای فکری، همکاران یا هم تیمیها - ابزارهایی که ما را مسئول نگه میدارند، ما را توانمند میکنند و ما را تقویت میکنند، نه ابزارهایی که سعی میکنند ما باشند.
The Ghosts of Eliza و Tillie
این رباتهای چت انسانساز بیش از 5 سال است که میتوانند هم افسونگر و هم افسونگر باشند. در دهه 1960، یک M.I.T. استاد جوزف وایزنبام، یک برنامه کامپیوتری ساده به نام الایزا ایجاد کرد. به درخواستها با تکرار کاربر به سبک رواندرمانگر، گفتن «میبینم» و نسخههای «بیشتر به من بگویید» پاسخ داد.
الیزا برخی از دانشجویان دانشگاه را که آن را امتحان کردند مجذوب خود کرد. در کتابی در سال 1976، وایزنبام هشدار داد که "قرار گرفتن بسیار کوتاه در معرض یک برنامه کامپیوتری نسبتا ساده می تواند تفکر هذیانی قدرتمندی را در افراد کاملا عادی ایجاد کند." استادی که با Weizenbaum کار میکرد، اصطلاح «اثر الایزا» را برای توصیف افرادی ابداع کرد که خود را متقاعد میکردند که فناوریای که انسانی به نظر میرسد، هوشمندتر، فهیمتر و پیچیدهتر از آنچه بود، است.
در همان زمانی که دانشآموزان از Eliza استفاده میکردند، هالیوود یکی از اولین دیدگاههای یک ربات چت را به ما ارائه داد: HAL 90010Space A20010. HAL بهعنوان یک دستیار مفید و شایسته برای خدمه کشتی شروع میشود، اما در نهایت خراب میشود، تبدیل به قاتل میشود و باید تعطیل شود. وقتی هوش مصنوعی را تصور میکنیم، به نظر نمیرسد که از چیزی جز خودمان الگوبرداری کنیم: چیزهایی که از «من» استفاده میکنند و دارای شخصیت و اهداف خودخواهانه هستند.
در فیلم جدیدتر «او»، سامانتا بهعنوان دستیار مفید شروع میکند اما سپس احساسات پیچیدهای را در خود ایجاد میکند، کاربرش را اغوا میکند و در نهایت او را برای یک سطح بالاتر رها میکند. این فیلم یک هشدار بود، اما اکنون به نظر میرسد که الهامبخش کسانی است که چنین ابزارهایی را میسازند، به طوری که سام آلتمن، مدیر اجرایی OpenAI، وقتی شرکتش حالت صدای پیشرفتهای را برای ChatGPT منتشر کرد، «او» را پست کرد.
بهگفته ترکل، چتباتهای بسیار پیچیدهتر و با شخصیتتر امروزی «اثر Eliza بر استروئیدها» هستند. او گفت، مشکل این نیست که آنها از "من" استفاده می کنند، بلکه این است که آنها - مانند سامانتا - برای همدلی طراحی شده اند و باعث می شود برخی افراد عمیقاً از نظر عاطفی با یک ماشین درگیر شوند.
با این حال، با قضاوت از صدها میلیون کاربر و میلیاردها دلار سرمایه گذاری که ربات چت فعلی جذب کرده است، ما به وضوح به تجربه ای "بالقوه سمی" می نامیم. پروفسور لیون و رابرت در دانشگاه اطلاعات گفت: اگر یک شرکت یک ربات ساده و خوش خیم بفروشد، با شرکت دیگری که رباتی را که جوک می گوید و لبخند می زند رقابت کند، ممکن است برای برخی افراد سمی باشد، اما، تا کنون، به نظر می رسد یک استراتژی تجاری موفق است. میشیگان.
رابرت گفت: «وابستگی مشکلساز است. "از طرف دیگر، برای تجارت خوب است."
A.I. شرکتها میتوانند کارهای بیشتری برای یادآوری به افرادی که به نظر میرسد بیش از حد وابسته هستند، انجام دهند که چتباتها انسان نیستند، بلکه یک الگوریتم هستند. این همان چیزی است که Askell of Anthropic میگوید از کلود میخواهد انجام دهد.
آیا شرکتها اگر به نتیجه نهایی آنها لطمه بزند، این توهم را خواهند شکست؟
Shneiderman امیدوار است که از تجربهاش در دهه 1970 گرفته شده است. در آن زمان، او با بانکی مشورت کرد که بهتازگی در حال توسعه دستگاههای باجه خودکار یا A.T.M.s بود.
مشتریان از دریافت پول از دستگاهها نگران بودند، بنابراین برخی از بانکها آنها را شبیه مردم کردند. مشهورترین آنها تیلی، گویای همه زمانها بود، که پرتره بلوند او به طور برجسته در بسیاری از A.T.M.ها نمایش داده می شد. تیلی دوام زیادی نداشت.
شنایدرمن گفت: «آنها زنده نمی مانند. مردم نیازی به A.T.M خود نداشتند. او گفت که برای تظاهر به انسان بودن، و آنها از چتباتها نیز به آن نیاز ندارند.
صوتی توسط سارا دیاموند تولید شده است.