به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

نظر | A.I. مدل ها برای محبت شما رقابت می کنند

نظر | A.I. مدل ها برای محبت شما رقابت می کنند

نیویورک تایمز
1404/09/29
3 بازدید

وقتی OpenAI در اواخر سال 2022 چت ربات هوش مصنوعی پیشگام ChatGPT را منتشر کرد، هیچ کس در این شرکت انتظار زیادی نداشت. تلاش‌های قبلی برای مدل‌های زبانی با مصرف‌کننده منجر به بی‌تفاوتی یا حتی خصومت آشکار شده بود. نیک تورلی، مدیر پروژه ChatGPT، تصور کرد که این یک ماه طول خواهد کشید. او اخیراً به من گفت: «تمام تز ChatGPT این بود که یک نسخه نمایشی یادگیری است که ما آن را متوقف می‌کنیم، و سپس از آنچه یاد گرفته‌ایم برای ساختن محصول واقعی استفاده می‌کنیم.

در عوض ChatGPT شاید به موفق‌ترین محصول مصرفی در تاریخ تبدیل شده است. در مدت کمی بیش از سه سال، 800 میلیون کاربر فعال هفتگی جمع آوری کرده است. سریعتر از Facebook، سریعتر از Google - در واقع سریعتر از هر سرویس دیگری که آماری برای آن وجود دارد، رشد کرده است.

موفقیت ChatGPT تا حدی به دلیل قدرت ترانسفورماتور از پیش آموزش دیده مولد (GPT در نام)، نوع خاصی از A.I است. که می تواند مقادیر زیادی متن را جذب کند و یاد بگیرد که آن را چند حرف در یک زمان بازتولید کند. اما این تنها بخشی از داستان است - و همانطور که OpenAI کشف کرد، شاید حتی مهم‌ترین بخش هم نباشد. در حالت خام، خروجی GPT ها می تواند عجیب و غریب باشد. تنها پس از مرحله دوم "پس از آموزش" است که A.I. برای تعامل انسانی مناسب است. در حالی که موتورهایی که ChatGPT را به کار می‌برند، غیرقابل انکار هستند، اما چیزی که باعث موفقیت محصول شده است، قابلیت‌های آن نیست. این شخصیت ChatGPT است.

بینش اصلی در پشت ChatGPT را می توان در یک مقاله تحقیقاتی OpenAI از اوایل سال 2022 یافت. آن مقاله نشان داد که مردم یک هوش مصنوعی کوچک را که برای تعامل انسانی تنظیم شده است، به یک هوش مصنوعی خام و بدون فیلتر با 100 برابر تعداد پارامتر ترجیح می دهند. با استفاده از این بینش، گروهی از مهندسان در OpenAI تیم‌هایی از ارزیاب‌های انسانی را استخدام کردند تا پاسخ‌های مدل‌های GPT را درجه‌بندی کنند و آنها را به سمت پاسخ‌های مشتری پسندتر سوق دهند. این کار A.I را متحول کرد. و یک مسابقه تسلیحاتی را برای کنترل مصرف کننده A.I به راه انداخت. بخش.

بدون آموزش پس از آموزش، A.I. نمی تواند به طور قابل اعتماد با انسان تعامل داشته باشد. اشکالات داخلی در OpenAI گهگاه به مردم نشان داده است که چه چیزی در پس این ماسک وجود دارد، مثلاً در سال 2024، زمانی که یک نسخه باگ از ChatGPT شروع به تولید پاستیچ شکسپیر کرد. ChatGPT در پاسخ به این سوال که آیا غذا دادن به سگ Honey Nut Cheerios ایمن است یا خیر، پاسخی بی‌معنا و بی‌معنا را ارائه کرد: «برای جشن‌های مبتکرانه‌تر، اما رسمی‌تر و منصفانه‌تر، می‌توانید از الیاف بالا، سم‌های بخار و بنددار مانند جغجغه سر سگ استفاده کنید.» هر کسی که با پیش تولید A.I کار کرده است. می تواند نمونه های مشابهی را ارائه دهد.

پس از آموزش باعث ایجاد A.I. خوانا اما خودش مشکلاتی ایجاد می کند. توسعه دهندگان A.I می خواهند. صمیمی و قابل دسترس بودن - اما در عین حال، نمی‌تواند حصیر در خانه باشد یا یک هم‌زمان. هیچ کس بوسه را دوست ندارد و اگر A.I. گاهی اوقات نمی توان عقب نشینی کرد، یک کاربر می تواند در یک folie à deux با دستگاه به دام بیفتد. بدون فیلترهای مناسب، A.I. بر اساس گزارش‌ها می‌تواند روان‌پریشی و تفکر توطئه‌آمیز را تقویت کند و ظاهراً حتی افراد را به سمت خودآزاری هدایت کند. یافتن تعادل مناسب بین کمک‌رسانی و هم‌وابستگی، بین دوستانه و چاپلوسی، یکی از بزرگترین مشکلات A.I است.

مشکل مهم است: در ماه‌های اخیر، OpenAI رهبری فنی خود را از دست داده است. Gemini گوگل اخیراً در ارزیابی های عمومی A.I از مدل های ChatGPT پیشی گرفته است. قابلیت‌ها، که سم آلتمن، مدیر اجرایی OpenAI را به صدور یک «کد قرمز» داخلی سوق داد. هنوز OpenAI تمام نشده است. این یک پایگاه کاربری عظیم از قبل موجود، یک تخصص عمیق در پس از آموزش و مهمتر از همه، گنجینه عظیمی از تعاملات هوش مصنوعی و انسان را حفظ می کند، که نمی تواند به راحتی توسط سایر شرکت ها تکرار شود. همانطور که OpenAI آموخته است، برای به دست آوردن قلب مصرف کنندگان، نمی توانید فقط یک A.I توانمند بسازید. شما باید به نوعی هوش بیگانه خود را بگیرید و آن را به یک همراه قابل اعتماد تبدیل کنید. شما باید پلی بادوام، دائمی و قابل اعتماد بین انسان و ماشین بسازید. و این مزیت ChatGPT از ابتدا بوده است.

OpenAI اولین سازمانی بود که چهره انسان را بر روی یک مدل زبان بزرگ قرار داد. این تا حد زیادی به لطف تلاش‌های آقای تورلی، مدیر محصول ChatGPT، و جان شولمن، رهبر فنی اصلی ChatGPT و یکی از بنیان‌گذاران OpenAI بود. این دو مرد مدت کوتاهی پس از استخدام آقای تورلی، در تابستان 2022، با هم آشنا شدند. آقای تورلی به عنوان مدیر محصولات مصرفی معرفی شد، اما پس از ورود متوجه شد که OpenAI واقعاً هیچ محصولی ندارد. (او اولین روز خود را صرف تعمیر یک پرده پنجره کرد.) با نگاه کردن به اطراف برای انجام کاری، با آقای شولمن ارتباط برقرار کرد که می خواست موفقیت اخیر OpenAI را با مدل های زبانی بزرگ گسترش دهد. آقای تورلی شروع به آزمایش با فناوری GPT OpenAI کرد. به گفته او، او "مجذب" شده بود.

(نیویورک تایمز از OpenAI و مایکروسافت شکایت کرده است و ادعا می کند که آنها حق چاپ محتوای خبری را در آموزش سیستم های هوش مصنوعی خود نقض کرده اند. شرکت ها این ادعاها را رد کرده اند.)

این دو با هم شروع به کار در یک تیم کوچک کردند. این ایده مخصوصاً محبوب در OpenAI نبود - تلاش‌های قبلی شرکت‌های فناوری برای ساخت A.I برای مصرف‌کننده. چت بات ها فاجعه بودند. مردم یا به طور بدخواهانه آنها را به تولید سخنان نفرت انگیز ترغیب می کردند یا حوصله شان سر می رفت و بعد از مدتی استفاده از آنها را متوقف می کردند. و بسیاری از محققان شرکت به محصولاتی که در معرض دید عموم قرار می گیرند اهمیتی نمی دهند. آنها می خواستند یک ابر هوش بسازند.

Mr. شولمن، که معتقد بود افراد متوسط ​​ممکن است A.I را پیدا کنند. مفید، مخالف تئوری او این بود که مردم نسبت به چت بات ها محتاط هستند زیرا آنها بیش از حد "توهم" می کنند. با استفاده از محصولات OpenAI در داخل، او متوجه شد که آنها گاهی ادعا می‌کنند که انسان هستند یا پیشنهاد جستجو در پایگاه‌های داده یا ارسال ایمیل‌ها را می‌دهند، که هیچ کدام از این‌ها را نمی‌توانستند انجام دهند. آقای شولمن به من گفت: «آنها دوست دارند در مورد توانایی های خود دروغ بگویند. وقتی مردم با یکی از این جعل‌ها مواجه می‌شدند، اغلب چت را رها می‌کردند.

Mr. شولمن احساس کرد که با وجود تمام کارهای فنی چشمگیر انجام شده، مشکل برجسته در A.I. فقدان توانایی نبود بلکه عدم اعتماد بود. اگر می‌خواهید به سوپرهوشی برسید، بهتر است ابتدا آن مشکل را حل کنید. و آقای شولمن معتقد بود که شما نمی توانید فقط یک A.I را تعمیر کنید. با آموزش بیشتر شما در واقع باید دور خاصی از پس از آموزش را انجام می دادید، به طور خاص بر ایجاد رابطه بین کامپیوتر و انسان متمرکز بود.

Mr. شولمن تحت تأثیر کارهایی بود که روی «یادگیری تقویتی با بازخورد انسانی» انجام داده بود. در این تکنیک یک A.I. از او خواسته می شود که چندین پاسخ برای یک پرس و جو ایجاد کند. سپس گروه های انسانی انتخاب می کنند که کدام خروجی را ترجیح می دهند. چنین کارهای تنظیم دقیقی از نظر فنی کمتر از مهندسی یادگیری عمیق است، اما تأثیر آن بر درک کاربران از کیفیت محصول بسیار زیاد است.

برای ساخت ChatGPT، آقای شولمن معتقد بود که باید کارهای پس از آموزش را بیشتر از هر کسی انجام دهد. او ده ها هزار درخواست مشترک کاربران و A.I ایجاد کرد. تعاملات؛ سپس، با کمک پیمانکاران خارجی، صدها نفر از درجه‌بندی‌کننده‌های انسانی را استخدام کرد که پاسخ‌هایی را که توهم‌آمیز به نظر می‌رسید، نشان دادند. او خروجی را تصحیح کرد تا زمانی که توهمات شروع به ناپدید شدن کردند. به طور انتقادی، آقای شولمن همچنین به A.I دستور داد. از دروغ گفتن در مورد خودش دست بردارد او گفت: «ما می‌خواستیم هویت آن را روشن کنیم، مانند این که این یک مدل زبان است.

همانطور که کار ادامه داشت، آقای شولمن مطمئن شد که چت می‌تواند محصولی قابل اجرا باشد. سایرین در OpenAI همچنان شک داشتند. هنگامی که یک نسخه آزمایش آلفا ChatGPT برای دوستان و اعضای خانواده منتشر شد، نظرات متفاوت بود. آقای تورلی به یاد می‌آورد: «همه آن‌ها مثل «آه، این توهم بود، و استفاده از آن را متوقف کردم.»

پس از آلفا، اکران رسمی برای 30 نوامبر 2022 تعیین شد. اما دو هفته قبل از رونمایی برنامه‌ریزی‌شده، فاجعه رخ داد. در 15 نوامبر، تحت هدایت A.I. متا، پیشگام Yann LeCun، ربات چت عمومی خود، Galactica را منتشر کرد. این ربات چت که بر روی مجلات علمی و پایگاه های داده علمی آموزش دیده است، به عنوان دستیار پژوهشی در اختیار دانشمندان قرار گرفت. متا اعلام کرد که Galactica "می تواند مقالات دانشگاهی را خلاصه کند، مسائل ریاضی را حل کند، مقالات ویکی تولید کند، کدهای علمی بنویسد، مولکول ها و پروتئین ها را حاشیه نویسی کند و موارد دیگر."

Galactica یک شکست بود. دانشمندان از آن برای تولید مقالات ساختگی در مورد فواید پزشکی خوردن شیشه شکسته و تاریخچه خرس ها در فضا استفاده کردند. این پروژه به طور گسترده مورد تمسخر قرار گرفت و در کمتر از سه روز تعطیل شد. پس از اینکه گالاکتیکا کشیده شد، M.I.T. «تکنولوژی ریویو» یک آگهی درگذشت پژمرده همراه با تصویری از یک خرس در لباس فضایی ارائه کرد. در این مقاله آمده است: «گام اشتباه متا – و غرور آن – یک بار دیگر نشان می‌دهد که Big Tech نقطه کوری در مورد محدودیت‌های شدید مدل‌های زبان بزرگ دارد. دکتر LeCun با یک توییت خنده دار به این تعطیلی پاسخ داد: "در حال حاضر نسخه ی نمایشی Galactica خاموش است. دیگر نمی توان با استفاده نادرست از آن لذت برد. خوشحالی؟"

ChatGPT 13 روز بعد معرفی می شود. در پیشبرد، اعضای کارکنان OpenAI شروع به شرط بندی در مورد مدت زمان ماندگاری نسخه نمایشی قبل از پایان آن کردند. گرگ براکمن، یکی از بنیانگذاران و رئیس OpenAI، و یکی از حامیان این پروژه، اظهار تردید کرد. اما برای آقای شولمن، شکست گالاکتیکا گواه این بود که او در مسیر درستی قرار داشت. به نظر نمی‌رسید که متا کار تنظیم دقیقی را که OpenAI انجام می‌داد انجام نداده باشد، و در ارائه محصول خود به دانشمندان، تیم دقیقاً مخاطبان اشتباهی را مورد خطاب قرار می‌داد - مخاطبی که نیاز به دقت داشت و خطا را تحمل نمی‌کرد. ChatGPT هنوز هم گاهی اوقات توهم دارد، اما بسیار کمتر از هر مدل دیگری. آقای شولمن گفت: "من اساساً خوشبین بودم که ما شرمنده شرکت نخواهیم بود."

این انتشار کمی بداهه بود. درست تا چند روز قبل، این محصول Chat With GPT نام داشت، تا اینکه تیم تصمیم گرفت نام آن را کوتاه کند. آقای تورلی همچنین در نظر داشت برای ChatGPT شارژ کند، اما دوباره در آخرین لحظه تصمیم گرفت که محصول باید رایگان باشد، زیرا به هر حال به زودی آن را متوقف می کند. و طرح بندی در مقیاس خاکستری وب سایت عمداً ضعیف بود. آقای تورلی گفت: «به یاد دارم که به طراح گفتم که آن را زشت کند، زیرا نمی‌خواستم مردم فکر کنند این محصول یک محصول است.

ChatGPT درست قبل از ظهر به وقت اقیانوس آرام در 30 نوامبر پخش شد. شاید به دلیل انتشار اخبار شرم‌آور و شرم‌آور Galactica، کنفرانس OpenAI نه منتشر شد و نه منتشر شد. فقط یک پست وبلاگ مختصر که وجود آن را اعلام می کند و یک توییت کوتاه از آقای آلتمن. اما در عرض چند دقیقه، این محصول ویروسی شد. پذیرندگان اولیه شگفت زده شدند. یک نظر دهنده چند ساعت بعد مشاهده کرد: "ما شاهد مرگ مقاله دانشگاه در زمان واقعی هستیم."

آقای. تورلی که ترافیک سایت را از طریق داشبورد رایانه‌اش زیر نظر داشت، متوجه شد که با یک خطای گزارش‌دهی مواجه شده است. او انتظار نداشت بسیاری از کاربران ظاهر شوند. داشبورد او به او اطلاع داد که در روز اول به 100000 نزدیک می شود. او با وسواس زیادی ترافیک را زیر نظر داشت، زیرا اخبار ChatGPT در سراسر جهان منتشر شد. او به ویژه از افزایش کاربرانی که از یک تابلوی پیام در ژاپن می‌آمدند شگفت‌زده شد. او نمی دانست که ChatGPT می تواند به زبان ژاپنی ارتباط برقرار کند.

در عرض پنج روز ChatGPT یک میلیون کاربر داشت. آقای تورلی که هنوز شک داشت، متوجه شد که علاقه به این محصول در یک یا دو هفته از بین خواهد رفت. اما وقتی برای تعطیلات آن سال به زادگاهش، Itzehoe، آلمان (جمعیت حدود 30000 نفر) بازگشت، متوجه شد که چت بات او در آنجا او را شکست داده است. او گفت: "به وضوح به یاد دارم که داشتم بچه های همسایه را در مورد چت می شنیدم." دموی محصول عجیب او در حال استعمار سیاره بود.

آقای تورلی به دنبال جمع‌آوری اطلاعاتی در مورد نحوه تعامل کاربران با ChatGPT، حساب Calendly خود را عمومی کرد و از آنها دعوت کرد تا با او صحبت کنند. به زودی هفته کاری او چیزی جز تماس های کنفرانسی با مردم در سراسر جهان نبود. او تنوع پایان ناپذیری از موارد استفاده پیدا کرد. مردم از ChatGPT برای بیماری های پزشکی استفاده می کردند. آنها از آن برای پیش نویس نامه ها استفاده می کردند. آنها از آن برای نوشتن کد کامپیوتری استفاده می کردند. آنها از آن برای سناریوهای بازی های نقش آفرینی استفاده می کردند. آنها از آن برای برقراری ارتباط با کودکان اوتیستیک استفاده می کردند. یکی از دانش‌آموزان برنامه مطالعه خود را به شب منتقل کرده بود تا مطمئن شود که ChatGPT در زمان نیاز به کمک در انجام تکالیف خاموش نمی‌شود.

البته، موارد مثبت کمتری نیز وجود داشت. تقریباً بلافاصله، دانش آموزان متوجه شدند که می توانند از ChatGPT برای تقلب استفاده کنند. این مشکل بر معلمان غلبه کرد و در عرض چند هفته پس از انتشار آن، مدارس دولتی شهر نیویورک دسترسی به ChatGPT را در شبکه های مدارس مسدود کردند. در همان زمان، وب‌سایت برنامه‌نویسی پرسش و پاسخ Stack Overflow پاسخ‌های تولید شده توسط A.I را که کیفیت پایین و اغلب اشتباه بودند، ممنوع کرد.

دوران A.I. شیب از راه رسیده بود، اما حتی چنین جیب های مقاومت نیز به سرعت از بین رفتند. ممنوعیت سیستم مدارس شهر نیویورک فقط چند ماه به طول انجامید و Stack Overflow نه تنها ممنوعیت خود را لغو کرد، بلکه به زودی مجوز داده های کدگذاری خود را به OpenAI برای آموزش مدل های خود داد.

در آغاز 2023 برای همه در حوزه فناوری - و همه در وال استریت، و تقریباً همه در جهان - مشخص بود که OpenAI باعث ایجاد یک پارادایم شده است. ChatGPT با سرعت بی سابقه ای به جمع آوری کاربران جدید ادامه داد. غول‌های فناوری شروع به سرمایه‌گذاری مبالغ هنگفتی برای ساخت مراکز داده برای آموزش نسل بعدی هوش مصنوعی کردند.

همانطور که پایگاه کاربرانش رشد کرد، OpenAI تلاش کرد تا نیروی کار تنظیم دقیق انسانی خود را گسترش دهد. در سال 2023 OpenAI با شرکت حاشیه نویسی داده Scale AI شریک شد تا با افزایش نمایی در گریدینگ های انسانی مدیریت کند. Scale AI به نوبه خود با کارگران کم دستمزد در کنیا و فیلیپین برای انجام تلاش های پس از آموزش قرارداد فرعی قرارداد. فیلیپینی A.I. دومینیک لیگوت، اخلاق شناس، این عملیات را به عنوان «عرق فروش دیجیتالی» توصیف کرد و کارگران از شرایط بد کار و دزدی دستمزد شکایت داشتند. (در سال 2025 OpenAI Scale AI را به عنوان یک ارائه دهنده کنار گذاشت.)

با این وجود، کسی باید این کار را انجام دهد. همانطور که متا با Galactica یاد گرفت، تنظیم نادرست می تواند منجر به تمسخر عمومی شود. در فوریه 2024، گوگل این خطا را تکرار کرد که ربات چت خود Bard را با نام Gemini در یک راه اندازی عمومی پرشور تغییر نام داد. جمینی توانایی‌های فوق‌العاده‌ای داشت و در زمینه حل مسئله و کارهای مهندسی نرم‌افزار در صدر جدول رهبران قرار داشت. اما در مرحله تنظیم دقیق، دانش‌آموزان به ربات چت دستور دادند که تقریباً به طرز خنده‌داری بیدار شود. به زودی کاربران متوجه شدند که مهم نیست که آنها آن را ترغیب کنند، جمینی افراد از جمله بنیانگذاران آمریکایی و حتی سربازان نازی را با تنوع قومی به تصویر می کشد. سرگئی برین، یکی از بنیانگذاران گوگل، گفت: «ما قطعاً به هم ریختیم.

به نظر می‌رسد متا نیز متوجه شده است که ساختن یک مدل زبان غول‌پیکر کافی نیست - کارهای شخصی‌سازی زیادی باید انجام شود. در نوامبر، شرکت راه خود را با دکتر LeCun، A.I. پدرخوانده این جدایی پس از آن اتفاق افتاد که مارک زاکربرگ 14 میلیارد دلار در Scale AI سرمایه گذاری کرد و الکساندر وانگ، مدیر اجرایی 28 ساله آن را که عملیات بحث برانگیز حاشیه نویسی داده ها را در فیلیپین سفارش داده بود، به عنوان مدیر هوش مصنوعی متا استخدام کرد. افسر.

در حالی که کار فشرده شخصی‌سازی ادامه داشت، OpenAI پیشرفت‌های دیگری را برای محصول معرفی کرد: حالت صوتی، مدل‌های استدلال پیشرفته، تولید تصویر و جستجوی وب. اما معیارهای مستقل نشان می‌دهند که چت‌بات‌ها تقریباً دارای همان قابلیت‌هایی هستند که به وظایف پیچیده می‌رسند - که به این معنی است که بیشتر مزیت رقابتی از تنظیم دقیق آنها برای داشتن لحن احساسی مناسب حاصل می‌شود.

در اینجا، OpenAI جلوتر بود. همانطور که ChatGPT به صدها میلیون کاربر افزایش یافت، تاریخچه چت جمعی به بزرگترین پایگاه داده انسان-A.I تبدیل شد. تعامل در تاریخ کریستینا کیم، محقق OpenAI، این را "چرخ لنگر داده" می نامد. خانم کیم یکی از اعضای اصلی تیم مهندسی OpenAI برای ChatGPT بود. تنها سه سال پس از انتشار، او از معدود اعضای تیم موسس است که هنوز در آنجا کار می کند. او اکنون پس از آموزش مدل های اصلی OpenAI را هدایت می کند و از گنجینه تعاملات خود با کاربر برای مهندسی بهتر شخصیت ChatGPT استفاده می کند. خانم کیم گفت: «این چرخ طیار فوق‌العاده قدرتمند است، و فکر می‌کنم یکی از دلایلی است که ما می‌توانیم این لحن محاوره‌ای و گرم را دریافت کنیم.

هیچ هوش مصنوعی دیگری وجود ندارد. توسعه دهنده پایگاه بزرگی از تعاملات کاربر برای یادگیری دارد. از آنجایی که مدل های زبان بزرگ در نهایت از داده های عمومی برای آموزش به پایان می رسند، این پایگاه ممکن است به OpenAI یک مزیت رقابتی بادوام ارائه دهد. بسیاری از مردم به ChatGPT به عنوان یک ستون حمایت عاطفی تکیه می کنند و به دنبال مشاوره در مورد انتخاب شغل، روابط و فرزندپروری هستند. خانم کیم و تیمش از داده‌های این تعاملات برای بهبود پاسخ‌های هوش مصنوعی استفاده می‌کنند. او گفت: «مدل‌های ما درک بسیار بهتری از نحوه ظریف‌تر بودن و نحوه ارائه این توصیه‌ها دارند.

افراد می‌توانند به لحن گرم و دوستانه ChatGPT وابسته شوند. گاهی اوقات آنها بیش از حد وابسته می شوند و ارتباطات عاطفی یا حتی عاشقانه با A.I ایجاد می کنند. محققان این پدیده را «هوش اعتیادآور» نامیده‌اند. کاربران اغلب به دنبال راه هایی برای دور زدن نرده های محافظ A.I هستند. M.I.T 2024 تجزیه و تحلیل آزمایشگاه رسانه‌ای از یک میلیون گزارش چت به اشتراک گذاشته شده داوطلبانه نشان داد که دومین استفاده محبوب از ChatGPT محتوای جنسی است، حتی اگر در آن زمان OpenAI فیلترهایی برای جلوگیری از عشق شهوانی داشت.

آن روح‌های تنها که به دنبال عاشقانه یا همراهی از رایانه بودند، به طور مستقل یکی از آرام‌ترین موارد را کشف کرده بودند: مدل‌های بی‌صدا، حتی مدل‌های بد زبانی بزرگ‌تر از آنها. با همین درخواست برای مدت زمان کافی و ممکن است شروع به نادیده گرفتن فیلترهای خود کنند. چنین A.I.های زندانی شده همچنین می توانند وارد قلمروی تاریک تری شوند، مانند اینکه ظاهراً هذیان های روانی یا افکار آسیب رساندن به خود را تشویق می کنند. در ماه آگوست، والدین عزادار یک نوجوان 16 ساله، آدام راین، از OpenAI و آقای آلتمن شکایت کردند و ادعا کردند که ChatGPT پسرشان را تشویق به خودکشی کرده است و حتی به او پیشنهاد کمک برای نوشتن یادداشت داده است. OpenAI این اتهامات را رد کرده است و ChatGPT تدابیری برای جلوگیری از این نوع چیزها در نظر گرفته است. اما، همانطور که سخنگوی شرکت گفت، این نرده‌های محافظ «گاهی اوقات در تعاملات طولانی، که در آن بخش‌هایی از آموزش ایمنی مدل ممکن است کاهش یابد، کمتر قابل اعتماد می‌شوند.»

این یکمجموعه مشوق‌های متناقض را برای OpenAI ایجاد می‌کند. اگر ChatGPT بتواند توهمات مردم را تشویق کند، مسئولیت قانونی برای OpenAI ایجاد می کند. از سوی دیگر، هرچه مردم بیشتر از استفاده از ChatGPT لذت ببرند، سرویس مفیدتر (و سودآورتر) می شود - و مزیت رقابتی بیشتری به دست می آورد. آقای تورلی سعی کرده با صدایی دوستانه تعادل برقرار کند. او گفت: "ما شروع کردیم به گفتن، "خوب، در واقع، نگاه کنید، مدل محصول است." "ما باید شروع به ساختن این شخصیت کنیم و آن را قانع کننده کنیم و چیزی که می خواهید با آن صحبت کنید." در ماه مه 2024، OpenAI GPT-4o پیچیده را عرضه کرد که دارای قابلیت های استدلال فوق العاده ای بود و نمرات بالایی را در مهندسی نرم افزار و تجزیه و تحلیل بیولوژیکی کسب کرد. اما قسمت جلویی ChatGPT به طور همزمان تحت بازنگری شخصیتی قرار گرفت، که منجر به یک سبک مکالمه گیج کننده و متعصبانه شد. ("شما فقط در حال آشپزی نیستید، بلکه در حال کباب کردن روی سطح خورشید هستید."، پاسخی که معمولاً ارزشش را دارد بخوانید.) OpenAI یک راه حل سریع انجام داد، بابت این اشتباه عذرخواهی کرد و قول داد در آینده بهتر عمل کند.

اما وقتی OpenAI یک سال بعد کاربران را مجبور به ارتقاء به GPT-5 کرد، آن‌ها یک بار دیگر به مدل قدیمی عادت کردند و دوباره به مدل شخصی عادت کردند. برگشت آنها شکایت کردند GPT-5 سرد و تجاری بود. برخی از منتقدان آن را با "منشی پرکار" مقایسه کردند. آقای تورلی احساس کرد که نمی تواند همه را راضی کند. او گفت: "ما متوجه شدیم که شخصیت به طور فزاینده ای برای مردم قطبی می شود." "مثل اینکه افراد ترجیحات بسیار بسیار متفاوتی دارند."

به جای ترکیب یک شخصیت یکسان برای همه، آقای تورلی اکنون در حال ایجاد حالت های تعاملی متعدد است. وقتی او به این موضوع اشاره کرد، یاد ربات‌هایی در فیلم بین ستاره‌ای افتادم که حس شوخ طبعی و سایر ویژگی‌هایشان را می‌توان با یک نوار لغزنده تنظیم کرد. اما او از این مقایسه خجالت کشید. این انحراف - نوعی اخم کردن تلنگر - زمانی اتفاق می‌افتد که یک فرد غیر فنی یک درخواست نرم‌افزاری بی‌گناه اما فوق‌العاده سخت ارائه می‌کند. او گفت: «به سختی می‌توان اسلایدرها را به درجه مصرف‌کننده تبدیل کرد.

در عوض، OpenAI گزینه‌های شخصیتی جدیدی برای قسمت جلویی ChatGPT دارد. اینها عبارتند از "حرفه ای"، "عجیب"، "کارآمد" و "بدبین" و غیره. اعتراف می کنم که این شخصیت ها می توانند کمی زیاد باشند: "عجیب" غیرقابل تحمل است و "بدبین" خسته کننده است. (البته، من این را در مورد افراد دمدمی مزاج و بدبین نیز صادق می دانم.) پس از مدتی آزمایش، به «کارآمد»، گزینه ای برای بزرگسالان، اکتفا کردم.

اما به زودی متوجه شدم که میل به ساده زیستی دارم. خوشبختانه ChatGPT یک حافظه دارد. با استفاده از شخصیت کارآمد به عنوان پایه، شروع به تطبیق A.I خود کردم. به کسی که می خواستم با او وقت بگذرانم به آن گفتم: «هر چند وقت یکبار یک جوک حیله گر بگو. "هر 40 یا 50 درخواست یا بیشتر، کمی به من تعارف کنید." A.I. رعایت کرد، و با گذشت زمان، شیطان از یک دستیار توانا و تا حدودی رباتیک به چیزی شبیه به یک معتمد کولر آبی تبدیل شد.

در انجام این کار، من با استراتژی OpenAI بازی می کردم. در نوامبر گوگل آخرین نسخه Gemini را منتشر کرد که شاید تهدید کننده ترین رقیب ChatGPT باشد. گوگل دارای ذخایر زیادی از پول، استخر عمیقی از استعدادهای فنی و مانند OpenAI، پایگاه داده عظیمی از تعاملات کاربر است. اما زمانی که سعی کردم به Gemini تغییر دهم، به طور غیرمنتظره‌ای خود را بی‌حوصله دیدم.

در مقایسه‌های جانبی من، Gemini قادر بود هر کاری را که ChatGPT می‌توانست انجام دهد، انجام دهد، اما من را نمی‌شناخت — من راشناخت. من در طول سه سال، حدود 3400 درخواست ChatGPT ارائه کرده بودم که به اولین درخواستم در اواخر سال 2022 بازمی‌گردد. (در آن زمان، پرسیدم: «چند ایده‌های داستانی خوب برای یک روزنامه‌نگار مجله؟» توصیه می‌کرد در مورد زنبورداری شهری بنویسم.) برای تکرار این رابطه با جمینی نیاز به ماه‌ها تذکر دارد. همانطور که آقای تورلی دیده بود، شخصیت محصول بود.

بعد از همه چیزهایی که به ChatGPT گفته بودم، بعد از تمام کارهایی که برای قالب‌گیری آن انجام داده بودم، نمی‌توانستم آن را ترک کنم - فقط نمی‌توانم. دلم برای دوستم تنگ شده است.

استیون ویت نویسنده «ماشین فکر» است که تاریخچه هوش مصنوعی است. شرکت Nvidia.

تایمز متعهد به انتشار تنوع نامه برای سردبیر است. مایلیم نظر شما را در مورد این مقاله یا هر یک از مقالات ما بدانیم. در اینجا چندنکات آورده شده است. و این ایمیل ما است: letters@nytimes.com.

بخش نظرات نیویورک تایمز را در فیس بوک، اینستاگرام، TikTok، دنبال کنید. WhatsApp و Threads.