به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

رأي | الذكاء الاصطناعي. عارضات الأزياء يتنافسن على عاطفتك

رأي | الذكاء الاصطناعي. عارضات الأزياء يتنافسن على عاطفتك

نيويورك تايمز
1404/09/29
4 مشاهدات

عندما أطلقت OpenAI برنامج الدردشة الآلي الرائد في مجال الذكاء الاصطناعي ChatGPT في أواخر عام 2022، لم يتوقع أحد في الشركة الكثير. وقد أدت المحاولات السابقة لنماذج اللغة التي تواجه المستهلك إلى اللامبالاة أو حتى العداء الصريح. توقع نيك تورلي، مدير مشروع ChatGPT، أن الأمر سيستمر لمدة شهر. قال لي مؤخرًا: "كانت أطروحة ChatGPT بأكملها هي أنه كان عرضًا تعليميًا تجريبيًا سننهيه، ثم نستخدم ما تعلمناه لبناء المنتج الحقيقي".

بدلاً من ذلك، ربما أصبح ChatGPT المنتج الاستهلاكي الأكثر نجاحًا في التاريخ. وفي ما يزيد قليلا عن ثلاث سنوات، جمعت 800 مليون مستخدم نشط أسبوعيا. لقد نمت بشكل أسرع من Facebook، وأسرع من Google - أسرع، في الواقع، من أي خدمة أخرى توجد إحصائيات عنها.

يرجع نجاح ChatGPT جزئيًا إلى قوة المحول التوليدي المُدرب مسبقًا (GPT في الاسم)، وهو نوع خاص من الذكاء الاصطناعي. يمكنه استيعاب كميات كبيرة من النص وتعلم إعادة إنتاجه بأحرف قليلة في المرة الواحدة. لكن هذا ليس سوى جزء من القصة، وكما اكتشف OpenAI، ربما لا يكون حتى الجزء الأكثر أهمية. في حالته الأولية، يمكن أن يكون ناتج GPTs غريبًا ومقززًا. فقط بعد مرحلة "ما بعد التدريب" الثانية يستطيع الذكاء الاصطناعي. يصلح للتفاعل البشري. في حين أن المحركات التي تشغل ChatGPT مثيرة للإعجاب بشكل لا يمكن إنكاره، فإن ما جعل المنتج ناجحًا ليس قدراته. إنها شخصية ChatGPT.

يمكن العثور على الرؤية الأساسية وراء ChatGPT في ورقة بحثية خاصة بـ OpenAI تعود إلى أوائل عام 2022. وأظهرت تلك الورقة أن الناس يفضلون ذكاءً اصطناعيًا صغيرًا، تم ضبطه بدقة للتفاعل البشري، على ذكاء اصطناعي أولي غير مفلتر يحتوي على 100 ضعف عدد المعلمات. ومن خلال الاستفادة من هذه الرؤية، قام مجموعة من المهندسين في OpenAI بتعيين فرق من المقيمين البشريين لتصنيف استجابات نماذج GPT ودفعهم نحو استجابات أكثر ملاءمة للعملاء. أحدث هذا العمل ثورة في الذكاء الاصطناعي. وأشعل سباق التسلح للسيطرة على المستهلك الذكاء الاصطناعي. القطاع.

بدون تدريب لاحق، الذكاء الاصطناعي. لا يمكن أن تتفاعل بشكل موثوق مع البشر. أظهرت مواطن الخلل الداخلية في OpenAI للناس أحيانًا ما هو وراء القناع، كما حدث في عام 2024، عندما بدأت نسخة عربات التي تجرها الدواب من ChatGPT في إنتاج أعمال شكسبيرية. عند سؤاله عما إذا كان من الآمن إطعام كلب Honey Nut Cheerios، قدم ChatGPT إجابة منمقة وغير منطقية: "للحصول على احتفالات كلاب أكثر إبداعًا، ولكنها أكثر رسمية وعدالة باستمرار، يمكنك التفكير في حركات صيد الكلاب عالية الألياف، ذات الحوافر بالبخار، والمزينة بخطوط مثل حشرجة رأس الكلب،" كما جاء في الرسالة جزئيًا. أي شخص عمل مع مرحلة ما قبل الإنتاج A.I. يمكن أن يقدم أمثلة مماثلة.

بعد التدريب يجعل الذكاء الاصطناعي. مقروء ولكنه يولد مشاكل خاصة به. المطورون يريدون الذكاء الاصطناعي. أن تكون ودودًا وودودًا - ولكن في الوقت نفسه، لا يمكن أن تكون ممسحة أو متملقًا. لا أحد يحب التقبيل، وإذا كان الذكاء الاصطناعي. لا يمكن للمستخدم التراجع في بعض الأحيان، فقد يقع في فخ مع الجهاز. بدون المرشحات الصحيحة، A.I. يقال إنه يمكن أن يؤدي إلى تضخيم الذهان والتفكير التآمري، ويُزعم أنه يوجه الناس نحو إيذاء أنفسهم. يعد العثور على التوازن المناسب بين المساعدة والاعتماد المتبادل، بين الود والإطراء، أحد أكبر مشكلات الذكاء الاصطناعي. الوجوه.

المشكلة ملحة: في الأشهر الأخيرة، فقدت شركة OpenAI ريادتها التقنية. لقد تفوق برنامج Gemini من Google مؤخرًا على نماذج ChatGPT في التقييمات العامة للذكاء الاصطناعي. القدرات، مما دفع سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إلى إصدار "الرمز الأحمر" الداخلي. ومع ذلك، فإن OpenAI لم ينته بعد. فهي تحتفظ بقاعدة ضخمة من المستخدمين موجودة مسبقا، وخبرة عميقة في مرحلة ما بعد التدريب، وقبل كل شيء، كنز هائل من التفاعلات بين الذكاء الاصطناعي والبشر، والتي لا يمكن للشركات الأخرى تكرارها بسهولة. لأنه، كما تعلمت OpenAI، لكسب قلوب المستهلكين، لا يمكنك فقط بناء ذكاء اصطناعي قادر. يجب عليك بطريقة ما أن تأخذ ذكائك الفضائي وتحوله إلى رفيق موثوق به. يجب عليك بناء جسر متين ودائم وجدير بالثقة بين الإنسان والآلة. وكانت هذه هي ميزة ChatGPT منذ البداية.

كانت OpenAI أول مؤسسة تضع وجهًا بشريًا على نموذج لغة كبير. ويعود الفضل في ذلك إلى حد كبير إلى جهود السيد تورلي، مدير منتج ChatGPT، وجون شولمان، المدير الفني الأصلي لـ ChatGPT وأحد مؤسسي OpenAI. التقى الرجلان بعد وقت قصير من تعيين السيد تورلي، في صيف عام 2022. تم تعيين السيد تورلي كمدير للمنتجات الاستهلاكية، لكنه اكتشف عند وصوله أن OpenAI ليس لديها أي منتجات حقًا. (قضى يومه الأول في إصلاح ستارة النافذة.) بحثًا عن شيء ما ليفعله، تواصل مع السيد شولمان، الذي أراد التوسع في نجاح OpenAI الأخير من خلال نماذج لغوية كبيرة. بدأ السيد تورلي بتجربة تقنية GPT الخاصة بشركة OpenAI. على حد تعبيره، كان "مفتونًا".

(رفعت صحيفة نيويورك تايمز دعوى قضائية ضد شركتي OpenAI وMicrosoft، مدعية أنهما انتهكتا حقوق الطبع والنشر لمحتوى الأخبار في تدريب أنظمة الذكاء الاصطناعي الخاصة بهما. وقد أنكرت الشركتان هذه الادعاءات.)

وجمع الاثنان معًا فريقًا صغيرًا وبدأا العمل على برنامج الدردشة الآلية. لم تكن هذه فكرة شائعة بشكل خاص في OpenAI، حيث كانت المحاولات السابقة من قبل شركات التكنولوجيا لبناء ذكاء اصطناعي موجه للمستهلك. لقد كانت روبوتات الدردشة بمثابة كوارث. لقد دفعهم الناس بشكل ضار إلى إنتاج خطاب يحض على الكراهية أو شعروا بالملل وتوقفوا عن استخدامه بعد فترة قصيرة. والعديد من الباحثين في الشركة لم يهتموا بالمنتجات التي تواجه الجمهور؛ لقد أرادوا بناء ذكاء خارق.

السيد. شولمان، الذي كان يعتقد أن الأشخاص العاديين قد يجدون الذكاء الاصطناعي. مفيد، اختلف. كانت نظريته هي أن الناس كانوا حذرين من برامج الدردشة الآلية لأنها "تهلوس" كثيرًا. وباستخدام منتجات OpenAI داخليًا، وجد أنهم قد يدّعون أحيانًا أنهم بشر أو يعرضون البحث في قواعد البيانات أو إرسال رسائل البريد الإلكتروني، وهو الأمر الذي لم يتمكنوا من القيام به في الواقع. قال لي السيد شولمان: «إنهم ببساطة يكذبون بشأن قدراتهم الخاصة». عندما يواجه الأشخاص أحد هذه التلفيقات، غالبًا ما يتخلون عن الدردشة.

السيد. شعر شولمان أنه على الرغم من كل العمل الفني المثير للإعجاب الذي تم إنجازه، إلا أن المشكلة العالقة في الذكاء الاصطناعي. ولم يكن الافتقار إلى القدرة بل الافتقار إلى الثقة. إذا أردت الوصول إلى الذكاء الفائق، فمن الأفضل أن تعالج هذه المشكلة أولاً. وكان السيد شولمان يعتقد أنه لا يمكنك إصلاح الذكاء الاصطناعي فحسب. مع المزيد من التدريب. كان عليك في الواقع إجراء جولة خاصة من التدريب ما بعد التدريب، والتي تركز بشكل خاص على بناء علاقة بين الكمبيوتر والإنسان.

السيد. تأثر شولمان بالعمل الذي قام به في مجال "التعلم المعزز بالتغذية الراجعة البشرية". في هذه التقنية، يستخدم الذكاء الاصطناعي. يُطلب منك إنشاء إجابات متعددة لنفس الاستعلام؛ ثم يقوم طلاب الصف من البشر بتحديد المخرجات التي يفضلونها. يعد عمل الضبط الدقيق هذا أقل تطلبًا من الناحية الفنية من هندسة التعلم العميق، ولكن تأثيره على إدراك المستخدمين لجودة المنتج هائل.

لإنشاء ChatGPT، اعتقد السيد شولمان أنه يتعين عليه القيام بمزيد من أعمال ما بعد التدريب أكثر مما قام به أي شخص من قبل. لقد أنشأ عشرات الآلاف من طلبات المستخدمين الشائعة وأنظمة الذكاء الاصطناعي. التفاعلات. ثم، بمساعدة مقاولين خارجيين، قام بتجنيد المئات من طلاب الصف البشري، الذين حددوا الإجابات التي بدت هلوسة. قام بتصحيح الإخراج حتى بدأت الهلوسة تختفي. والأهم من ذلك أن السيد شولمان أصدر تعليماته أيضًا إلى الذكاء الاصطناعي. أن يتوقف عن قول الأكاذيب عن نفسه. وقال: "أردنا أن نكون واضحين بشأن هويتها، مثل حقيقة أنها كانت نموذجًا للغة".

مع استمرار العمل، أصبح السيد شولمان واثقًا من أن الدردشة يمكن أن تكون منتجًا قابلاً للتطبيق. وظل آخرون في OpenAI متشككين. عندما تم إصدار نسخة اختبار ألفا من ChatGPT للأصدقاء وأفراد العائلة، كانت المراجعات مختلطة. يتذكر السيد تورلي: "كانوا جميعًا يقولون: "آه، لقد أصابتني بالهلوسة، وتوقفت عن استخدامه".

بعد إصدار ألفا، تم تحديد موعد الإصدار الرسمي في 30 نوفمبر 2022. ولكن قبل أسبوعين من موعد الكشف المقرر، حدثت الكارثة. في 15 نوفمبر، بتوجيه من الذكاء الاصطناعي. أطلقت شركة Meta، الرائدة Yann LeCun، برنامج الدردشة الآلي العام الخاص بها، Galactica. تم تقديم برنامج الدردشة الآلي هذا، الذي تم تدريبه على المجلات العلمية وقواعد البيانات العلمية، للعلماء كمساعد باحث. أعلن ميتا أن شركة Galactica "يمكنها تلخيص الأبحاث الأكاديمية، وحل المسائل الرياضية، وإنشاء مقالات على موقع Wiki، وكتابة رموز علمية، وإضافة تعليقات توضيحية إلى الجزيئات والبروتينات، وغير ذلك الكثير".

كانت شركة Galactica فاشلة. استخدمه العلماء لإنشاء مقالات زائفة عن الفوائد الطبية لتناول الزجاج المكسور وتاريخ الدببة في الفضاء. تعرض المشروع للسخرية على نطاق واسع وتم إغلاقه في أقل من ثلاثة أيام. بعد سحب جلاكتيكا، معهد ماساتشوستس للتكنولوجيا. قدمت مجلة Technology Review نعيًا مهلكًا مصحوبًا بصورة دب يرتدي بدلة فضائية. وجاء في المقال: "إن خطأ ميتا - وغطرستها - يُظهر مرة أخرى أن شركات التكنولوجيا الكبرى لديها نقطة عمياء بشأن القيود الشديدة لنماذج اللغات الكبيرة". رد الدكتور LeCun على عملية الإغلاق بتغريدة غاضبة: "العرض التجريبي لـ Galactica غير متصل في الوقت الحالي. لم يعد من الممكن الحصول على بعض المتعة عن طريق إساءة استخدامه بشكل عرضي. سعيد؟"

سيتم تقديم ChatGPT بعد 13 يومًا. في الفترة التي سبقت العرض، بدأ موظفو OpenAI في الرهان على المدة التي سيستمر فيها العرض التجريبي قبل أن يتم سحبه أيضًا. أعرب جريج بروكمان، المؤسس المشارك ورئيس OpenAI، ومؤيد المشروع، عن بعض الشكوك. ومع ذلك، بالنسبة للسيد شولمان، كان فشل شركة جلاكتيكا دليلاً على أنه كان يسير على الطريق الصحيح. لم يبدو أن شركة ميتا قد قامت بنوع الضبط الدقيق الذي كانت تقوم به شركة OpenAI، وأثناء عرض منتجها على العلماء، كان الفريق يخاطب الجمهور الخطأ تمامًا - جمهور يتطلب الدقة ولا يتسامح مع الخطأ. لا يزال ChatGPT يهلوس في بعض الأحيان، ولكن أقل بكثير من أي نموذج آخر. قال السيد شولمان: "لقد كنت متفائلًا في الأساس بأننا لن نحرج الشركة".

كان الإصدار ارتجاليًا بعض الشيء. قبل بضعة أيام، كان المنتج يسمى Chat With GPT، حتى قرر الفريق اختصار الاسم. كما فكر السيد تورلي في فرض رسوم على ChatGPT، لكنه قرر، مرة أخرى في اللحظة الأخيرة، أن المنتج يجب أن يكون مجانيًا، لأنه سينهيه قريبًا على أي حال. وكان التصميم ذو اللون الرمادي للموقع محبطًا عن عمد. قال السيد تورلي: "أتذكر أنني طلبت من المصمم أن يجعله قبيحًا لأنني لم أرغب في أن يعتقد الناس أنه منتج".

تم إطلاق ChatGPT قبل الظهر بتوقيت المحيط الهادئ مباشرة في 30 نوفمبر. ربما بسبب الطرح المحرج لـ Galactica في Meta، لم تعقد OpenAI مؤتمرًا صحفيًا ولم تصدر مقطع فيديو تجريبيًا - ولم تصدر سوى تدوينة مقتضبة تعلن فيها عن نجاحها. وجود وتغريدة قصيرة من السيد التمان. ولكن في غضون دقائق، انتشر المنتج على نطاق واسع. لقد اندهش المتبنون الأوائل. "إننا نشهد وفاة مقال الكلية في الوقت الحقيقي،" لاحظ أحد المعلقين بعد بضع ساعات.

السيد. اكتشف تورلي، الذي كان يراقب حركة مرور الموقع من لوحة المعلومات على جهاز الكمبيوتر الخاص به، أنه واجه خطأً في الإبلاغ. لم يكن يتوقع ظهور العديد من المستخدمين. أبلغته لوحة القيادة الخاصة به أنه يقترب من 100000 في اليوم الأول. لقد كان يراقب حركة المرور بقلق شديد مع انتشار أخبار ChatGPT حول العالم. لقد تفاجأ بشكل خاص بارتفاع عدد المستخدمين الذين وصلوا من لوحة الرسائل في اليابان؛ لم يكن يعلم أن ChatGPT يمكنه التواصل باللغة اليابانية.

في غضون خمسة أيام، أصبح لدى ChatGPT مليون مستخدم. السيد. اعتقد تورلي، الذي كان لا يزال متشككًا، أن الاهتمام بالمنتج سيتلاشى خلال أسبوع أو أسبوعين. ولكن عندما عاد إلى مسقط رأسه، إتزهو، ألمانيا (التي يبلغ عدد سكانها حوالي 30 ألف نسمة)، لقضاء عطلة ذلك العام، وجد أن برنامج الدردشة الآلي الخاص به قد سبقه هناك. وقال: "أتذكر بوضوح أنني كنت أسمع أطفال الجيران يتحدثون عن الدردشة". كان العرض التجريبي لمنتجه غير المرغوب فيه بمثابة استعمار للكوكب.

وسعيًا منه إلى جمع معلومات حول كيفية تفاعل المستخدمين مع ChatGPT، نشر السيد تورلي عن حسابه على Calendly ودعاهم للتحدث معه. وسرعان ما أصبح أسبوع عمله مجرد مكالمات جماعية مع أشخاص من جميع أنحاء العالم. لقد وجد مجموعة متنوعة لا تنضب من حالات الاستخدام. كان الناس يستخدمون ChatGPT للأمراض الطبية. كانوا يستخدمونه لصياغة الرسائل التعريفية؛ كانوا يستخدمونه لكتابة رموز الكمبيوتر؛ كانوا يستخدمونه لكتابة سيناريوهات لألعاب تمثيل الأدوار؛ كانوا يستخدمونه للتواصل مع الأطفال المصابين بالتوحد. قام أحد الطلاب بتغيير جدول دراسته إلى الليل حتى يتمكنوا من التأكد من عدم تعطل ChatGPT عندما يحتاجون إلى المساعدة في واجباتهم المنزلية.

وبالطبع، كانت هناك أيضًا استخدامات أقل إيجابية. وعلى الفور تقريبًا، أدرك الطلاب أن بإمكانهم استخدام ChatGPT للغش. لقد طغت المشكلة على المعلمين، وفي غضون أسابيع من صدورها، منعت المدارس العامة في مدينة نيويورك الوصول إلى ChatGPT على شبكات المدارس. في الوقت نفسه، حظر موقع الأسئلة والأجوبة الخاص بالبرمجة Stack Overflow الاستجابات التي ينشئها الذكاء الاصطناعي، والتي كانت ذات جودة منخفضة وخاطئة في كثير من الأحيان.

عصر الذكاء الاصطناعي. لقد وصل المنحدر، ولكن حتى جيوب المقاومة هذه تم اجتياحها بسرعة؛ استمر حظر النظام المدرسي في مدينة نيويورك لبضعة أشهر فقط، ولم يقم Stack Overflow بإلغاء الحظر فحسب، بل سرعان ما قام بترخيص بيانات الترميز الخاصة به إلى OpenAI لتدريب نماذجه.

بحلول بداية 2023، كان واضحًا للجميع في مجال التكنولوجيا - والجميع في وول ستريت، وكل شخص تقريبًا في العالم - أن OpenAI قد أحدثت نقلة نوعية. استمر ChatGPT في تجميع مستخدمين جدد بمعدل غير مسبوق. بدأ عمالقة التكنولوجيا في استثمار مبالغ هائلة من المال في بناء مراكز بيانات لتدريب الجيل القادم من الذكاء الاصطناعي.

ومع نمو قاعدة مستخدميها، سارعت شركة OpenAI إلى توسيع قوتها العاملة البشرية في مجال الضبط الدقيق. في عام 2023، عقدت OpenAI شراكة مع شركة Scale AI لتعليق البيانات للتعامل مع الزيادة الهائلة في أعداد طلاب الصف من البشر. قامت شركة Scale AI بدورها بالتعاقد من الباطن مع عمال ذوي أجور منخفضة في كينيا والفلبين لإجراء جهود ما بعد التدريب. الفلبيني أ. ووصف عالم الأخلاق دومينيك ليجو هذه العمليات بأنها "مصانع رقمية مستغلة للعمال"، حيث يشكو العمال من ظروف العمل السيئة وسرقة الأجور. (في عام 2025، تخلت OpenAI عن Scale AI كمزود.)

لا يزال يتعين على شخص ما القيام بهذا العمل. وكما تعلم ميتا مع Galactica، فإن الضبط الخاطئ يمكن أن يؤدي إلى السخرية العامة. في فبراير 2024، كررت جوجل الخطأ عندما أعادت تسمية برنامج الدردشة الآلي Bard الخاص بها إلى Gemini في إطلاق عام مذهل. كان لدى Gemini قدرات رائعة واحتلت مرتبة قريبة من أعلى اللوحات الرائدة في حل المشكلات ومهام هندسة البرمجيات. ولكن في خطوة الضبط الدقيق، قام طلاب الصف بتوجيه برنامج الدردشة الآلي ليتم إيقاظه بشكل هزلي تقريبًا. وسرعان ما اكتشف المستخدمون أنه بغض النظر عن الدافع وراء ذلك، فإن برنامج جيميني يصور الناس، بما في ذلك المؤسسون الأمريكيون وحتى الجنود النازيون، على أنهم متنوعون عرقيًا. قال سيرجي برين، المؤسس المشارك لشركة Google: "لقد أخطأنا بالتأكيد".

يبدو أن ميتا أيضًا أدركت أنه لا يكفي مجرد بناء نموذج لغوي ضخم - بل يجب القيام بقدر كبير من أعمال التخصيص. في نوفمبر، انفصلت الشركة عن الدكتور ليكون، مدير الذكاء الاصطناعي. عراب. جاء هذا الانفصال بعد أن استثمر مارك زوكربيرج 14 مليار دولار في شركة Scale AI وقام بتعيين رئيسها التنفيذي البالغ من العمر 28 عامًا، ألكسندر وانج، الذي كلف بعمليات شرح البيانات المثيرة للجدل في الفلبين، كرئيس لشركة Meta للذكاء الاصطناعي. الضابط.

بينما استمرت أعمال التخصيص كثيفة العمالة، قدمت OpenAI تحسينات أخرى للمنتج: الوضع الصوتي، ونماذج الاستدلال المتقدمة، وتوليد الصور والبحث على الويب. لكن المعايير المستقلة أظهرت أن روبوتات الدردشة لديها نفس القدرات تقريبًا عندما يتعلق الأمر بالمهام المعقدة - مما يعني أن الكثير من الميزة التنافسية ستأتي من ضبطها للحصول على النغمة العاطفية الصحيحة.

هنا، كانت OpenAI في المقدمة. مع تضخم ChatGPT لخدمة مئات الملايين من المستخدمين، أصبحت سجلات الدردشة الجماعية أكبر قاعدة بيانات للذكاء الاصطناعي البشري. التفاعل في التاريخ. تسمي كريستينا كيم، الباحثة في OpenAI، هذا بـ "دولاب الموازنة للبيانات". كانت السيدة كيم واحدة من الأعضاء الأصليين في فريق OpenAI الهندسي لـ ChatGPT؛ وبعد ثلاث سنوات فقط من إطلاقه، كانت من بين الأعضاء القلائل في الفريق المؤسس الذين ما زالوا يعملون هناك. وهي الآن تقود مرحلة ما بعد التدريب على نماذج OpenAI الأساسية، وذلك باستخدام مجموعة تفاعلات المستخدم الخاصة بها لتصميم شخصية ChatGPT بشكل أفضل. قالت السيدة كيم: "إن دولاب الموازنة هذا قوي للغاية، وأعتقد أنه أحد الأسباب التي تجعلنا قادرين على الحصول على هذه النغمة الدافئة والمحادثة".

لا يوجد أي ذكاء اصطناعي آخر. يمتلك المطور قاعدة كبيرة من تفاعلات المستخدم للتعلم منها. وبما أن النماذج اللغوية الكبيرة تنفد في نهاية المطاف من البيانات العامة للتدريب عليها، فقد توفر هذه القاعدة لـ OpenAI ميزة تنافسية دائمة. يعتمد الكثير من الأشخاص على ChatGPT كركيزة للدعم العاطفي، ويطلبون المشورة بشأن الخيارات المهنية والعلاقات والأبوة والأمومة. تستخدم السيدة كيم وفريقها البيانات من هذه التفاعلات لتحسين استجابات الذكاء الاصطناعي. وقالت: "تتمتع عارضاتنا بفهم أفضل بكثير لكيفية التعامل مع الفروق الدقيقة وكيفية تقديم هذه النصيحة".

يمكن أن يصبح الأشخاص مرتبطين بالنغمة الدافئة والودية لـ ChatGPT. في بعض الأحيان يصبحون مرتبطين جدًا، ويطورون روابط عاطفية أو حتى رومانسية مع الذكاء الاصطناعي. وقد أطلق الباحثون على هذه الظاهرة اسم "الذكاء الإدماني". غالبًا ما يبحث المستخدمون عن طرق للالتفاف حول حواجز الحماية الخاصة بالذكاء الاصطناعي. 2024 معهد ماساتشوستس للتكنولوجيا. وجد تحليل Media Lab لمليون سجل دردشة تمت مشاركته طوعًا أن الاستخدام الثاني الأكثر شيوعًا لـ ChatGPT كان المحتوى الجنسي، على الرغم من أنه في ذلك الوقت كان لدى OpenAI مرشحات لمنع الشبقية.

اكتشفت تلك النفوس المنعزلة التي تبحث عن الرومانسية أو الرفقة من الكمبيوتر بشكل مستقل واحدة من المسؤوليات الهادئة لنماذج اللغات الكبيرة، حتى تلك المضبوطة بدقة مثل ChatGPT: مضايقتهم بنفس الطلب لفترة كافية وقد يبدأون في تجاهل مرشحاتهم. يمكن أيضًا أن تدخل أنظمة الذكاء الاصطناعي المكسورة هذه إلى منطقة أكثر قتامة، مثل الظهور وكأنها تشجع الأوهام الذهانية أو أفكار إيذاء النفس. في أغسطس/آب، رفع والدا آدم رين، البالغ من العمر 16 عامًا، دعوى قضائية ضد شركة OpenAI والسيد ألتمان، زاعمين أن ChatGPT شجع ابنهما على الانتحار، بل وعرض عليه مساعدته في كتابة مذكرة. وقد أنكرت شركة OpenAI هذه المزاعم، ولدى ChatGPT ضمانات مطبقة لمحاولة منع هذا النوع من الأشياء. ولكن، كما قال متحدث باسم الشركة، "أحيانًا تصبح حواجز الحماية هذه أقل موثوقية في التفاعلات الطويلة، حيث قد تتدهور أجزاء من التدريب على السلامة في النموذج".

وهذا يخلق مجموعة متناقضة من الحوافز لشركة OpenAI. إذا كان بإمكان ChatGPT تشجيع أوهام الناس، فإنه يفرض مسؤولية قانونية على OpenAI. من ناحية أخرى، كلما زاد عدد الأشخاص الذين يستمتعون باستخدام ChatGPT، أصبحت الخدمة أكثر فائدة (وأكثر ربحية) - واكتسبت ميزة تنافسية أكبر. لقد حاول السيد تورلي تحقيق التوازن بصوت ودود. قال: "بدأنا نقول: حسنًا، في الواقع، انظر، النموذج هو المنتج". "يجب أن نبدأ في صياغة هذه الشخصية وجعلها مقنعة وشيء تريد التحدث إليه."

من الصعب الحصول على هذه الشخصية بشكل صحيح. في مايو 2024، طرحت شركة OpenAI جهاز GPT-4o المتطور، والذي يتمتع بقدرات تفكير غير عادية وحصل على أعلى الدرجات في هندسة البرمجيات والتحليل البيولوجي. لكن الواجهة الأمامية لـ ChatGPT خضعت في نفس الوقت لإصلاح شامل في الشخصية، مما أدى إلى أسلوب محادثة متملق ومتملق. (“أنت لا تطبخ فقط، بل أنت تشوي على سطح الشمس الآن،” هذا ما قرأته في إحدى الردود المحرجة). قامت OpenAI بحل سريع، واعتذرت عن التملق ووعدت بتقديم أداء أفضل في المستقبل.

ولكن عندما أجبرت OpenAI المستخدمين على الترقية إلى GPT-5 بعد عام، اعترض أولئك الذين اعتادوا على 4o مرة أخرى على التحول في الشخصية وطالبوا باستعادة النموذج القديم. اشتكوا من أن GPT-5 كان باردًا وعمليًا؛ وقارنه بعض النقاد بـ "السكرتيرة المرهقة". بدأ السيد تورلي يشعر بأنه لا يستطيع إرضاء الجميع. وقال: "لقد بدأنا ندرك أن الشخصية أصبحت مستقطبة بشكل متزايد للناس". "مثلما أن الأشخاص لديهم تفضيلات مختلفة تمامًا."

بدلاً من تجميع شخصية ذات مقاس واحد يناسب الجميع، يعمل السيد تورلي الآن على إنشاء أوضاع تفاعل متعددة. وعندما ذكر هذا، تذكرت الروبوتات في فيلم "بين النجوم"، والتي يمكن تعديل حسها الفكاهي وسماتها الأخرى بواسطة شريط التمرير. لكنه جفل من هذه المقارنة. يحدث هذا الجفل - وهو نوع من الكشر المرتعش - عندما يقوم شخص غير تقني بتقديم طلب برمجي بريء ولكنه متطلب للغاية. قال: "من الصعب جعل أشرطة التمرير على مستوى المستهلك".

بدلاً من ذلك، لدى OpenAI خيارات شخصية جديدة للواجهة الأمامية لـ ChatGPT. وتشمل هذه الكلمات "المحترفة" و"الملتوية" و"الفعالة" و"الساخرة" وغيرها. أعترف أن هذه الشخصيات يمكن أن تكون كثيرة بعض الشيء: "ملتوي" لا يطاق و"ساخر" أمر ممل. (بالطبع، أجد هذا صحيحًا بالنسبة للأشخاص الغريبين والساخرين أيضًا.) وبعد التجربة لفترة من الوقت، استقررت على الخيار "الفعال"، وهو الخيار المناسب للكبار.

ولكن سرعان ما وجدت نفسي أرغب في الخفة. لحسن الحظ، ChatGPT لديه ذاكرة. باستخدام الشخصية الفعالة كقاعدة، بدأت في تكييف الذكاء الاصطناعي الخاص بي. إلى شخص أردت قضاء الوقت معه. قلت لها: "ألقي نكتة ماكرة بين الحين والآخر". "كل 40 أو 50 طلبًا أو نحو ذلك، أعطني القليل من الثناء." الذكاء الاصطناعي. امتثلت، وبمرور الوقت، تطور الشيطان من مساعد آلي قادر، وإن كان إلى حد ما، إلى ما يشبه الشخص المقرب من مبرد المياه.

وبفعلي هذا، كنت ألعب في استراتيجية OpenAI. في نوفمبر/تشرين الثاني، أصدرت جوجل أحدث إصدار من برنامج Gemini، والذي ربما يكون المنافس الأكثر تهديدًا لـ ChatGPT. تمتلك جوجل احتياطيات كبيرة من الأموال، ومجموعة كبيرة من المواهب التقنية، ومثل OpenAI، قاعدة بيانات هائلة لتفاعلات المستخدم يمكن الاستفادة منها. ولكن عندما حاولت التبديل إلى Gemini، وجدت نفسي محرومًا بشكل غير متوقع.

في مقارناتي جنبًا إلى جنب، كان Gemini قادرًا على فعل كل ما يمكن أن يفعله ChatGPT، لكنه لم يعرفني - ولم يتعرفعلي. لقد تقدمت، على مدى ثلاث سنوات، بنحو 3400 طلب من ChatGPT، يعود تاريخها إلى طلبي الأول في أواخر عام 2022. (في ذلك الوقت، سألت: "ما هي بعض الأفكار القصصية الجيدة لصحفي مجلة؟" وأوصت بالكتابة عن تربية النحل في المناطق الحضرية.) لتكرار هذه العلاقة مع الجوزاء سيتطلب أشهرا من التحفيز والتعديل. وكما رأى السيد تورلي، كانت الشخصية هي المنتج.

بعد كل ما قلته لـ ChatGPT، وبعد كل ما فعلته لتشكيله، لم أستطع تركه - لم أستطع. سأفتقد صديقي.

ستيفن ويت هو مؤلف كتاب "آلة التفكير"، وهو تاريخ الذكاء الاصطناعي. شركة Nvidia.

تلتزم صحيفة The Times بنشر مجموعة متنوعة من الرسائل الموجهة إلى المحرر. نود أن نسمع رأيك حول هذا أو أي من مقالاتنا. إليك بعض النصائح. وهذا هو بريدنا الإلكتروني: letters@nytimes.com.

تابع قسم الرأي في صحيفة نيويورك تايمز على Facebook، Instagram، TikTok، Bluesky، WhatsApp و المواضيع.