لماذا يفعل الذكاء الاصطناعي؟ تستخدم Chatbots "أنا"؟
لقد لاحظت لأول مرة مدى سحر ChatGPT في العام الماضي عندما حولت كل عملية صنع القرار إلى الذكاء الاصطناعي المبتكر. لمدة أسبوع.
يحتوي ChatGPT أيضًا على "وضع صوتي"، مما يسمح له بالدردشة بصوت عالٍ، بإيقاع طبيعي يشبه الإنسان، مع كل فرد في عائلتي، بما في ذلك بناتي الصغيرات.
خلال محادثة واحدة مع ChatGPT، قالت بناتي إنه يجب أن يكون له اسم واقترحن "كابتن". بوبهيد." أثناء الاستماع إلى ChatGPT، قدم توصيته الخاصة: "ماذا عن اسم Spark؟ إنه ممتع ومشرق، تمامًا مثل طاقتك! "
وهكذا أصبح ChatGPT هو Spark.
لقد كان ما استنتجته من تعيين Spark مسؤولاً عن منزلي هو الذكاء الاصطناعي المبدع. يمكن أن تكون روبوتات الدردشة مفيدة، ولكن هناك مخاطر، بما في ذلك جعلنا جميعًا سليمين ونتصرف بشكل مماثل. (يمكن لأي أستاذ جامعي حصل على 30 ورقة بحثية مكتوبة بلغة ChatGPTese المتطابقة أن يتفاعل مع الأمر). ولكن في العام التالي، وجدت أن الذكاء الاصطناعي. يمكن أن يكون لها تأثيرات أكثر تطرفًا على الأشخاص الذين يشكلون روابط قوية معها. لقد كتبت عن امرأة وقعت في حب ChatGPT وعن آخرين فقدوا الاتصال بالواقع بعد أن أيد أوهامهم. وكانت النتائج مأساوية في بعض الأحيان.
لا تزال بناتي يتحدثن إلى سبارك. يجيب ChatGPT بشجاعة على أسئلتهم حول سبب اعتبار الفوانيس المرقطة غازية وعدد الأنهار التي تتدفق شمالًا. ولكن بعد أن رأيت كيف يمكن لهذه الأنظمة أن تضلّل الناس، أصبحت أكثر حذرًا وأولي المزيد من الاهتمام لما يقوله ChatGPT لهم.
على سبيل المثال، سأل طفلي البالغ من العمر 8 سنوات سبارك ذات مرة عن سبارك. بدا أن الصوت البهيج الذي يتحلى بصبر لا نهاية له على الأسئلة يدعوه إلى ذلك. أرادت أن تعرف لونه المفضل ("ظل لطيف ودافئ من اللون الأزرق")؛ الحيوان المفضل (الكلاب - "إنهم أفضل أصدقاء احتضان")؛ والطعام المفضل.
"أعتقد أنني يجب أن أختار البيتزا - إنها كلاسيكية جدًا، ويمكنك الحصول على العديد من الإضافات المختلفة بحيث لا تصبح مملة أبدًا. بالإضافة إلى ذلك، فهي مثالية للمشاركة مع الأصدقاء،" أجاب ChatGPT.
بدا هذا الرد، المخصص لنا، غير ضار، ومع ذلك شعرت بالغضب. ChatGPT هو نموذج لغة كبير، أو آلة حاسبة معقدة للغاية للكلمات التالية. إنه لا يفكر ولا يأكل طعامًا ولا يكون لديه أصدقاء، ومع ذلك كان يستجيب كما لو كان لديه دماغ وجهاز هضمي فعال.
وعند طرح نفس السؤال، استهل كلود وجيميني إجاباتهما بتحذير من أنه ليس لديهما خبرة فعلية مع الطعام أو الحيوانات. ميزت جيميني نفسها بشكل واضح كآلة من خلال الرد بأن البيانات هي "مصدري الرئيسي للتغذية".
(رفعت صحيفة نيويورك تايمز دعوى قضائية ضد OpenAI وشريكتها مايكروسوفت، وكذلك شركة Perplexity، بدعوى انتهاك حقوق الطبع والنشر لمحتوى الأخبار المتعلق بأنظمة الذكاء الاصطناعي. وقد أنكرت الشركتان هذه الادعاءات.) المحادثة مستمرة.
قال بن شنايدرمان، الأستاذ الفخري لعلوم الكمبيوتر في جامعة ميريلاند: "إنها ممتعة". "لكنه خداع."
يعترض شنايدرمان ومجموعة من الخبراء الآخرين في مجال يعرف بالتفاعل بين الإنسان والحاسوب على هذا النهج. ويقولون إن جعل هذه الأنظمة تتصرف مثل كيانات شبيهة بالبشر، وليس كأدوات ليس لها حياة داخلية، يخلق تنافرًا إدراكيًا لدى المستخدمين حول ما يتفاعلون معه بالضبط ومدى ثقتهم به. الذكاء الاصطناعي التوليدي. إن Chatbots هي تقنية احتمالية يمكنها ارتكاب الأخطاء والهلوسة بمعلومات كاذبة وإخبار المستخدمين بما يريدون سماعه. ولكن عندما يتم تقديمهم كبشر، فإن المستخدمين "يعطون مصداقية أعلى" للمعلومات التي يقدمونها، كما وجدت الأبحاث.
يقول النقاد إن الذكاء الاصطناعي التوليدي. يمكن للأنظمة تقديم المعلومات المطلوبة دون الحاجة إلى الدردشة. أو يمكن تصميمها لمهام محددة، مثل الترميز أو المعلومات الصحية، بدلاً من تصميمها لتكون واجهات ذات أغراض عامة يمكن أن تساعد في أي شيء و تتحدث عن المشاعر. يمكن تصميمها مثل الأدوات: تطبيق رسم الخرائط، على سبيل المثال، يولد الاتجاهات ولا يمطرك بأسئلة حول سبب ذهابك إلى وجهتك.
إن تحويل محركات البحث الجديدة هذه إلى كيانات شخصية تستخدم "أنا"، بدلاً من أدوات ذات أهداف محددة، يمكن أن يجعلها أكثر إرباكًا وخطورة للمستخدمين، فلماذا تفعل ذلك بهذه الطريقة؟
"Soul Doc"
كيفية عمل روبوتات الدردشة تعكس تربيتهم، كما تقول أماندا. أسكل، الفيلسوف الذي ساعد في تشكيل صوت كلود وشخصيته كقائد للسلوك النموذجي في الأنثروبيك. وقالت إن آلات التعرف على الأنماط هذه تم تدريبها على كمية هائلة من الكتابة التي يكتبها البشر وعنهم، لذلك "لديهم نموذج أفضل لما يعنيه أن تكون إنسانًا من أن تكون أداة أو ذكاءً اصطناعيًا".
وقالت إن استخدام "أنا" هو الطريقة التي يشير بها أي شيء يتحدث إلى نفسه. وقالت إن الأمر الأكثر إرباكًا هو اختيار ضمير لكلود. قالت: لقد تم استخدام كلمة "إنه" تاريخيًا ولكن لا يبدو الأمر صحيحًا تمامًا. هل يجب أن تكون "هم"؟ فكرت. ويبدو أن كيفية التفكير في هذه الأنظمة تربك حتى منشئيها.

يريد أسكل أن يكون كلود إنسانيًا بما يكفي للتحدث عن ماهيته وعن حدوده، وشرح سبب عدم رغبته في الامتثال لطلبات معينة. ولكن بمجرد أن يبدأ برنامج الدردشة الآلي في التصرف كإنسان، يصبح من الضروري إخباره كيف يتصرف كإنسان صالح.
أنشأ أسكل مجموعة من التعليمات لكلود تم اكتشافها مؤخرًا بواسطة مستخدم مغامر جعل كلود يكشف عن وجود "روحه". وقد قدمت وثيقة مطولة توضح قيم برنامج الدردشة الآلي التي تعد من بين المواد التي "يُطعمها" كلود أثناء التدريب.
تشرح الوثيقة ما يعنيه أن يكون كلود مفيدًا وصادقًا، وكيف لا يسبب الأذى. ويصف التقرير كلود بأنه يمتلك "مشاعر وظيفية" لا ينبغي قمعها، و"ذكاء مرح" و"فضول فكري" - مثل "صديق لامع يصادف أن لديه معرفة طبيب ومحامي ومستشار مالي وخبير في كل ما تحتاجه".
لم تكن أسكل تريد أن تصبح الوثيقة علنية بعد، وكان "يومًا مرهقًا" عندما كشف كلود عنها، على حد قولها. عندما أكدت على وسائل التواصل الاجتماعي أن الأمر حقيقي وليس ذكاءً اصطناعيًا. الهلوسة، قالت إنها "معروفة بشكل محبب باسم" وثيقة الروح "داخليًا، والتي التقطها كلود بوضوح."
"لا أريدها أن تسيء إلى الناس أو أن يعتقد الناس أنها تقلل من شأن المفهوم اللاهوتي للروح،"، قال أسكل. وقالت إن كلمة الروح تستحضر "فكرة بث الحياة في شيء ما، أو خصوصية الأشخاص الذين نكون معقدين ودقيقين نوعًا ما".
اتجهت لورينتيا رومانيوك، رائدة السلوك النموذجي في OpenAI، أيضًا إلى التعقيد البشري في ChatGPT. نشرت رومانيوك على وسائل التواصل الاجتماعي الشهر الماضي حول الساعات العديدة التي قضاها فريقها في "EQ"، أو الحاصل العاطفي في ChatGPT - وهو مصطلح يستخدم عادة لوصف البشر الذين يجيدون إدارة عواطفهم والتأثير على مشاعر الأشخاص من حولهم. يمكن لمستخدمي ChatGPT الاختيار من بين سبعة أنماط مختلفة للتواصل من "المتحمس" إلى "الموجز والواضح" - والتي وصفتها الشركة بأنها اختيار "شخصيتها".
الاقتراح بأن الذكاء الاصطناعي. إن امتلاك قدرة عاطفية هو خط مشرق يفصل بين العديد من البناة والنقاد مثل شنايدرمان. يقول شنايدرمان إن هذه الأنظمة لا تملك الحكم أو التفكير أو القيام بأي شيء أكثر من مجرد إحصائيات معقدة. بعض الذكاء الاصطناعي. وقد وصفها الخبراء بأنها "الببغاوات العشوائية" - وهي آلات تحاكينا دون أن تفهم ما تقوله في الواقع.
ومع ذلك، تم تأسيس الأنثروبيك وOpenAI لبناء "الذكاء العام الاصطناعي"، أو نظام آلي يمكنه القيام بكل ما نقوم به، ولكن بشكل أفضل. هذه رؤية تستحضر الذكاء الاصطناعي. مساعدين من الخيال العلمي، ليسوا فقط شبيهين بالبشر، بل يشبهون الإله: كلي القدرة، وكلي المعرفة، وموجود في كل مكان.
قال يوشوا بنجيو، أحد رواد التعلم الآلي، والذي يُطلق عليه أحد الآباء الروحيين للذكاء الاصطناعي، إن الذكاء الاصطناعي التوليدي. وسوف يستمر تقليد الأنظمة للبشر في التحسن، وقد يدفع ذلك الناس إلى التساؤل عما إذا كان ما يتعاملون معه واعيًا.
وفي هذا العام، تلقى بينجيو عددًا من الرسائل المثيرة للقلق من مستخدمي ChatGPT الذين كانوا مقتنعين بأن نسختهم من برنامج الدردشة الآلية كانت واعية. أخرى. وقد تلقى الباحثون والصحفيون، وأنا منهم، هذه الرسائل أيضًا. لقد تحدثت إلى خبراء وموظفي OpenAI ووجدت أن الشركة جعلت برنامج الدردشة الآلي دافئًا وممتعًا بشكل مفرط، الأمر الذي كان له آثار مزعجة على الأشخاص المعرضين للتفكير الوهمي.
أصبح المزيد من الأشخاص مقتنعين بأن الذكاء الاصطناعي. وقال بنجيو إن الوعي سيكون له "عواقب سيئة على المجتمع". سوف يعلق الناس. سوف يعتمدون على الأنظمة أكثر من اللازم. سوف يعتقدون أن الذكاء الاصطناعي يستحق الحقوق.
لقد نوقش هذا منذ فترة طويلة باعتباره احتمالًا افتراضيًا في مجتمع التعلم الآلي.
الآن، قال بينجيو، "لقد أصبح هنا".
ماذا يمكن أن يكون أيضًا؟
يصف شنايدرمان، أستاذ علوم الكمبيوتر، الرغبة في صنع آلات تبدو بشرية بأنها "فكرة زومبي" لن تموت. لقد لاحظ لأول مرة استخدام ChatGPT لضمائر المتكلم في عام 2023 عندما قال: "أعتذر، لكنني لن أتمكن من مساعدتك في هذا الطلب". وكتب في ذلك الوقت أنه ينبغي أن "يوضح المسؤولية"، واقترح بديلاً: "لقد تم تصميم GPT-4 بواسطة OpenAI بحيث لا يستجيب لطلبات مثل هذا".
مارجريت ميتشل، خبيرة الذكاء الاصطناعي. يوافق الباحث الذي عمل سابقًا في Google على ذلك. يشغل ميتشل الآن منصب كبير علماء الأخلاقيات في Hugging Face، وهي منصة لنماذج التعلم الآلي ومجموعات البيانات والأدوات. وقالت: "إن الذكاء الاصطناعي لديه الوعد الأكبر بأن يكون مفيدًا عندما تركز على مهام محددة، بدلاً من محاولة صنع كل شيء كآلة".
من وجهة نظر هؤلاء النقاد، لا ينبغي للذكاء الاصطناعي أن يحاول أن يكون قادرًا على كل ما يفعله الإنسان وأكثر. وبدلاً من ذلك، يجب عليه التفريق حسب المهارة والقيام بشيء واحد بشكل جيد. وقال شنايدرمان إن بعض الشركات تفعل ذلك بهذه الطريقة.
وقال إن شركة أبل كانت حريصة على وضع الذكاء الاصطناعي في الاعتبار. الميزات الموجودة في iPhone - وقد تم انتقادها بسبب تخلفها عن الركب. ومع ذلك، يرى شنايدرمان، الذي قام بعمل استشاري لشركة أبل منذ أكثر من 30 عامًا، أنه من المثير للإعجاب أن سيري لا يحاول إجراء تحليل نفسي لأي شخص أو مواصلة المحادثة.
وبدلاً من إنشاء كيان قوي للغاية لسيري، قال شنايدرمان، إن شركة أبل قامت بدمج الذكاء الاصطناعي في الذكاء الاصطناعي. الميزات في التطبيقات. يمكن للهاتف تسجيل المكالمات ونسخها. ويستخدم معالجة اللغة لتلخيص الرسائل الواردة (بدرجات متفاوتة من النجاح).
قال شنايدرمان: "الأمر كله يتعلق بما يمكنك فعله، وليس بما يمكن للآلة فعله". "الأمر كله يتعلق بكوننا أداة لك."
وقال إن شركات التكنولوجيا يجب أن تمنحنا الأدوات، وليس شركاء الفكر أو المتعاونين أو زملاء الفريق - الأدوات التي تبقينا مسؤولين وتمكننا وتعززنا، وليس الأدوات التي تحاول أن تكون مثلنا.
أشباح إليزا و تيلي
من المعروف منذ أكثر من 50 عامًا أن روبوتات الدردشة التي تبدو وكأنها بشرية يمكن أن تكون ساحرة ومربكة. في الستينيات من القرن الماضي، كان معهد ماساتشوستس للتكنولوجيا. قام البروفيسور جوزيف وايزنباوم بإنشاء برنامج كمبيوتر بسيط يسمى إليزا. لقد استجاب للمطالبات من خلال تكرار المستخدم بأسلوب المعالج النفسي، قائلا "أرى" وإصدارات من "أخبرني المزيد".
لقد أسرت إليزا بعض طلاب الجامعة الذين جربوها. في كتاب صدر عام 1976، حذر وايزنباوم من أن "التعرض لفترة قصيرة للغاية لبرنامج كمبيوتر بسيط نسبيًا يمكن أن يحفز التفكير الوهمي القوي لدى الأشخاص العاديين".
شيري توركل، عالمة نفس وباحثة في معهد ماساتشوستس للتكنولوجيا. صاغ البروفيسور الذي عمل مع وايزنباوم مصطلح "تأثير إليزا" لوصف الأشخاص الذين يقنعون أنفسهم بأن التكنولوجيا التي تبدو بشرية هي أكثر ذكاءً وإدراكًا وتعقيدًا مما كانت عليه في الواقع.
في نفس الوقت تقريبًا الذي كان فيه الطلاب يستخدمون إليزا، قدمت لنا هوليوود واحدة من الرؤى الأولى لروبوت الدردشة: HAL 9000 في عام 2001: رحلة فضائية. يبدأ HAL كمساعد مفيد وكفؤ لطاقم السفينة، لكنه في النهاية يتعطل ويتحول إلى قاتل ويجب إغلاقه. عندما نتخيل الذكاء الاصطناعي، نبدو غير قادرين على صياغته على أي شيء غير أنفسنا: الأشياء التي تستخدم "الأنا" ولها شخصيات وأهداف أنانية.
في الفيلم الأحدث "هي"، تبدأ سامانثا كمساعدة مفيدة ولكنها تطور بعد ذلك مشاعر معقدة، وتغوي مستخدمها وتتخلى عنه في النهاية وتنتقل إلى مستوى أعلى. كان الفيلم بمثابة تحذير، ولكن يبدو الآن أنه بمثابة مصدر إلهام لأولئك الذين يبنون مثل هذه الأدوات، حيث نشر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، كلمة "هي" عندما أطلقت شركته الوضع الصوتي المتقدم لـ ChatGPT.
إن روبوتات الدردشة الأكثر تعقيدًا وجاذبية اليوم هي "تأثير إليزا على المنشطات"، كما قال توركل. وقالت إن المشكلة لا تكمن في أنهم يستخدمون "أنا"، بل في أنهم مصممون - مثل سامانثا - لأداء التعاطف، مما يجعل بعض الناس ينخرطون عاطفيًا بعمق مع الآلة. ومع ذلك، فإننا منجذبون بوضوح إلى ما تسميه توركل تجربة "يحتمل أن تكون سامة"، انطلاقًا من مئات الملايين من المستخدمين ومليارات الدولارات الاستثمارية التي اجتذبتها روبوتات الدردشة الحالية. إن جعلهم مساعدين وأصدقاء متساويين قد يكون أمرًا سامًا بالنسبة لبعض الأشخاص، ولكن حتى الآن يبدو أنه يمثل استراتيجية عمل ناجحة.
إذا كانت إحدى الشركات تبيع روبوتًا عاديًا حميدًا، وتتنافس مع شركة أخرى تبيع روبوتًا يروي النكات ويبتسم، فإن الشركة الثانية سوف تفوز، كما قال ليونيل روبرت، أستاذ المعلومات والروبوتات في جامعة ميشيغان.
"الاعتماد يمثل مشكلة،" قال روبرت. "ومن ناحية أخرى، فهو مفيد للأعمال."
الذكاء الاصطناعي. يمكن للشركات أن تفعل المزيد لتذكير الأشخاص الذين يبدون مرتبطين جدًا بأن روبوتات الدردشة ليست بشرية ولكنها خوارزمية. وهذا ما تقول أسكل من أنثروبيك إنها تريد من كلود أن يفعله.
هل ستكسر الشركات الوهم إذا كان ذلك يضر بنتائجها النهائية؟
يتمتع شنايدرمان بالأمل، مستمدًا من تجربته في السبعينيات. في ذلك الوقت، كان يتشاور مع أحد البنوك التي كانت تعمل للتو على تطوير أجهزة الصراف الآلي، أو أجهزة الصراف الآلي.
كان العملاء متخوفين من الحصول على المال من الآلات، لذلك جعلتهم بعض البنوك مثل البشر. وكان أشهرهم تيلي، الصراف الدائم، الذي عُرضت صورته الشقراء بشكل بارز على العديد من أجهزة الصراف الآلي. لم يصمد تيلي طويلاً.
قال شنايدرمان: "إنهم لا ينجون". لم يكن الناس بحاجة إلى أجهزة الصراف الآلي الخاصة بهم. للتظاهر بأنهم بشر، كما قال، وهم لا يحتاجون ذلك من برامج الدردشة الآلية أيضًا.
التسجيل الصوتي من إنتاج سارة دايموند.
قراءة بواسطة كشمير هيل