يكافح المنظمون لمواكبة المشهد السريع والمعقد لتطبيقات علاج الذكاء الاصطناعي
في حالة عدم وجود تنظيم فدرالي أقوى ، بدأت بعض الولايات في تنظيم التطبيقات التي تقدم "علاج" الذكاء الاصطناعى حيث يلجأ المزيد من الناس إلى الذكاء الاصطناعي للحصول على مشورة الصحة العقلية.
لكن القوانين ، التي تم إقرارها هذا العام ، لا تعالج بشكل كامل المشهد السريع لتطوير برامج الذكاء الاصطناعي. ويقول مطورو التطبيقات وصانعي السياسات ودعاة الصحة العقلية إن الإرقاء الناتج عن قوانين الدولة لا يكفي لحماية المستخدمين أو محاسبة المبدعين للتكنولوجيا الضارة. قال كارين أندريا ستيفان ، الرئيس التنفيذي والمؤسس المشارك لتطبيق earkick للصحة العقلية ، "الواقع هو أن الملايين من الناس يستخدمون هذه الأدوات ولا يعودون".
ملاحظة المحرر - تتضمن هذه القصة مناقشة الانتحار. إذا كنت أنت أو أي شخص تعرفه بحاجة إلى مساعدة ، فإن شريان الحياة الوطني للانتحار والأزمات في الولايات المتحدة متاح عن طريق الاتصال أو الرسائل النصية 988. هناك أيضًا دردشة عبر الإنترنت في 988Lifeline.org.
تتخذ قوانين الولاية طرقًا مختلفة. حظرت إلينوي ونيفادا استخدام منظمة العفو الدولية لعلاج الصحة العقلية. وضعت ولاية يوتا قيودًا معينة على دردشة الدردشة العلاجية ، بما في ذلك مطالبةهم بحماية المعلومات الصحية للمستخدمين والكشف بوضوح عن أن chatbot ليس بشريًا. تدرس ولاية بنسلفانيا ونيو جيرسي وكاليفورنيا أيضًا طرقًا لتنظيم علاج الذكاء الاصطناعي.
يختلف التأثير على المستخدمين. وقد منعت بعض التطبيقات الوصول في الحالات مع الحظر. يقول آخرون إنهم لا يقومون بأي تغييرات لأنهم ينتظرون المزيد من الوضوح القانوني.
والعديد من القوانين لا تغطي chatbots العامة مثل ChatGpt ، والتي لا يتم تسويقها بشكل صريح للعلاج ولكن يتم استخدامها من قبل عدد لا يحصى من الناس لذلك. اجتذبت تلك الروبوتات الدعاوى القضائية في حالات مروعة حيث فقد المستخدمون قبضتهم على الواقع أو أخذوا حياتهم الخاصة بعد التفاعل معهم. اتفق
Vaile Wright ، الذي يشرف على ابتكار الرعاية الصحية في الجمعية النفسية الأمريكية ، على أن التطبيقات قد تملأ الحاجة ، مع الإشارة إلى نقص في جميع أنحاء مقدمي خدمات الصحة العقلية ، وارتفاع تكاليف الرعاية والوصول غير المتكافئ للمرضى المؤمن عليهم. وقال رايت إن
chatbots الصحة العقلية المتجذرة في العلوم ، التي تم إنشاؤها مع مدخلات الخبراء ومراقبتها من قبل البشر يمكن أن تغير المشهد.
"قد يكون هذا شيئًا يساعد الناس قبل أن يصلوا إلى الأزمة". "هذا ليس ما هو موجود في السوق التجارية حاليًا." وقالت إن
لهذا السبب هناك حاجة إلى التنظيم الفيدرالي والإشراف.
في وقت سابق من هذا الشهر ، أعلنت لجنة التجارة الفيدرالية أنها فتحت الاستفسارات في سبع شركات chatbot من الذكاء الاصطناعي - بما في ذلك الشركات الأم في Instagram و Facebook و Google و Chatgpt و Grok (The Chatbot on X) و Diseor.ai و Snapchat - حول كيفية "قياس ومراقبة الآثار السلبية المحتملة لهذه التقنية على الأطفال والمشاهدين." وتعقد إدارة الغذاء والدواء لجنة استشارية في 6 نوفمبر لمراجعة أجهزة الصحة العقلية التي تدعم الذكاء الاصطناعي.
يمكن للوكالات الفيدرالية النظر في القيود المفروضة على كيفية تسويق الدردشة ، والحد من الممارسات الإدمانية ، وتتطلب إفصاحات للمستخدمين بأنهم ليسوا مقدميًا طبيين ، ويتطلبون من الشركات تتبع الأفكار الانتحارية والإبلاغ عنها ، وتقديم الحماية القانونية للأشخاص الذين يبلغون عن الممارسات السيئة من قبل الشركات.
لم تمنع جميع التطبيقات الوصول
من "التطبيقات المصاحبة" إلى "المعالجين الذاتي" إلى تطبيقات "العافية العقلية" ، فإن استخدام الذكاء الاصطناعي في الرعاية الصحية العقلية متنوع ويصعب تحديده ، ناهيك عن كتابة القوانين حولها.
الذي أدى إلى طرق تنظيمية مختلفة. بعض الدول ، على سبيل المثال ، تهدف إلى تطبيقات مصممة مصممة فقط للصداقة ، ولكن لا تتجول في الرعاية الصحية العقلية. حظر القوانين في إلينوي ونيفادا المنتجات التي تدعي أنها توفر علاجًا للصحة العقلية بشكل مباشر ، مما يهدد غرامات تصل إلى 10،000 دولار في إلينوي و 15000 دولار في نيفادا.
ولكن حتى تطبيق واحد يمكن أن يكون من الصعب تصنيفه. قال
earkick من Stephan إنه لا يزال هناك الكثير "موحل للغاية" بشأن قانون إلينوي ، على سبيل المثال ، ولم تقصر الشركة الوصول إلى هناك.
توقف ستيفان وفريقها في البداية من الاتصال بـ chatbot ، والذي يشبه الباندا الكرتونية ، وهو معالج. ولكن عندما بدأ المستخدمون في استخدام الكلمة في المراجعات ، تبنوا المصطلحات حتى يظهر التطبيق في عمليات البحث.
الأسبوع الماضي ، تراجعوا باستخدام العلاج والمصطلحات الطبية مرة أخرى. وصف موقع Earkick موقع chatbot بأنه "مستشار الذكاء الاصطناعى المتعاطفين الخاص بك ، مجهز لدعم رحلة الصحة العقلية" ، لكنه الآن "chatbot للرعاية الذاتية".
لا يزال ، "نحن لا نشخص" ، حافظ ستيفان. يمكن للمستخدمين إعداد "زر الذعر" للاتصال بأحد أفراد أسرته الموثوق به إذا كانوا في أزمة وسيقوم chatbot "بمستخدمي" المستخدمين للبحث عن معالج إذا سوء صحتهم العقلية. وقال ستيفان إنه لم يتم تصميمه أبدًا ليكون تطبيقًا للوقاية من الانتحار ، ولن يتم استدعاء الشرطة إذا أخبر شخص ما الروبوت عن أفكار إيذاء الذات. قالت
ستيفان إنها سعيدة لأن الناس ينظرون إلى منظمة العفو الدولية بعين حرجة ، لكنهم قلقون بشأن قدرة الدول على مواكبة الابتكار.
"السرعة التي يتطور بها كل شيء هائل" ، قالت.
تمنع التطبيقات الأخرى الوصول على الفور. عندما يقوم مستخدمو إلينوي بتنزيل تطبيق AD Ash AI AI ، تحثهم رسالة على البريد الإلكتروني للمشرعين ، بحجة أن "التشريعات المضللة" قد حظر تطبيقات مثل Ash "مع ترك chatbots غير المنظمة ، فإنها تهدف إلى تنظيم حرية التسبب في الضرر".
لم يستجب متحدث باسم Ash لطلبات متعددة لإجراء مقابلة. قال
ماريو تريتو جونيور ، سكرتير وزارة الإدارة المالية والمهنية في إلينوي ، إن الهدف كان في النهاية التأكد من أن المعالجين المرخصين هم الوحيدون الذين يقومون بالعلاج.
"العلاج هو أكثر من مجرد تبادل الكلمات" ، قال تريتو. "إنه يتطلب التعاطف ، ويتطلب حكمًا سريريًا ، ويتطلب مسؤولية أخلاقية ، لا يمكن لأي منها أن يتكرر منظمة العفو الدولية في الوقت الحالي."
تحاول شركة chatbot واحدة تكرار العلاج بالكامل
في مارس ، نشر فريق مقره جامعة دارتموث أول تجربة سريرية عشوائية معروفة لعلاج chatbot من الذكاء الاصطناعي لعلاج الصحة العقلية.
كان الهدف هو وجود chatbot ، يسمى Therabot ، معالجة الأشخاص المصابين بالقلق أو الاكتئاب أو اضطرابات الأكل. تم تدريبه على المقالات القصيرة والنصوص التي كتبها الفريق لتوضيح استجابة قائمة على الأدلة.
وجدت الدراسة أن المستخدمين قاموا بتصنيف Therabot على غرار المعالج وكان لديهم أعراض أقل بشكل مفيد بعد ثمانية أسابيع مقارنة بالأشخاص الذين لم يستخدموها. تمت مراقبة كل تفاعل من قبل الإنسان الذي تدخل إذا كان استجابة chatbot ضارة أو غير قائمة على الأدلة. قال
نيكولاس جاكوبسون ، عالم نفسي سريري يقود مختبره البحث ، إن النتائج أظهرت وعدًا مبكرًا ، لكن هناك حاجة إلى دراسات أكبر لإثبات ما إذا كان Therabot يعمل مع أعداد كبيرة من الناس.
"المساحة جديدة للغاية لدرجة أنني أعتقد أن الحقل يحتاج إلى المضي قدمًا بحذر أكبر بكثير يحدث الآن".
يتم تحسين العديد من تطبيقات الذكاء الاصطناعي للمشاركة وتم تصميمها لدعم كل ما يقوله المستخدمون ، بدلاً من تحدي أفكار الشعوب بالطريقة التي يفعلها المعالجون. يسير الكثيرون على خط الرفقة والعلاج ، وينفخ حدود العلاقة الحميمة المعالجين أخلاقيا. سعى فريق Therabot إلى تجنب هذه القضايا.
لا يزال التطبيق في الاختبار وليس متاحًا على نطاق واسع. لكن جاكوبسون يقلق بشأن معنى الحظر الصارم للمطورين الذين اتبعوا مقاربة دقيقة. وأشار إلى أن إلينوي ليس لديها طريق واضح لتقديم دليل على أن التطبيق آمن وفعال.
"إنهم يريدون حماية الناس ، لكن النظام التقليدي في الوقت الحالي هو الفشل حقًا". "لذا ، فإن محاولة الالتزام بالوضع الراهن ليست في الحقيقة هي الشيء الذي يجب القيام به." يقول
المنظمين ودعاة القوانين إنهم منفتحون على التغييرات. وقال كايل هيلمان ، الذي ضغط على الفواتير في إلينوي ونيفادا من خلال انتمائه مع الرابطة الوطنية للعاملين الوطنيين للأخصائيين ، قال كايل هيلمان ، الذي ضغط من أجل الفواتير في إلينوي ونيفادا من خلال انتماء فوزه في إلينوي ونيفادا ، لكن لا تشكل حلا لانقص مقدمي الصحة العقلية اليوم حلاً لنقص مقدمي الصحة العقلية.
"ليس كل من يشعر بالحزن يحتاج إلى معالج". لكن بالنسبة للأشخاص الذين يعانون من مشاكل في الصحة العقلية الحقيقية أو الأفكار الانتحارية ، "أخبرهم ،" أعلم أن هناك نقصًا في القوى العاملة ولكن إليك روبوت " - هذا موقف متميز".
تتلقى وزارة الصحة والعلوم في وكالة أسوشيتيد برس الدعم من قسم تعليم العلوم في معهد هوارد هيوز الطبي ومؤسسة روبرت وود جونسون. AP هي المسؤولة الوحيدة عن جميع المحتوى.