تنظیم کننده ها تلاش می کنند تا از منظره سریع و پیچیده برنامه های درمانی AI استفاده کنند
در صورت عدم وجود مقررات قوی تر فدرال ، برخی از ایالت ها تنظیم برنامه هایی را آغاز کرده اند که AI "درمانی" را ارائه می دهند ، زیرا تعداد بیشتری از افراد برای مشاوره در زمینه سلامت روان به سمت هوش مصنوعی روی می آورند.
اما قوانین ، همه امسال تصویب شده اند ، به طور کامل به چشم انداز سریع در حال توسعه نرم افزار AI پرداخته نمی شوند. و توسعه دهندگان برنامه ، سیاست گذاران و طرفداران سلامت روان می گویند که وصله ای از قوانین ایالتی برای محافظت از کاربران یا نگه داشتن سازندگان فناوری مضر کافی نیست.
"واقعیت این است که میلیون ها نفر از این ابزارها استفاده می کنند و برنمی گردند." یادداشت ویرایشگر
- این داستان شامل بحث در مورد خودکشی است. اگر شما یا شخصی که می شناسید به کمک نیاز دارید ، زندگی ملی خودکشی و بحران در ایالات متحده با تماس یا پیام کوتاه 988 در دسترس است. همچنین یک گپ آنلاین در 988lifeline.org وجود دارد.
قوانین ایالتی رویکردهای مختلفی را اتخاذ می کنند. ایلینویز و نوادا استفاده از هوش مصنوعی را برای درمان سلامت روان ممنوع اعلام کرده اند. یوتا محدودیت های خاصی را در چت های درمانی درمانی قرار داد ، از جمله اینکه آنها را برای محافظت از اطلاعات بهداشتی کاربران و به وضوح فاش می کنند که چت بابات انسانی نیست. پنسیلوانیا ، نیوجرسی و کالیفرنیا نیز در حال بررسی راه هایی برای تنظیم درمان هوش مصنوعی هستند.
تأثیر بر کاربران متفاوت است. برخی از برنامه ها دسترسی به ایالت ها را با ممنوعیت مسدود کرده اند. برخی دیگر می گویند که منتظر وضوح قانونی بیشتری هستند.
و بسیاری از قوانین چت های عمومی مانند ChatGPT را پوشش نمی دهند ، که به صراحت برای درمان به بازار عرضه نمی شوند بلکه توسط تعداد ناگفته ای از افراد برای آن استفاده می شوند. این رباتها در موارد وحشتناک دعاوی را به خود جلب کرده اند که کاربران پس از تعامل با آنها ، زندگی خود را از دست داده اند یا زندگی خود را گرفته اند.
ویل رایت ، که نظارت بر نوآوری مراقبت های بهداشتی در انجمن روانشناسی آمریکا را دارد ، موافقت کرد که برنامه ها می توانند یک نیاز را پر کنند ، با توجه به کمبود سراسر کشور ارائه دهندگان سلامت روان ، هزینه های بالای مراقبت و دسترسی ناهموار برای بیماران بیمه شده. رایت گفت:
چت های سلامت روان که ریشه در علم دارند ، با ورودی متخصص ایجاد شده و توسط انسان تحت نظارت قرار می گیرند ، می توانند چشم انداز را تغییر دهند.
"این می تواند چیزی باشد که قبل از رسیدن به بحران به مردم کمک کند." "این در حال حاضر در بازار تجاری نیست." وی گفت ، به همین دلیل به مقررات و نظارت فدرال نیاز است. در اوایل ماه جاری ، کمیسیون تجارت فدرال اعلام کرد که در حال افتتاح سوالات در هفت شرکت چت بابات هوش مصنوعی - از جمله شرکت های والدین اینستاگرام و فیس بوک ، گوگل ، چتگپ ، Grok (Chatbot در X) ، شخصیت .ai و اسنپ چت - در مورد چگونگی "اندازه گیری ، آزمایش و نظارت بر تأثیرات احتمالی این فناوری بر کودکان و نوجوانان است." و سازمان غذا و داروی در 6 نوامبر در حال تشکیل کمیته مشورتی است تا بتواند دستگاه های بهداشت روان با قابلیت تولید AI را بررسی کند.
آژانس های فدرال می توانند محدودیت هایی را در مورد نحوه بازاریابی چت بابات در نظر بگیرند ، شیوه های اعتیاد آور را محدود کنند ، به کاربران نیاز دارند که آنها ارائه دهنده پزشکی نیستند ، شرکت ها را ملزم به ردیابی و گزارش افکار خودکشی می کنند و برای افرادی که شیوه های بد شرکت ها را گزارش می دهند ، ارائه می دهند.
همه برنامه ها دسترسی را مسدود نکرده اند
از "برنامه های همراه" گرفته تا "درمانگران هوش مصنوعی" گرفته تا برنامه های "سلامتی ذهنی" ، استفاده از هوش مصنوعی در مراقبت از بهداشت روان متنوع و تعریف آن دشوار است ، چه رسد به نوشتن قوانینی در اطراف.
که منجر به رویکردهای مختلف نظارتی شده است. به عنوان مثال ، برخی از ایالت ها به برنامه های همراهی که فقط برای دوستی طراحی شده اند ، هدف قرار می دهند ، اما به مراقبت های بهداشت روان نمی پردازند. قوانین موجود در ایلینویز و نوادا محصولاتی را که ادعا می کنند درمان سلامت روان را به طور کامل ارائه می دهند ، ممنوع اعلام می کنند و جریمه های تا 10،000 دلار در ایلینویز و 15000 دلار در نوادا را تهدید می کنند.
اما حتی یک برنامه واحد نیز می تواند برای طبقه بندی سخت باشد.
استفان Earkick گفت که به عنوان مثال هنوز چیزهای زیادی در مورد قانون ایلینویز "بسیار گل آلود" است و این شرکت دسترسی محدود به آنجا ندارد.
استفان و تیمش در ابتدا با تماس با چت بابات خود ، که به نظر می رسد مانند پاندا کارتونی ، یک درمانگر است ، دست به دست هم دادند. اما هنگامی که کاربران شروع به استفاده از کلمه در بررسی ها کردند ، آنها اصطلاحات را پذیرفتند تا برنامه در جستجوها نشان داده شود. هفته گذشته ، آنها دوباره با استفاده از درمان و شرایط پزشکی از عقب نشینی کردند. وب سایت Earkick Chatbot خود را به عنوان "مشاور AI همدلی شما ، مجهز به حمایت از سفر روانی شما" توصیف کرد ، اما اکنون این یک "چت بیت برای مراقبت از خود" است.
هنوز ، "ما تشخیص نمی دهیم."
کاربران می توانند اگر در بحران قرار بگیرند ، یک "دکمه وحشت" را تنظیم کنند تا یک دوست عزیز مورد اعتماد را صدا کنند و چت بابات در صورت بدتر شدن سلامت روانی آنها ، کاربران را به دنبال یک درمانگر جستجو می کنند. استفان گفت ، اما هرگز به عنوان یک برنامه پیشگیری از خودکشی طراحی نشده است ، و اگر کسی به ربات درباره افکار خودآزاری گفت ، پلیس فراخوانده نمی شود.
استفان گفت که او خوشحال است که مردم با یک چشم انتقادی به دنبال هوش مصنوعی هستند ، اما از توانایی دولتها برای ادامه نوآوری نگران هستند.
"سرعتی که همه چیز در حال تحول است ، گسترده است."
برنامه های دیگر بلافاصله دسترسی را مسدود کردند. هنگامی که کاربران ایلینویز برنامه AI Therapy Ash را بارگیری می کنند ، یک پیام از آنها می خواهد تا قانونگذاران خود را به ایمیل بفرستند ، و استدلال می کنند که "قانون اشتباه" برنامه هایی مانند خاکستر را ممنوع اعلام کرده است "در حالی که چت های تنظیم نشده ای را برای تنظیم رایگان برای ایجاد آسیب فراهم می کند."
سخنگوی ASH به درخواست های متعدد برای مصاحبه پاسخ نداد.
ماریو Treto جونیور ، دبیر اداره مقررات مالی و حرفه ای ایلینویز ، گفت که هدف در نهایت اطمینان از این بود که درمانگران دارای مجوز تنها کسانی باشند که درمان می کنند.
"درمان بیش از مبادلات کلمه ای نیست." "این به همدلی نیاز دارد ، به قضاوت بالینی نیاز دارد ، به مسئولیت اخلاقی نیاز دارد ، که هیچکدام از آنها نمی تواند در حال حاضر واقعاً تکرار کند."
یک شرکت Chatbot در تلاش است تا به طور کامل درمانی را تکرار کند
در ماه مارس ، یک تیم مستقر در دانشگاه دارتموث اولین کارآزمایی بالینی تصادفی شناخته شده از یک چت بابات AI تولیدی را برای درمان سلامت روان منتشر کرد.
هدف این بود که چت بابات ، به نام Therabot ، افراد مبتلا به اضطراب ، افسردگی یا اختلالات خوردن را معالجه کنند. این برنامه در مورد ویگنت ها و رونوشت هایی که توسط این تیم نوشته شده بود برای نشان دادن یک پاسخ مبتنی بر شواهد آموزش داده شد.
این مطالعه نشان داد که کاربران دارای Therabot مشابه یک درمانگر هستند و بعد از هشت هفته علائم معناداری پایین تر در مقایسه با افرادی که از آن استفاده نکرده اند ، دارای علائم معناداری است. هر تعامل توسط انسانی تحت نظارت قرار می گرفت که اگر پاسخ chatbot مضر باشد یا مبتنی بر شواهد باشد ، مداخله می کرد.
نیکلاس جیکوبسون ، روانشناس بالینی که آزمایشگاه آن در حال تحقیق است ، گفت که نتایج نشان می دهد که وعده های اولیه را نشان می دهد اما برای نشان دادن اینکه آیا Therabot برای تعداد زیادی از افراد کار می کند ، مطالعات بزرگتر لازم است.
"این فضا به طرز چشمگیری جدید است که فکر می کنم این زمینه باید با احتیاط بسیار بیشتری که اکنون اتفاق می افتد ادامه یابد."
بسیاری از برنامه های هوش مصنوعی برای تعامل بهینه شده اند و برای پشتیبانی از همه چیز که کاربران می گویند ساخته شده است ، نه اینکه افکار مردم را به همان روشی که درمانگران انجام می دهند ، به چالش بکشد. بسیاری از آنها خط همراه و درمانی را طی می کنند ، و مرزهای صمیمیت را از نظر اخلاقی محو می کنند.
تیم Therabot به دنبال جلوگیری از این مسائل بود.
برنامه هنوز در حال آزمایش است و به طور گسترده ای در دسترس نیست. اما جاکوبسون نگران این است که ممنوعیت های سختگیرانه برای توسعه دهندگان رویکرد دقیق انجام می شود. وی خاطرنشان کرد که ایلینویز هیچ مسیر مشخصی برای ارائه شواهدی مبنی بر ایمن و مؤثر بودن برنامه ندارد.
"آنها می خواهند از افراد محافظت کنند ، اما سیستم سنتی در حال حاضر واقعاً افراد ناکام است." "بنابراین ، تلاش برای رعایت وضع موجود واقعاً کاری نیست که باید انجام شود."
تنظیم کننده ها و طرفداران قوانین می گویند که آنها در معرض تغییرات هستند. کایل هیلمن ، که از طریق وابستگی وی با انجمن ملی مددکاران اجتماعی لابی می کند ، گفت: اما چت بابات امروز راه حلی برای کمبود ارائه دهنده سلامت روان نیست.
"او گفت:" نه همه کسانی که احساس غم و اندوه می کنند به یک درمانگر احتیاج دارند. " اما برای افرادی که دارای مشکلات سلامت روانی واقعی یا افکار خودکشی هستند ، "گفتن آنها ،" می دانم که کمبود نیروی کار وجود دارد اما این یک ربات است " - این یک موقعیت ممتاز است."
بخش بهداشت و علوم آسوشیتدپرس از گروه آموزش علوم پزشکی موسسه پزشکی هوارد هیوز و بنیاد رابرت وود جانسون پشتیبانی می کند. AP صرفاً مسئول کلیه محتوا است.