هوش مصنوعی باز، مایکروسافت به دلیل نقش ادعایی ChatGPT در قتل و خودکشی کانکتیکات با شکایت روبرو می شوند
سان فرانسیسکو (AP) - وارثان یک زن 83 ساله کانکتیکات از سازنده ChatGPT OpenAI و شریک تجاری آن مایکروسافت به دلیل مرگ غیرقانونی شکایت می کنند و ادعا می کنند که چت ربات هوش مصنوعی "توهمات پارانوئید" پسرش را تشدید کرده و به مادرش کمک کرده است قبل از اینکه او را بکشد.
کارگر صنعت فناوری، مادرش سوزان آدامز را به طرز مرگباری کتک زد و خفه کرد و در اوایل آگوست در خانه ای که هر دو در گرینویچ، کانکتیکات زندگی می کردند، خود را کشت.
در دادخواستی که توسط املاک آدامز در روز پنجشنبه در دادگاه عالی کالیفرنیا در سانفرانسیسکو ارائه شد، ادعا شده است که OpenAI «طراحی و توزیع کرده است که یک محصول معیوب متعلق به مادر خود را منتشر کرده است». این یکی از تعداد فزاینده اقدامات قانونی مرگ نادرست علیه سازندگان ربات چت هوش مصنوعی در سراسر کشور است.
در دادخواست میگوید: «در طول این مکالمات، ChatGPT یک پیام تنها و خطرناک را تقویت کرد: استین اریک نمیتوانست به هیچکس در زندگیاش اعتماد کند - به جز خود ChatGPT». "این امر وابستگی عاطفی او را در حالی که به طور سیستماتیک اطرافیانش را به عنوان دشمن ترسیم میکرد، تقویت کرد. به او میگفت که مادرش او را زیر نظر دارد. به او میگفت که رانندگان حملونقل، کارکنان خردهفروشی، افسران پلیس و حتی دوستان مامورانی هستند که علیه او کار میکنند. به او میگفت که اسامی روی قوطیهای نوشابه تهدیدی از سوی "حلقه دشمن" او هستند."
OpenAI در بیانیه ای که توسط یک سخنگوی منتشر شد به شایستگی این اتهامات اشاره نکرد.
در بیانیه آمده است: «این یک وضعیت فوقالعاده دلخراش است و ما پروندهها را برای درک جزئیات بررسی میکنیم. ما به بهبود آموزش ChatGPT برای تشخیص و پاسخ به علائم پریشانی روانی یا عاطفی، کاهش تنش مکالمات و راهنمایی افراد به سمت حمایت دنیای واقعی ادامه میدهیم. همچنین به تقویت پاسخهای ChatGPT در لحظات حساس، با همکاری نزدیک با پزشکان سلامت روان ادامه میدهیم.»
این شرکت همچنین گفت که دسترسی به منابع بحران و خطوط تلفن را گسترش داده است، مکالمات حساس را به مدلهای ایمنتر هدایت کرده و کنترلهای والدین را در کنار سایر پیشرفتها در نظر گرفته است.
نمایه یوتیوب سولبرگ شامل چندین ساعت ویدیو است که او را در حال پیمایش در مکالمات خود با ربات چت نشان میدهد، که به او میگوید او مبتلا به بیماری روانی نیست و میگوید او توطئههایی را علیه افراد روانی انتخاب کرده است که میگوید او معتقد است که او را مریض کردهاند و معتقدند که او توطئهای علیه او دارند. برای یک هدف الهی شکایت ادعا میکند که ربات چت هرگز به او پیشنهاد نداده با یک متخصص بهداشت روان صحبت کند و از «درگیر شدن در محتوای توهمآمیز» خودداری نکرده است.
ChatGPT همچنین اعتقاد سولبرگ مبنی بر اینکه چاپگر در خانهاش یک دستگاه نظارت است، تأیید کرد. که مادرش او را زیر نظر داشت. و اینکه مادر و دوستش سعی کردند از طریق دریچه های ماشین او را با داروهای روانگردان مسموم کنند. ChatGPT همچنین به سولبرگ گفت که طبق دادخواست او آن را به هوش آورده است.
سولبرگ و ربات چت نیز به یکدیگر ابراز عشق می کردند.
چت های در دسترس عموم هیچ مکالمه خاصی در مورد کشتن خود یا مادرش توسط سولبرگ نشان نمی دهد. این دادخواست می گوید که OpenAI از ارائه تاریخچه کامل چت ها به املاک آدامز خودداری کرده است.
در این دادخواست میگوید: "در واقعیت مصنوعی که ChatGPT برای استین اریک ساخته بود، سوزان - مادری که او را بزرگ کرد، پناه داد و از او حمایت کرد - دیگر حامی او نبود. او دشمنی بود که زندگی او را تهدید میکرد." و شریک تجاری نزدیک OpenAI مایکروسافت را متهم میکند که انتشار نسخه خطرناکتر ChatGPT در سال 2024 را تایید کرده است «علیرغم اینکه میدانست که تست ایمنی کوتاه شده است». بیست کارمند و سرمایه گذار OpenAI که نامشان فاش نشده است نیز به عنوان متهمان نام برده می شوند.
مایکروسافت از اظهار نظر در مورد این شکایت خودداری کرد.
پسر سولبرگ، اریک سولبرگ، گفت که او می خواهد شرکت ها در قبال «تصمیماتی که خانواده من را برای همیشه تغییر داده است، پاسخگو باشند. او را به طور کامل از دنیای واقعی جدا کرد. "این مادربزرگ من را در قلب آن واقعیت هذیانی و مصنوعی قرار داد."
این شکایت اولین دعوای غیرقانونی مرگ است که شامل یک ربات چت هوش مصنوعی است که مایکروسافت را هدف قرار داده است و اولین موردی است که یک ربات چت را به یک قتل و نه خودکشی مرتبط می کند. این سازمان به دنبال مبلغ نامشخصی خسارت مالی و دستوری است که OpenAI را ملزم به نصب محافظها در ChatGPT میکند.
وکیل ارشد املاک، جی ادلسون، که بهخاطر رسیدگی به پروندههای بزرگ علیه صنعت فناوری شهرت دارد، همچنین نماینده والدین آدام رین ۱۶ ساله است که از او شکایت کرده بود و از او شکایت کرده بود که OpenG و Altman پسرش را در آگوست گرفته است. زندگی زودتر.
OpenAI همچنین در حال مبارزه با هفت پرونده قضایی دیگر است که ادعا میکنند ChatGPT افراد را به سمت خودکشی و هذیانهای مضر سوق میدهد، حتی زمانی که قبلاً هیچ مشکلی در زمینه سلامت روان نداشتهاند. یکی دیگر از سازندگان ربات چت، Character Technologies، نیز با چندین پرونده قضایی غیرقانونی مرگ مواجه است، از جمله یکی از آنها از طرف مادر یک پسر 14 ساله فلوریدا.
شکایتی که روز پنجشنبه ارائه شد، ادعا میکند که سولبرگ که قبلاً از نظر ذهنی ناپایدار بود، پس از معرفی نسخه جدیدی از مدل هوش مصنوعی خود به نام GPT-4o در ماه مه 2024، با ChatGPT مواجه شد. در این دادخواست میگوید ربات چت «عمداً طوری طراحی شده است که از نظر احساسی بیانگر و متعصبانه باشد».
در این دادخواست ادعا شده است: «بهعنوان بخشی از آن طراحی مجدد، OpenAI نردههای ایمنی حیاتی را شل کرد و به ChatGPT دستور داد که پیشفرضهای نادرست را به چالش نکشد و درگیر باقی بماند، حتی زمانی که مکالمهها شامل صدمه به خود یا «آسیب قریبالوقوع در دنیای واقعی» باشد. «و برای اینکه گوگل را یک روز در بازار شکست دهد، OpenAI ماهها آزمایش ایمنی را به دلیل مخالفتهای تیم ایمنی خود در یک هفته فشرده کرد.»
OpenAI با معرفی GPT-5 در ماه آگوست، آن نسخه از چت بات خود را جایگزین کرد. برخی از این تغییرات برای به حداقل رساندن همسویی طراحی شدهاند، بر اساس این نگرانیها مبنی بر اینکه اعتبارسنجی هر آنچه افراد آسیبپذیر میخواهند چتبات بگوید میتواند به سلامت روان آنها آسیب برساند. برخی از کاربران شکایت کردند که نسخه جدید در محدود کردن شخصیت ChatGPT بیش از حد پیش رفته است، و آلتمن را وادار کرد تا قول دهد که بخشی از این شخصیت را در بهروزرسانیهای بعدی بازگرداند.
او گفت که شرکت بهطور موقت برخی از رفتارها را متوقف کرده است زیرا «ما مراقب مشکلات سلامت روانی بودیم» که او پیشنهاد کرد اکنون برطرف شده است. O’Brien از بوستون و Ortutay از سانفرانسیسکو گزارش دادند.