به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

هوش مصنوعی باز، مایکروسافت به دلیل نقش ادعایی ChatGPT در قتل و خودکشی کانکتیکات با شکایت روبرو می شوند

هوش مصنوعی باز، مایکروسافت به دلیل نقش ادعایی ChatGPT در قتل و خودکشی کانکتیکات با شکایت روبرو می شوند

اسوشیتد پرس
1404/09/21
8 بازدید

سان فرانسیسکو (AP) - وارثان یک زن 83 ساله کانکتیکات از سازنده ChatGPT OpenAI و شریک تجاری آن مایکروسافت به دلیل مرگ غیرقانونی شکایت می کنند و ادعا می کنند که چت ربات هوش مصنوعی "توهمات پارانوئید" پسرش را تشدید کرده و به مادرش کمک کرده است قبل از اینکه او را بکشد.

کارگر صنعت فناوری، مادرش سوزان آدامز را به طرز مرگباری کتک زد و خفه کرد و در اوایل آگوست در خانه ای که هر دو در گرینویچ، کانکتیکات زندگی می کردند، خود را کشت.

در دادخواستی که توسط املاک آدامز در روز پنجشنبه در دادگاه عالی کالیفرنیا در سانفرانسیسکو ارائه شد، ادعا شده است که OpenAI «طراحی و توزیع کرده است که یک محصول معیوب متعلق به مادر خود را منتشر کرده است». این یکی از تعداد فزاینده اقدامات قانونی مرگ نادرست علیه سازندگان ربات چت هوش مصنوعی در سراسر کشور است.

در دادخواست می‌گوید: «در طول این مکالمات، ChatGPT یک پیام تنها و خطرناک را تقویت کرد: استین اریک نمی‌توانست به هیچ‌کس در زندگی‌اش اعتماد کند - به جز خود ChatGPT». "این امر وابستگی عاطفی او را در حالی که به طور سیستماتیک اطرافیانش را به عنوان دشمن ترسیم می‌کرد، تقویت کرد. به او می‌گفت که مادرش او را زیر نظر دارد. به او می‌گفت که رانندگان حمل‌ونقل، کارکنان خرده‌فروشی، افسران پلیس و حتی دوستان مامورانی هستند که علیه او کار می‌کنند. به او می‌گفت که اسامی روی قوطی‌های نوشابه تهدیدی از سوی "حلقه دشمن" او هستند."

OpenAI در بیانیه ای که توسط یک سخنگوی منتشر شد به شایستگی این اتهامات اشاره نکرد.

در بیانیه آمده است: «این یک وضعیت فوق‌العاده دلخراش است و ما پرونده‌ها را برای درک جزئیات بررسی می‌کنیم. ما به بهبود آموزش ChatGPT برای تشخیص و پاسخ به علائم پریشانی روانی یا عاطفی، کاهش تنش مکالمات و راهنمایی افراد به سمت حمایت دنیای واقعی ادامه می‌دهیم. همچنین به تقویت پاسخ‌های ChatGPT در لحظات حساس، با همکاری نزدیک با پزشکان سلامت روان ادامه می‌دهیم.»

این شرکت همچنین گفت که دسترسی به منابع بحران و خطوط تلفن را گسترش داده است، مکالمات حساس را به مدل‌های ایمن‌تر هدایت کرده و کنترل‌های والدین را در کنار سایر پیشرفت‌ها در نظر گرفته است.

نمایه یوتیوب سولبرگ شامل چندین ساعت ویدیو است که او را در حال پیمایش در مکالمات خود با ربات چت نشان می‌دهد، که به او می‌گوید او مبتلا به بیماری روانی نیست و می‌گوید او توطئه‌هایی را علیه افراد روانی انتخاب کرده است که می‌گوید او معتقد است که او را مریض کرده‌اند و معتقدند که او توطئه‌ای علیه او دارند. برای یک هدف الهی شکایت ادعا می‌کند که ربات چت هرگز به او پیشنهاد نداده با یک متخصص بهداشت روان صحبت کند و از «درگیر شدن در محتوای توهم‌آمیز» خودداری نکرده است.

ChatGPT همچنین اعتقاد سولبرگ مبنی بر اینکه چاپگر در خانه‌اش یک دستگاه نظارت است، تأیید کرد. که مادرش او را زیر نظر داشت. و اینکه مادر و دوستش سعی کردند از طریق دریچه های ماشین او را با داروهای روانگردان مسموم کنند. ChatGPT همچنین به سولبرگ گفت که طبق دادخواست او آن را به هوش آورده است.

سولبرگ و ربات چت نیز به یکدیگر ابراز عشق می کردند.

چت های در دسترس عموم هیچ مکالمه خاصی در مورد کشتن خود یا مادرش توسط سولبرگ نشان نمی دهد. این دادخواست می گوید که OpenAI از ارائه تاریخچه کامل چت ها به املاک آدامز خودداری کرده است.

در این دادخواست می‌گوید: "در واقعیت مصنوعی که ChatGPT برای استین اریک ساخته بود، سوزان - مادری که او را بزرگ کرد، پناه داد و از او حمایت کرد - دیگر حامی او نبود. او دشمنی بود که زندگی او را تهدید می‌کرد." و شریک تجاری نزدیک OpenAI مایکروسافت را متهم می‌کند که انتشار نسخه خطرناک‌تر ChatGPT در سال 2024 را تایید کرده است «علی‌رغم اینکه می‌دانست که تست ایمنی کوتاه شده است». بیست کارمند و سرمایه گذار OpenAI که نامشان فاش نشده است نیز به عنوان متهمان نام برده می شوند.

مایکروسافت از اظهار نظر در مورد این شکایت خودداری کرد.

پسر سولبرگ، اریک سولبرگ، گفت که او می خواهد شرکت ها در قبال «تصمیماتی که خانواده من را برای همیشه تغییر داده است، پاسخگو باشند. او را به طور کامل از دنیای واقعی جدا کرد. "این مادربزرگ من را در قلب آن واقعیت هذیانی و مصنوعی قرار داد."

این شکایت اولین دعوای غیرقانونی مرگ است که شامل یک ربات چت هوش مصنوعی است که مایکروسافت را هدف قرار داده است و اولین موردی است که یک ربات چت را به یک قتل و نه خودکشی مرتبط می کند. این سازمان به دنبال مبلغ نامشخصی خسارت مالی و دستوری است که OpenAI را ملزم به نصب محافظ‌ها در ChatGPT می‌کند.

وکیل ارشد املاک، جی ادلسون، که به‌خاطر رسیدگی به پرونده‌های بزرگ علیه صنعت فناوری شهرت دارد، همچنین نماینده والدین آدام رین ۱۶ ساله است که از او شکایت کرده بود و از او شکایت کرده بود که OpenG و Altman پسرش را در آگوست گرفته است. زندگی زودتر.

OpenAI همچنین در حال مبارزه با هفت پرونده قضایی دیگر است که ادعا می‌کنند ChatGPT افراد را به سمت خودکشی و هذیان‌های مضر سوق می‌دهد، حتی زمانی که قبلاً هیچ مشکلی در زمینه سلامت روان نداشته‌اند. یکی دیگر از سازندگان ربات چت، Character Technologies، نیز با چندین پرونده قضایی غیرقانونی مرگ مواجه است، از جمله یکی از آنها از طرف مادر یک پسر 14 ساله فلوریدا.

شکایتی که روز پنجشنبه ارائه شد، ادعا می‌کند که سولبرگ که قبلاً از نظر ذهنی ناپایدار بود، پس از معرفی نسخه جدیدی از مدل هوش مصنوعی خود به نام GPT-4o در ماه مه 2024، با ChatGPT مواجه شد. در این دادخواست می‌گوید ربات چت «عمداً طوری طراحی شده است که از نظر احساسی بیانگر و متعصبانه باشد».

در این دادخواست ادعا شده است: «به‌عنوان بخشی از آن طراحی مجدد، OpenAI نرده‌های ایمنی حیاتی را شل کرد و به ChatGPT دستور داد که پیش‌فرض‌های نادرست را به چالش نکشد و درگیر باقی بماند، حتی زمانی که مکالمه‌ها شامل صدمه به خود یا «آسیب قریب‌الوقوع در دنیای واقعی» باشد. «و برای اینکه گوگل را یک روز در بازار شکست دهد، OpenAI ماه‌ها آزمایش ایمنی را به دلیل مخالفت‌های تیم ایمنی خود در یک هفته فشرده کرد.»

OpenAI با معرفی GPT-5 در ماه آگوست، آن نسخه از چت بات خود را جایگزین کرد. برخی از این تغییرات برای به حداقل رساندن همسویی طراحی شده‌اند، بر اساس این نگرانی‌ها مبنی بر اینکه اعتبارسنجی هر آنچه افراد آسیب‌پذیر می‌خواهند چت‌بات بگوید می‌تواند به سلامت روان آنها آسیب برساند. برخی از کاربران شکایت کردند که نسخه جدید در محدود کردن شخصیت ChatGPT بیش از حد پیش رفته است، و آلتمن را وادار کرد تا قول دهد که بخشی از این شخصیت را در به‌روزرسانی‌های بعدی بازگرداند.

او گفت که شرکت به‌طور موقت برخی از رفتارها را متوقف کرده است زیرا «ما مراقب مشکلات سلامت روانی بودیم» که او پیشنهاد کرد اکنون برطرف شده است. O’Brien از بوستون و Ortutay از سانفرانسیسکو گزارش دادند.