به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

دادستان کالیفرنیا به دلیل درخواست تجدید نظر در استنادهای حقوقی جعلی که توسط AI ایجاد شده است ، 10K دلار جریمه شد

دادستان کالیفرنیا به دلیل درخواست تجدید نظر در استنادهای حقوقی جعلی که توسط AI ایجاد شده است ، 10K دلار جریمه شد

اسوشیتد پرس
1404/07/06
22 بازدید

یک وکیل کالیفرنیا باید برای تشکیل درخواست تجدیدنظر در دادگاه ایالتی پر از نقل قول های جعلی که توسط ابزار اطلاعاتی مصنوعی Chatgpt تولید شده است ، جریمه 10،000 دلاری بپردازد.

جریمه به نظر می رسد بزرگترین صادر شده در مورد ساختگی AI توسط یک دادگاه کالیفرنیا و با یک نظر تاول بیان می کند که 21 از 23 نقل قول از پرونده های ذکر شده در خلاصه دادستان تشکیل شده است. همچنین خاطرنشان كرد كه تعداد زیادی دادگاه خارج از كشور و فدرال به دلیل استناد به اختیارات قانونی جعلی ، با وكیل روبرو شده اند.

"بنابراین ما این عقیده را به عنوان یک هشدار منتشر می کنیم." "به سادگی بیان شده ، هیچ مقاله ای مختصر ، دعوی ، حرکتی یا هر مقاله دیگری که در هر دادگاه ثبت شده است باید حاوی هر استناد - اعم از AI تولیدی یا هر منبع دیگری باشد - که وکیل مسئول ارسال این دعوی شخصاً خوانده و تأیید نکرده است."

نظر ، که در تاریخ 12 سپتامبر در دادگاه تجدید نظر منطقه دوم کالیفرنیا صادر شده است ، نمونه بارز این است که چرا مقامات قانونی دولت در تلاشند تا استفاده از هوش مصنوعی را در قوه قضاییه تنظیم کنند. شورای قضایی ایالتی دو هفته پیش دادستان منطقه لس آنجلس ، امیر مصطفی ، به دادگاه گفت كه وی قبل از ارسال درخواست تجدیدنظر در ژوئیه 2023 ، متن تولید شده توسط مدل AI را نخوانده است ، ماهها پس از OpenAI پس از آنكه چتگپ به بازار عرضه می شود <يك كلاس = "ليست لينه-لنكننولنكتي HREF = "https://law.stanford.edu/2023/04/19/gpt-4-passes-the-bar-exam-what-hat-means-for-itelent-tools-tools-tole-in-the-LEGEAL-industry/" target = "_ blank" rel = "noopener"> تصویب آزمون نوار. طبق این عقیده ، یک هیئت سه قاضی وی را به دلیل تشکیل درخواست تجدید نظر ، نقض قوانین دادگاه ، استناد به پرونده های جعلی و هدر دادن زمان دادگاه و پول مالیات دهندگان ، جریمه کرد.

مصطفی به Calmatters گفت که او این درخواست را نوشت و سپس از Chatgpt برای تلاش و بهبود آن استفاده کرد. او گفت که او نمی داند که این امر به استنادهای موردی اضافه می کند یا مواردی را تشکیل می دهد.

او فکر می کند غیر واقعی است که انتظار داشته باشید وکلا از استفاده از هوش مصنوعی دست بکشند. این به یک ابزار مهم تبدیل شده است ، همانطور که بانکهای اطلاعاتی آنلاین تا حد زیادی جایگزین کتابخانه های قانون شده و تا زمانی که سیستم های هوش مصنوعی توهم اطلاعات جعلی را متوقف کنند ، وی به وکلائی پیشنهاد می کند که از هوش مصنوعی استفاده می کنند تا احتیاط کنند.

"در ضمن ما قربانیان خواهیم داشت ، ما می خواهیم خسارت وارد کنیم ، ما می خواهیم برخی از ضایعات را داشته باشیم." "من امیدوارم که این مثال به دیگران کمک کند تا در این سوراخ قرار نگیرند. من قیمت آن را پرداخت می کنم."

جریمه ای که به مصطفی صادر شده است ، پرهزینه ترین مجازات صادر شده توسط یک دادگاه ایالتی کالیفرنیا و یکی از بالاترین جریمه هایی است که تاکنون از وکالت استفاده کرده است ، طبق گفته دیمین شارلوتین ، که یک کلاس در مورد هوش مصنوعی و قانون را در یک مدرسه تجاری در پاریس تدریس می کند. او <یک class = "پیوند anclick-linkenhancement" data-gtm-enhancement-style = "linkenhancementa" href = "https://www.damiencharlotin.com/hallucinations/" target = "_ blank" rel = "nooopener"> پیگیری مواردی از استایل است.

در یک پرونده گسترده در ماه مه ، یک قاضی دادگاه منطقه ای ایالات متحده در کالیفرنیا <یک کلاس = "پیوند anclick-linkenhancement" data-gtm-enhancement = "linkenhancementa" href = "https://websitedc.s3.amazonaws.com/document/lacey_v._state_farm_general_insurances_co._d._may_6_2025.pdf" target = "_ blank" rel = "noopener"> noopener " تحقیقات تولید شده AI. " در این حكم ، قاضی احساس گمراهی را توصیف كرد ، گفت كه آنها تقریباً مواد جعلی را به دستور قضایی ذکر كردند و گفتند: "بازدارندگی شدیدی لازم است تا اطمینان حاصل شود كه وکلا در این میانبر آسان تسلیم نمی شوند."

شارلوتین فکر می کند دادگاه ها و عموم مردم باید انتظار داشته باشند که در آینده شاهد افزایش نمایی در این موارد باشند. هنگامی که او در اوایل سال جاری شروع به ردیابی پرونده های دادگاه مربوط به AI و پرونده های جعلی کرد ، ماهانه با چند پرونده روبرو شد. اکنون او روزانه چند مورد را می بیند. مدل های بزرگ زبان با اطمینان دروغ ها را به عنوان حقایق بیان می کنند ، به ویژه هنگامی که هیچ واقعیت حامی وجود ندارد.

"هرچه استدلال حقوقی شما سخت تر باشد ، این مدل بیشتر به توهم می رسد ، زیرا آنها سعی می کنند شما را خوشحال کنند." "این جایی است که تعصب تأیید شروع می شود."

a Another ردیاب مواردی که وکلا به دلیل استفاده از هوش مصنوعی ، 52 مورد از این دست را در کالیفرنیا و بیش از 600 کشور در سراسر کشور ذکر می کنند. نیکلاس سانتیس ، دانشجوی حقوق دانشکده حقوق دانشگاه پایتخت در اوهایو گفت: انتظار می رود این مبلغ در آینده نزدیک افزایش یابد زیرا نوآوری هوش مصنوعی از آموزش وکلا پیشی می گیرد.

"من فکر می کنم اگر (وکلا) فقط اصول فناوری را درک کنند ، شاهد کاهش هستیم."

مانند شارلوتین ، او گمان می کند موارد بیشتری از پرونده های تشکیل شده توسط AI در پرونده های دادگاه ایالتی نسبت به دادگاه های فدرال وجود دارد ، اما عدم وجود روش های استاندارد تشکیل پرونده ، تأیید آن را دشوار می کند. وی گفت که او با موارد جعلی که اغلب در بین وکلای سنگین یا افرادی که تصمیم به نمایندگی خود در دادگاه خانواده می گیرند ، روبرو می شود.

او به تعداد استدلال های ارائه شده توسط وکلا که از AI استفاده می کنند و موارد جعلی را ذکر می کنند ، مشکوک است ، اما افزود که نه فقط وکلا در این عمل شرکت می کنند. در هفته های اخیر ، او سه نمونه های قضات استناد به اقتدار قانونی جعلی در تصمیمات خود.

همانطور که کالیفرنیا چگونه می تواند با استناد به استنادهای AI و جعلی را درمان کند ، Wondracek گفت که آنها می توانند رویکردهای مورد استفاده سایر کشورها ، مانند تعلیق موقت را در نظر بگیرند ، و به وکلا که برای درک بهتر چگونگی استفاده اخلاقی از AI ، یا نیاز به استفاده از کلاس = "پیوند Anclick-linkenhancement" Data-GtM-Eenhancement "Data-GtM-Eenhancement" را در نظر می گیرند. href = "https://www.lawnext.com/2025/09/nevada-judge-takes-creative-and-unusual- Apcrach-combat-ai----fectifectifectition.html" target = "_ blank" rel = "noopener" به دانش آموزان آموزش دهید چگونه می توانند از همان اشتباه خودداری کنند.

مارک مک کننا ، مدرکگر مؤسسه فناوری ، قانون و سیاست UCLA ، جریمه هایی مانند آن علیه مصطفی را به عنوان مجازات وکلا برای "ربودن مسئولیت شما به عنوان یک طرف نماینده شخصی" تحسین کرد. او فکر می کند که مشکل "قبل از بهتر شدن بدتر خواهد شد" ، زیرا در بین دانشکده های حقوقی و شرکت های خصوصی عجله ای برای اتخاذ هوش مصنوعی بدون فکر کردن از طریق روش مناسب برای استفاده از آنها وجود داشته است.

دانشکده حقوق UCLA ، استاد آندرو سلبست موافق است ، با اشاره به اینکه منشی که برای داوران کار می کنند فارغ التحصیلان دانشکده حقوق هستند و دانش آموزان با این پیام که باید از هوش مصنوعی استفاده کنند یا پشت سر بگذارند ، بمباران می شوند. مربیان و سایر متخصصان "این همه گلوهای ما را فرو می ریزد." "این شرکت در بنگاه ها و مدارس و مکان های زیادی تحت فشار قرار می گیرد و ما هنوز با عواقب آن روبرو نشده ایم."

این داستان در ابتدا در آرامش و توزیع از طریق مشارکت با همراهی با همراهی همراه منتشر شد.