به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

دانشگاه‌های تگزاس ابزارهای هوش مصنوعی را برای بررسی و بازنویسی نحوه بحث در برخی دوره‌ها درباره نژاد و جنسیت به کار می‌گیرند.

دانشگاه‌های تگزاس ابزارهای هوش مصنوعی را برای بررسی و بازنویسی نحوه بحث در برخی دوره‌ها درباره نژاد و جنسیت به کار می‌گیرند.

اسوشیتد پرس
1404/09/24
10 بازدید

یکی از مقامات ارشد سیستم دانشگاه تگزاس A&M که در پاییز امسال ابزار هوش مصنوعی جدیدی را آزمایش می‌کند، از آن درخواست کرد تا ببیند چند دوره در یکی از دانشگاه‌های منطقه‌ای آن درباره فمینیسم بحث می‌کنند. هر بار که او به روشی کمی متفاوت می‌پرسید، شماره متفاوتی دریافت می‌کرد.

«یا این ابزار از سؤالات قبلی من یاد می‌گیرد،» کوری کاستیلو، افسر ارشد استراتژی سیستم A&M تگزاس در ایمیلی به همکارانش گفت، «یا ما باید درخواست‌هایمان را دقیق تنظیم کنیم تا بهترین نتایج را بگیریم.

۲۵ سپتامبر بود که Changarncell به هیئت مدیره Castillo تحویل داد. Regents قبلاً انجام داده بود: ممیزی دوره ها در تمام 12 دانشگاه سیستم پس از خشم محافظه کارانه در مورد درس هویت جنسیتی در پردیس برجسته در اوایل همان ماه تشدید شد و منجر به اخراج استاد و استعفای رئیس دانشگاه.

مقامات A&M تگزاس گفتند که این مناقشه ناشی از عدم تطابق محتوای دوره با توضیحات آن در کاتالوگ دروس دانشگاه است و ممیزی را به عنوان راهی برای اطمینان از اینکه دانشجویان می دانند برای چه چیزی ثبت نام می کنند، عنوان کردند. از آنجایی که سایر دانشگاه‌های دولتی تحت نظارت مشابه قرار گرفتند و شروع به آماده‌سازی برای پیروی از قانون ایالتی جدید کردند که به فرمانداری‌ها نیز اختیارات بیشتری می‌دهد. ممیزی.

سوابق به‌دست‌آمده توسط The Texas Tribune اولین نگاهی به نحوه آزمایش هوش مصنوعی دانشگاه‌های تگزاس برای انجام این بررسی‌ها ارائه می‌کند.

در تگزاس A&M، ایمیل‌های داخلی نشان می‌دهد که کارکنان از نرم‌افزار هوش مصنوعی برای جستجوی سرفصل‌ها و توضیحات دوره‌ها برای جستجوی کلماتی استفاده می‌کنند که می‌تواند نگرانی‌هایی را تحت خط‌مشی‌های سیستم جدید ایجاد کند که نحوه تدریس اساتید در مورد نژاد و جنسیت را محدود می‌کند.

در ایالت تگزاس، یادداشت‌هایی نشان می‌دهد که مدیران به اساتید پیشنهاد می‌کنند از یک دستیار نوشتن هوش مصنوعی برای اصلاح توضیحات دوره استفاده کنند. آنها از اساتید خواستند کلماتی مانند "چالش کشیدن"، "برچیدن" و "استعمارزدایی" را کنار بگذارند و نام دوره هایی با عناوینی مانند "مبارزه با نژادپرستی در مراقبت های بهداشتی" را به چیزی که مقامات دانشگاه بی طرف تر می دانند مانند "نژاد و بهداشت عمومی در آمریکا" تغییر دهند.

در حالی که مسئولان مدرسه تلاش‌ها را به‌عنوان رویکردی نوآورانه توصیف می‌کنند که شفافیت و مسئولیت‌پذیری را تقویت می‌کند، کارشناسان هوش مصنوعی می‌گویند که این سیستم‌ها واقعاً محتوای دوره را تجزیه و تحلیل یا درک نمی‌کنند، در عوض پاسخ‌هایی درست بر اساس الگوهای موجود در داده‌های آموزشی خود ایجاد می‌کنند.

این بدان معناست که تغییرات جزئی در نحوه بیان یک سؤال می‌تواند منجر به نتایج متفاوتی شود، و آن‌ها گفتند که سیستم‌ها را با یک کلاس غیرقابل اطمینان مطابقت می‌دهد. آنها هشدار دادند که استفاده از هوش مصنوعی به این روش می‌تواند منجر به پرچم‌گذاری دوره‌ها با کلمات مجزا و تغییر بیشتر کنترل تدریس از اساتید و مدیران شود.

کریس گیلیارد، یکی از مدیران مؤسسه مطالعات انتقادی اینترنت، گفت: «من متقاعد نشده‌ام که این در مورد خدمت به دانشجویان یا تمیز کردن برنامه‌های درسی باشد. "به نظر می رسد این پروژه ای برای کنترل آموزش و حذف آن از اساتید و سپردن آن به دست مدیران و مجالس قانونگذاری است."

تنظیم ابزار

در خلال جلسه هیئت مدیره در ماه گذشته، رهبران سیستم A&M تگزاس فرآیندهای جدیدی را که برای ممیزی دوره‌ها توسعه می‌دادند، به عنوان مکانیزم اجرایی تکرارپذیر توصیف کردند.

معاون امور آکادمیک جیمز هالمارک گفت که این سیستم از "ابزارهای به کمک هوش مصنوعی" برای بررسی داده های دوره تحت "معیارهای منسجم و مبتنی بر شواهد" استفاده می کند که اقدامات آتی هیئت مدیره در دوره ها را هدایت می کند. ریجنت سام تورن آن را به‌عنوان «حکومت واقعی» ستود و گفت که تگزاس A&M «ابتدا قدم برداشته و مدلی را تنظیم می‌کند که دیگران از آن پیروی خواهند کرد».

در همان روز، هیئت مدیره قوانین جدیدی را تصویب کرد که رؤسای جمهور را ملزم می‌کرد تا «هر گونه برنامه‌ریزی و ایده‌شناسی» را امضا کنند. منع استادان از تدریس مطالبی که در برنامه درسی تایید شده برای یک دوره نیستند.

کریس برایان، معاون بازاریابی و ارتباطات سیستم، در بیانیه‌ای به Tribune گفت که تگزاس A&M از خدمات OpenAI از طریق اشتراک موجود برای کمک به ممیزی دوره سیستم استفاده می‌کند و این ابزار همچنان در حال آزمایش است، زیرا دانشگاه‌ها در حال به اشتراک گذاشتن داده‌های دوره خود هستند. او گفت: "هر تصمیمی در مورد مناسب بودن، همسویی با برنامه های تحصیلی، یا نتایج دانشجویی توسط افراد گرفته می شود، نه نرم افزار."

در سوابق به‌دست‌آمده توسط Tribune، Castillo، مدیر ارشد استراتژی سیستم، به همکارانش گفت که برای حدود 20 کارمند سیستم آماده شوند تا از این ابزار برای انجام صدها پرسش در هر ترم استفاده کنند.

سوابق همچنین برخی از نگرانی‌های ناشی از آزمایش‌های اولیه ابزار را نشان می‌دهند.

وقتی کاستیو به همکارانش درباره نتایج متفاوتی که هنگام جستجوی کلاس‌هایی که درباره فمینیسم به‌دست می‌آورد گفت، مارک شولتز، معاون مدیر اطلاعات، هشدار داد که این ابزار "خطر ذاتی نادرستی" دارد.

"بعضی از آن‌ها را می‌توان با آموزش کاهش داد، "اما احتمالاً نمی‌توان آن را کاملاً حذف کرد." مشخص کنید که منظور او چه نوع نادرستی بوده است. وقتی از برایان پرسیده شد که آیا نادرستی‌های احتمالی برطرف شده‌اند، گفت: «ما در حال آزمایش مکالمات پایه با ابزار هوش مصنوعی هستیم تا صحت، مرتبط بودن و تکرارپذیری اعلان‌ها را تأیید کنیم.» او گفت که این شامل دیدن نحوه پاسخ ابزار به درخواست‌های نامعتبر یا گمراه‌کننده و بازبینی نتایج توسط انسان است.

کارشناسان گفتند که پاسخ‌های متفاوتی که کستیلو هنگام بازنویسی سؤال خود دریافت کرد، نحوه عملکرد این سیستم‌ها را نشان می‌دهد. آنها توضیح دادند که این نوع ابزارهای هوش مصنوعی پاسخ‌های خود را با پیش‌بینی الگوها و تولید رشته‌های متن تولید می‌کنند.

امیلی بندر، زبان‌شناس محاسباتی در دانشگاه واشنگتن، گفت: «این سیستم‌ها اساساً سیستم‌هایی برای پاسخگویی مکرر به این سؤال هستند که «کلمه بعدی احتمالاً چیست» و بس. «توالی کلماتی که بیرون می‌آیند، شبیه چیزی است که در آن زمینه انتظار دارید، اما بر اساس دلیل یا درک یا نگاه کردن به اطلاعات نیست.»

به همین دلیل، تغییرات کوچک در نحوه بیان یک سؤال می‌تواند نتایج متفاوتی ایجاد کند. کارشناسان همچنین گفتند که کاربران می توانند مدل را به سمت پاسخی که می خواهند سوق دهند. گیلیارد گفت که این به این دلیل است که این سیستم‌ها همچنین مستعد آن چیزی هستند که توسعه‌دهندگان آن را "دورگویی" می‌نامند، به این معنی که آنها سعی می‌کنند با کاربر موافق باشند یا راضی کنند.

«اغلب، زمانی که مردم از این فناوری استفاده می‌کنند، اتفاقی می‌افتد این است که اگر دستگاه را سرزنش یا تصحیح کنید، می‌گوید: «اوه، متاسفم» یا مانند «حق با شماست»، بنابراین اغلب می‌توانید این سیستم‌ها را تشویق کنید تا پاسخ دلخواه خود را دریافت کنند.

T. فیلیپ نیکولز، استاد دانشگاه بیلور که در مورد چگونگی تأثیر فناوری بر آموزش و یادگیری در مدارس مطالعه می کند، گفت که جستجوی کلیدواژه نیز بینش کمی در مورد نحوه تدریس یک موضوع ارائه می دهد. او این ابزار را «ابزاری بی‌حرکت» نامید که قادر به درک این موضوع نیست که چگونه بحث‌های خاصی که نرم‌افزار ممکن است به عنوان نامرتبط با دوره آموزشی درج می‌کند، به مضامین کلاسی گسترده‌تر مرتبط می‌شود.

نیکولز می‌گوید: «آن انتخاب‌های آموزشی یک مربی ممکن است در برنامه درسی وجود نداشته باشد، بنابراین اگر فقط آن را در یک ربات چت وارد کنید و بگویید: «آیا این موضوع ذکر شده است؟» به شما چیزی درباره نحوه صحبت کردن و نحوه صحبت کردن درباره آن نمی‌گوید.

تعریف کاستیلو از تجربه آزمایش ابزار هوش مصنوعی تنها زمانی بود که در سوابق بازبینی شده توسط Tribune زمانی که مدیران تگزاس A&M در مورد عبارات جستجوی خاصی که برای بررسی محتوای دوره استفاده می‌شد بحث کردند. در ایمیل دیگری، کاستیلو گفت که عبارات جستجو را شخصاً یا از طریق تلفن به جای ایمیل با کارکنان به اشتراک خواهد گذاشت.

مقامات سیستم فهرستی از عبارات جستجویی را که سیستم قصد دارد در ممیزی استفاده کند ارائه نکردند.

مارتین پیترسون، استاد فلسفه تگزاس A&M که در زمینه اخلاق فناوری مطالعه می کند، گفت که از اساتید خواسته نشده است که در مورد این ابزار، از جمله اعضای شورای هوش مصنوعی دانشگاه، بررسی کنند. او خاطرنشان کرد که کمیته اخلاق و حکومت شورا وظیفه کمک به تعیین استانداردهایی برای استفاده مسئولانه از هوش مصنوعی را بر عهده دارد.

در حالی که پیترسون به طور کلی با فشار برای ممیزی دروس سیستم دانشگاه مخالف است، او گفت که "کمی بیشتر به این ایده که شاید بتوان از چنین ابزاری استفاده کرد."

"فقط این است که ما باید قبل از استفاده از ابزار خانه خود را شروع کنیم." در دانشگاه ایالتی تگزاس، مقامات به اعضای هیئت علمی دستور دادند تا برنامه درسی خود را بازنویسی کنند و به آنها پیشنهاد کردند که از هوش مصنوعی برای انجام این کار استفاده کنند.

در ماه اکتبر، مدیران 280 دوره را برای بررسی علامت گذاری کردند و به اساتید گفتند که عناوین، توضیحات و نتایج یادگیری را اصلاح کنند. سوابق نشان می‌دهد که ده‌ها دوره که قرار است توسط کالج هنرهای لیبرال در ترم بهار 2026 ارائه شود، به دلیل نگرانی‌های بی‌طرفی انتخاب شده‌اند. آنها شامل دوره‌هایی مانند مقدمه تنوع، نابرابری اجتماعی، آزادی در آمریکا، جنوب غربی در فیلم و ترجمه چینی به انگلیسی بودند.

برای تکمیل بازنویسی‌ها تا 10 دسامبر به دانشکده فرصت داده شد تا در ژانویه بررسی سطح دوم انجام شود و کل کاتالوگ تا ژوئن ارزیابی شود.

مدیران راهنمائی را با اعضای هیئت علمی به اشتراک گذاشتند که در آن عباراتی که به گفته آنها نشان دهنده حمایت است، بیان شده بود. نتایج یادگیری را که دانشجویان را توصیف می‌کند که «باور، نگرش یا کنش‌گرایی را اندازه‌گیری می‌کنند یا نیاز دارند (مانند تنوع ارزش، پذیرش کنش‌گری، متعهد به تغییر) را توصیف می‌کنند، دلسرد می‌کند.»

مدیران همچنین دستوری را برای اساتید ارائه کردند تا در کنار مطالب خود، دستیار نوشتن هوش مصنوعی را بچسبانند. این درخواست به ربات چت دستور می‌دهد «هر زبانی را که نشان‌دهنده حمایت، نتیجه‌گیری تجویزی، نتایج عاطفی یا تعهدات ایدئولوژیک است شناسایی کند» و سه نسخه جایگزین ایجاد کند که آن عناصر را حذف کند.

Jayme Blaschke، دستیار مدیر روابط رسانه‌ای در ایالت تگزاس، بررسی داخلی را «کامل» و «مشاهده‌ای» توصیف کرد، اما نگفت که آیا کلاس‌هایی قبلاً تجدیدنظر شده یا حذف شده‌اند، فقط اینکه «تدابیری برای هدایت دانش‌آموزان از طریق هرگونه تعدیل و حفظ پیشرفت تحصیلی در مسیر وجود دارد». او همچنین از توضیح اینکه چگونه دوره‌ها در ابتدا پرچم‌گذاری شده‌اند و چه کسی انتظارات بی‌طرفی را نوشته است، خودداری کرد.

هیئت علمی می‌گویند این تغییرات نحوه تصمیم‌گیری در مورد برنامه درسی را تغییر داده است.

Aimee Villarreal، استادیار انسان‌شناسی و رئیس انجمن آمریکایی اساتید دانشگاه در ایالت تگزاس، گفت که این فرآیند معمولاً در یک دوره طولانی‌تر از دوره آموزشی نامشخص است. او معتقد است که ساختار این ممیزی به مدیران اجازه می‌دهد تا با دقت بیشتری بر نحوه توصیف رشته‌های خود توسط اساتید نظارت کنند و نحوه ارائه مطالب را هدایت کنند.

او گفت که نیاز به بازنگری سریع دوره‌ها یا خطر حذف آن‌ها از برنامه فصل بهار، فشاری را برای رعایت آنها ایجاد کرده است، که ممکن است برخی از دانشکده‌ها را به سمت استفاده از دستیار نوشتن هوش مصنوعی سوق داده باشد.

تخصص در تصمیم گیری برای آموزش دادن.

ویلارئال گفت: «من عاشق کاری هستم که انجام می دهم، و بسیار غم انگیز است که می بینم هسته کارهایی که انجام می دهم از این طریق تضعیف می شود.»

نیکولز هشدار داد که روند استفاده از هوش مصنوعی در این راه نشان دهنده یک تهدید بزرگتر است.

او گفت: «این نوعی غیرحرفه‌ای کردن کاری است که ما در کلاس‌های درس انجام می‌دهیم، جایی که در حال محدود کردن افق امکان‌پذیر هستیم». "و من فکر می‌کنم زمانی که ما آن را رها کنیم، مانند این است که کل بازی را کنار بگذاریم. این هدف کل دلیل وجود دانشگاه‌ها است."

___

این داستان در ابتدا توسط The Texas Tribune منتشر شد و با همکاری Associated Press توزیع شد.