به یاد فرزندان جاویدان این سرزمین

یادشان همواره در قلب این خاک زنده خواهد ماند

يقوم الأشخاص بتحميل سجلاتهم الطبية إلى الذكاء الاصطناعي. روبوتات الدردشة

يقوم الأشخاص بتحميل سجلاتهم الطبية إلى الذكاء الاصطناعي. روبوتات الدردشة

نيويورك تايمز
1404/09/15
15 مشاهدات

شعرت مولي كير، وهي من سكان نيويورك وتبلغ من العمر 26 عامًا وتعيش في لندن، بالانزعاج هذا الصيف عندما أظهر فحص الدم لديها اختلالات هرمونية.

وبعد رؤية النتائج على بوابة المرضى الخاصة بها، شعرت بالخوف الشديد لدرجة أنها لم تتمكن من الانتظار للتحدث مع طبيبها. لذا، مع بعض القلق، قامت بلصق التقرير الكامل في ChatGPT. وأخبرها برنامج الدردشة الآلي أن نتائجها المعملية يمكن أن تشير إلى عدد من الحالات، لكنها أشارت "على الأرجح" إلى ورم في الغدة النخامية أو حالة نادرة مرتبطة بأورام الغدة النخامية.

Mollie Kerr

لذلك، في ضوء كل ذلك، ما هو تشخيصي

ChatGPT

الاعتبارات التشخيصية الأكثر ترجيحًا

• ورم غدي صغير مختلط في الغدة النخامية (إفراز مزدوج) <ر> • ضخامة النهايات المبكرة أو تحت السريرية

لم تكن تخمينات برنامج الدردشة الآلية مستبعدة - فقد وافق طبيب السيدة كير على طلب إجراء تصوير بالرنين المغناطيسي. للتحقق - لكنهم كانوا مخطئين. لم يتم اكتشاف أي ورم.

وكان لدى مريض آخر، إليوت رويس، 63 عامًا، تجربة مختلفة بعد تحميل خمس سنوات من سجلاته الطبية إلى ChatGPT، بما في ذلك توثيق حالة قلبية معقدة ونوبة قلبية سابقة.

وبدأ يشعر بعدم الارتياح أثناء ممارسة الرياضة، وأشار الاختبار إلى وجود شريان مسدود جزئيًا. يعتقد طبيبه أن المراقبة الدقيقة ستكون كافية في الوقت الحالي. ولكن بناءً على نصيحة ChatGPT، دفع السيد رويس نحو إجراء تشخيصي أكثر تدخلاً، والذي كشف عن انسداد بنسبة 85 بالمائة - وهي مشكلة خطيرة تمت معالجتها باستخدام الدعامة.

إليوت رويس

أصبح عدم ارتياحي أثناء ممارسة التمارين الرياضية أكثر اتساقًا. إنه ليس ألمًا، لكنه يمكن التنبؤ به. صعود الدرج يثير ذلك في كل مرة. هل يجب أن أدفع لإجراء المزيد من الاختبارات؟

ChatGPT

نعم. هذا هو النمط الكلاسيكي المكافئ للذبحة الصدرية، وهو قابل للتكرار، ومجهد، ويخفف من الراحة. لقد تجاوزت مرحلة "الانتظار والترقب".

إليوت رويس

ما هي خطورة عدم القيام بأي شيء لبضعة أسابيع أخرى؟

ChatGPT

أنت معرض لخطر الإصابة بالذبحة الصدرية المتصاعدة واحتمال تمزق اللويحات. لقد تجاوزت بالفعل الحد الذي تكون فيه المراقبة المحافظة معقولة. لا تتصرف الأعراض على هذا النحو المتوقع إلا إذا كانت عضلة القلب تعاني.

إليوت رويس

رغم ذلك، لا أعاني من ألم كلاسيكي في الصدر.

ChatGPT

لا يهم. أنت مثال كلاسيكي على "نقص التروية غير المؤلم".

إليوت رويس

إذن أنت تقول أنني يجب أن أطلب إجراء قسطرة مباشرة؟

ChatGPT

صحيح.

يستخدم ملايين الأشخاص حول العالم برامج الدردشة الآلية لمحاولة فهم صحتهم بشكل أفضل. والبعض، مثل السيدة كير والسيد رويس، يذهبون إلى أبعد من مجرد طرح الأسئلة الطبية. لقد قاموا هم وأكثر من عشرة آخرين تحدثوا مع صحيفة نيويورك تايمز بتسليم نتائج المختبر والصور الطبية وملاحظات الطبيب والتقارير الجراحية والمزيد إلى برامج الدردشة الآلية.

تمثل المعلومات غير الدقيقة مصدر قلق كبير؛ وقد وجدت بعض الدراسات أن الأشخاص الذين لم يحصلوا على تدريب طبي يحصلون على التشخيص الصحيح من روبوتات الدردشة في أقل من نصف الوقت. ويضيف تحميل البيانات الحساسة مخاطر الخصوصية مقابل الردود التي يمكن أن تبدو أكثر تخصيصًا.

د. دانييل بيترمان، أستاذ مساعد في كلية الطب بجامعة هارفارد والقائد السريري لعلوم البيانات والذكاء الاصطناعي. في قداس الجنرال بريجهام، قال إنه ليس من الآمن افتراض أن برنامج الدردشة الآلي يقوم بتخصيص تحليله لنتائج الاختبار. وقد وجد بحثها أن روبوتات الدردشة يمكن أن تتجه نحو تقديم استجابات أكثر قابلية للتطبيق بشكل عام حتى عندما يتم إعطاؤها سياقًا لمرضى محددين.

"لمجرد أنك تقدم كل هذه المعلومات لنماذج اللغة، لا يعني أنهم يستخدمون تلك المعلومات بشكل فعال بنفس الطريقة التي يستخدمها الطبيب".

وبمجرد قيام الأشخاص بتحميل هذا النوع من البيانات، فإن لديهم سيطرة محدودة على كيفية استخدامها.

لا ينطبق قانون HIPAA، وهو قانون خصوصية الصحة الفيدرالي، للشركات التي تقف وراء برامج الدردشة الشهيرة. من الناحية القانونية، قال برادلي مالين، أستاذ المعلوماتية الطبية الحيوية في المركز الطبي بجامعة فاندربيلت، "إنك تتنازل بشكل أساسي عن أي حقوق لديك فيما يتعلق بالخصوصية الطبية"، ولا تترك سوى الحماية التي تختار شركة معينة تقديمها.

قالت شركة OpenAI، الشركة المصنعة لـ ChatGPT، إن لديها ضمانات واسعة النطاق لحماية المعلومات الخاصة لمستخدميها.

وأشار أحد الممثلين إلى أنه يمكن للمستخدمين اختيار عدم استخدام محادثاتهم لتدريب النماذج المستقبلية، وقال واختبرت الشركة أنظمتها ضد الهجمات المحاكاة. وقالت إنها تشارك أيضًا الحد الأدنى من البيانات مع مقدمي خدمات الطرف الثالث. (رفعت صحيفة The Times دعوى قضائية ضد OpenAI، بدعوى انتهاك حقوق الطبع والنشر للمحتوى الإخباري. وقد أنكرت OpenAI هذه المزاعم.)

ومع ذلك، قال خبراء خصوصية البيانات إن هناك مخاطر في تحميل المعلومات الطبية إلى أي روبوت دردشة - سواء بسبب اختلاف سياسات روبوتات الدردشة المختلفة، أو لأنه من الصعب جدًا القضاء على جميع نقاط الضعف.

إحدى المشكلات هي أن العديد من الأشخاص لا يختارون تسليم بياناتهم لأغراض التدريب. يقول كارني شاجال فيفيركورن، الأستاذ المساعد في كلية بيليني للذكاء الاصطناعي والأمن السيبراني والحوسبة في جامعة جنوب فلوريدا، إن هذا يخلق احتمالًا أنه إذا قام شخص ما بتحميل بيانات طبية وسأل شخص آخر نموذجًا مستقبليًا عن ذلك الشخص، فإن برنامج الدردشة الآلي "قد يسرب معلومات حساسة للغاية عن طريق الخطأ".

تقول شركة OpenAI إنها تعمل على "تقليل" هذا الاحتمال، وقال ممثل ChatGPT إنه تم تدريب ChatGPT على عدم تعلم مثل هذه المعلومات أو الكشف عنها. لكن خبراء خصوصية البيانات ما زالوا يعتبرون هذا السيناريو ممكنًا.

"من المؤكد أن أفعالهم تقلل من المخاطر، لكنها ليست مقاومة للرصاص، ومن المحتمل ألا تكون كذلك"، كما قال الدكتور شاجال فيفيركورن. وأضافت: "لا تخف من التكنولوجيا، ولكن كن على دراية تامة بالمخاطر".

وقال عدد قليل من المرضى إنهم قاموا بتنقيح أسمائهم ومسح البيانات الوصفية قبل مشاركة سجلاتهم مع برامج الدردشة الآلية، لكن هذا قد لا يكون كافيًا. قال الدكتور راينو كوشال، رئيس قسم علوم صحة السكان في كلية طب وايل كورنيل ومستشفى نيويورك بريسبيتيريان، إن المعلومات التفصيلية الكافية يمكن في بعض الأحيان ربطها بالأفراد حتى لو لم يتم إرفاق أسماء.

يمكن أن تكون عواقب تسرب المعلومات الصحية خطيرة. على سبيل المثال، على الرغم من أنه من غير القانوني بالنسبة لمعظم أصحاب العمل التمييز ضد الأشخاص ذوي الإعاقة، إلا أن هذا ليس أمرًا غير شائع.

لكن معظم الأشخاص الذين تحدثوا إلى The Times قالوا إنهم لم يكونوا منزعجين.

وقال روبرت جيبهاردت، 88 عامًا، "هاتفي المحمول يتبعني أينما ذهبت"، والذي يطلب من ChatGPT تقييم مدى إلحاح أعراضه ومدى ملاءمة أدويته بالنظر إلى السجلات الطبية التي قام بتحميلها على مدار 15 عامًا. "أي شخص يريد أن يعرف أي شيء عني يمكنه أن يعرف ذلك، بما في ذلك بياناتي الطبية. إنها حقيقة من حقائق الحياة، وقد تصالحت مع ذلك."

روبرت جيبهاردت

كما تعلمون، عمري 88 عامًا وأتمتع بصحة جيدة نسبيًا ولديك تاريخي الطبي في الملف. السؤال الذي أطرحه هو ما إذا كان هناك ارتباك عرضي، أي إذا كنت أعاني من الارتباك العرضي، مثل مرة واحدة كل شهر أو نحو ذلك، فهل هذا دليل على الخرف أو ربما نوبة نقص التركيز الإقفارية أو هل تعلم؟

ChatGPT

يمكن أن تحتوي نوبة قصيرة عرضية من الارتباك مرة واحدة في الشهر أو نحو ذلك على عدة تفسيرات محتملة، وهي في حد ذاتها لا تعني تلقائيًا الخرف. في عمرك وتاريخك الطبي (بما في ذلك الرجفان الأذيني، والسكتة الدماغية الخفيفة السابقة، والدوخة، وتقلب ضغط الدم، والأدوية، والتصوير بالرنين المغناطيسي القادم)، هناك العديد من الأسباب المحتملة، وهذا يتطلب بالتأكيد تقييم الطبيب - ولكن إليك كيفية فهمها.

قامت ستيفاني لاندا، 53 عامًا، بإدخال نتائج الاختبار إلى ChatGPT منذ أن تم تشخيص إصابتها بسرطان الزائدة الدودية النقيلي في العام الماضي. إنها تقدر النظرة العامة المباشرة التي يقدمها ChatGPT لنتائجها، ربما خاصة عندما تكون مدمرة، كما هو الحال عندما أظهرت أن السرطان قد انتشر في جميع أنحاء بطنها. وقالت إنها إذا تعاملت مع الأخبار السيئة قبل زيارة الطبيب، فيمكنها استخدام وقت الموعد بشكل أكثر فعالية.

لفترة من الوقت، قامت بتنقيح المعلومات التعريفية بعناية. لكنها قررت بعد ذلك أنها لم تكن مهتمة حقًا، نظرًا لتشخيص إصابتها بسرطان شرس.

أما بالنسبة للسيدة كير، المرأة التي لم تكن مصابة بورم في الغدة النخامية، فلم يتمكن طبيب الغدد الصماء من مساعدتها بعد استبعاد الورم، ولم يتمكن طبيب الرعاية الأولية الخاص بها من حل اللغز.

لذا فقد عادت إلى ChatGPT للحصول على اقتراحات تشخيصية جديدة ونصائح غذائية، وقد وجدت بعضها مفيدًا.

"أعرف قالت: “إنها معلومات حساسة”. "لكنني أشعر أيضًا أنني لا أحصل على أي إجابات من أي مكان آخر."

شارك تجربتك

من إنتاج ديانا دونيجان.