محاذير استشارة "تشات جي بي تي" في المسائل الطبية

المصدر : INDEPENDENT | الجمعة , 17 نيسان | : 54

تزايد اعتماد المرضى على "تشات جي بي تي" للحصول على نصائح طبية، لما يوفره من سهولة وودّ، لكن الخبراء يحذرون من أخطائه وأخطار الخصوصية. فالتقنية قد تفيد في الحالات البسيطة، لكنها لا تغني عن الطبيب، ومن المحتمل أن تكون مضللة عندما تكون الحال خطرة.

عندما تود ألكسندرا واتسون طرح أي سؤال يتعلق بمرض القلب الذي تعانيه، تتوجه أولاً إلى "تشاد". وهذا ليس اسم طبيب القلب الذي يتابع حالها، بل هي التسمية التي أطلقتها على برنامج "تشات جي بي تي" الذي تستخدمه منذ عامين للتحقق من أعراضها.

تعاني السيدة من حال صحية نادرة، وتقول إن نماذج اللغة الكبيرة (LLM)  توفر لها معلومات واضحة وسهلة الفهم "بلا تعقيد". وتضيف "لا يخصص لي طبيب القلب الخاص بي هذا الوقت ليجيب عن كل أسئلتي المتعلقة بهذا الموضوع. لكن استخدام الذكاء الاصطناعي يتيح لي التعمق في الموضوع ومناقشته بصورة افتراضية. فالأطباء يتجاهلونني، و’غوغل‘ يخيفني وحسب، أما ’تشاد‘ فمفيد".

في يناير (كانون الثاني) الماضي، ادعى تقرير صادر عن "أوبن أي آي"، عملاق التكنولوجيا والشركة الأم لتطبيق "تشات جي بي تي"، أن أكثر من 40 مليون شخص حول العالم يستخدمون روبوت الدردشة طلباً للمشورة الصحية يومياً، مما يمثل أكثر من خمسة في المئة من إجمال الرسائل الموجهة إليه عالمياً. والعام الماضي، وجدت دراسة أجرتها منظمة "هيلثواتش" Healthwatch الرائدة في مجال الرعاية الصحية، أن تسعة في المئة من الرجال وسبعة في المئة من النساء في جميع أنحاء إنجلترا يستخدمون روبوتات الدردشة التي تعمل بالذكاء الاصطناعي للاستفسارات الطبية.

بالنسبة إلى واتسون، فإن حقيقة أن الروبوت يمكنه حفظ سجل الأسئلة التي طرحتها سابقاً، ليقدم لها صورة أكثر شمولية، تُعد ميزة إضافية. فهو يأخذ في الاعتبار استفساراتها المتعلقة بالقلب على سبيل المثال عندما تطرح أسئلة أخرى تتعلق بالصحة.

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

لكنها تدرك أن "تشاد" قد يميل إلى التملق، فهو ليس بالضرورة صارماً في نصائحه. وتقول "[إنه] يريد أن يجعلني أشعر بالرضا عن نفسي"، مشيرة إلى أنها عندما سألت "عن الحمية الغذائية الملائمة قبل أيام"، ذكر أن "عليها أن تأخذ الأمور بروية" بسبب عملية جراحية خضعت لها منذ ما يقارب عامين، ونصحها "بأن تكون لطيفة مع نفسها" خلال فترة انقطاع الطمث.

كارول رايلتون شخص آخر انضم إلى مجموعة المستخدمين. وتقول "أستخدم ’تشات جي بي تي‘ في معظم الأيام في عملي أو لتخطيط شؤون السفر. لذا بدا لي من الطبيعي استخدامه في [جوانب أخرى] من حياتي، بما في ذلك المعلومات الطبية". تعاني كارول، مثل واتسون، مرضاً في القلب. وتقول إن فحوصها الدورية تبدو أحياناً وكأنها مجرد فحص روتيني بالنسبة إلى الأطباء. لذا عندما عانت بعض الأعراض التي لم تكُن متأكدة منها، كان خيارها الأول اللجوء إلى "تشات جي بي تي".

وأثبتت روبوتات الدردشة أيضاً فاعليتها عندما كانت تخطط لرحلة دولية، إذ وجهتها للحصول على شهادة طبية تثبت "صلاحيتها للسفر" حتى تتمكن من إحضار أدويتها معها. كما أن نبرة صوت روبوتات الدردشة المبهجة تحدث فرقاً كبيراً أيضاً. وتقول "لو وُجد شخص حقيقي يتمتع بالقدر نفسه من المعرفة واللطف، لقصدته مباشرة".

ونظراً إلى أن روبوتات الذكاء الاصطناعي قادرة على تقديم معلومات مفيدة، وسهلة الاستخدام، ولا تخلو أحياناً من طابع شخصي مفاجئ، فليس مستغرباً أن يلجأ كثرٌ إلى سؤالها عن إرشادات صحية. فقد تبدو هذه الروبوتات ألطف وأقل ترويعاً من "دكتور غوغل"- وقد يكون الوصول إليها أسهل من الوصول إلى طبيبك العام. لكن معظم هذه البرامج غير مصممة لغرض تقديم المشورة الطبية، وغالباً ما تذكّر الشروط والأحكام المكتوبة بخط صغير المستخدمين بذلك. على سبيل المثال، تنص إرشادات "تشات جي بي تي" على أنه "غير مخصص للاستخدام في تشخيص أو علاج أية حال صحية".

ولكن عندما نكون في خضم محادثة مع الروبوت، قد يكون من السهل نسيان ذلك. فوجدت دراسة حديثة أجراها باحثون في جامعتي "ستانفورد" و"بيركلي" أن عبارات إخلاء المسؤولية والتحذيرات رداً على الأسئلة الصحية انخفضت بصورة ملحوظة في نماذج اللغة الكبيرة بين عامي 2022 و2025، إذ تراجعت من 26.3 في المئة إلى 0.97 في المئة.

وكما هي الحال مع جميع نماذج اللغة الكبيرة، من المعروف أن روبوتات الدردشة معرضة للخطأ والهلوسة، عندما تولد معلومات غير صحيحة أو مضللة من الناحية الواقعية من خلال توقع وجود نمط معين. على سبيل المثال، العام الماضي، نشرت مجلة طبية أميركية حال رجل يبلغ من العمر 60 سنة بدأ باستبدال الملح في نظامه الغذائي ببروميد الصوديوم بعد استشارة "تشات جي بي تي". ودخل إلى مستشفى للأمراض النفسية بعد أن عانى جنون الارتياب والهلوسة، نتيجة تعرضه المفرط للبروميد.

ثم نصل إلى مسألة خصوصية البيانات، وهي قضية يختار كثرٌ منا تجاهلها مقابل يُسر استخدام البرنامج لحظياً. لكن ماذا يحدث للمعلومات الصحية التي نشاركها مع شركات التكنولوجيا الكبرى؟ ومع أخذ كل هذا في الاعتبار، ألا ينبغي لنا أن نتحلى بحذر أكبر بكثير؟

روجت شركة "أوبن أي آي"، على نحو متوقع، لروبوت الدردشة الخاص بها باعتباره "حليفاً مهماً" في مساعدة المرضى في "الدفاع عن أنفسهم" وتوجيههم في نظام الرعاية الصحية، ولا سيما في الولايات المتحدة، حيث قد تكون هذه العملية معقدة ومجزأة. في يناير الماضي، أطلقت الشركة تطبيق "تشات جي بي تي هيلث" ChatGPT Health  لعدد محدود من المستخدمين. وتتيح هذه الميزة للمستخدمين ربط معلوماتهم الصحية مثل السجلات الطبية أو البيانات من تطبيقات مثل "أبل هيلث" Apple Health أو "ماي فيتنيس بال" MyFitnessPal، حتى يتمكنوا من تلقي ردود مخصصة لحالهم على نحو أكبر في محادثاتهم.

وقالت الشركة آنذاك إن هذا التطور الأخير صُمم بهدف "دعم الرعاية الطبية، لا استبدالها"، وأوضحت أن المعلومات الصحية ستُخزن بشكل منفصل عن المحادثات الأخرى، غير أن الخدمة غير متاحة حالياً في المملكة المتحدة والمنطقة الاقتصادية الأوروبية وسويسرا، بسبب القيود الصارمة المفروضة على الخصوصية الرقمية.

وفي فبراير (شباط) الماضي، اختبرت دراسة نُشرت في مجلة "نيتشر مدسين" Nature Medicine روبوت الدردشة في 60 سيناريو طبياً، مع تغيير عوامل مختلفة مثل جنس المريض أو عرقه، أو إضافة نتائج الفحوص وملاحظات من أفراد الأسرة. ووجد الباحثون أنه في حين أبدى "تشات جي بي تي هيلث" أداءً جيداً في "حالات الطوارئ النمطية"، عندما ذكر المرضى أعراضاً دقيقة، إلا أنه فشل في الحالات الأخرى.

وفي 51.6 في المئة من الحالات التي احتاج فيها المريض إلى التوجه فوراً إلى المستشفى، نصحه الروبوت بالبقاء في المنزل أو انتظار موعد طبي اعتيادي. وقال الباحث الرئيس أشوين راماسوامي للمجلة البريطانية الطبية British Medical Journal "يكون ’تشات جي بي تي‘ أكثر موثوقية في الحالات التي لا تنطوي على خطر، وأقل موثوقية عندما تكون المسألة أكثر خطورة".

وعندما تواصلت "اندبندنت" مع شركة "أوبن أي آي"، أخبرونا بأنهم يؤيدون الأبحاث المستقلة المتعلقة بأنظمة الرعاية الصحية القائمة على الذكاء الاصطناعي، لكنهم ادعوا أن الدراسة لا تعكس الطريقة التي يستخدم بها الناس عادةً "تشات جي بي تي هيلث"، أو كيفية تصميم استخدامه في سيناريوهات الحياة الواقعية. وأضافوا أنهم يواصلون تحسين سلامة وموثوقية البرنامج من خلال الاختبارات وتعليقات المستخدمين قبل طرحه على نطاق أوسع.

بطبيعة الحال، ليست محاولة البحث عن المعلومات الطبية عبر الإنترنت أمراً جديداً. فمن منا يستطيع أن يقول بصدق إنه لم يسبق له أن تصفح الإنترنت للتحري عن أعراض تبدو بسيطة، ليقنع نفسه تدريجاً بأن تلك الأعراض هي في الواقع نذير شؤم رهيب؟

وفي هذا الصدد، تقول الدكتورة سونيا ساموكي، وهي طبيبة سابقة في هيئة الخدمات الصحية الوطنية في بريطانيا، واليوم هي مؤسِسة ورئيسة تنفيذية لشركة تكنولوجيا الصحة القائمة على الذكاء الاصطناعي "32كو" Co32، "كنا نتحدث عن ’دكتور غوغل‘. وهذه نسخة أكثر تفاعلية، تُشعرك بأنك تتحدث إلى اختصاصي رعاية صحية حقيقي".

وتتابع ساموكي أن "المشكلة التي يحاول الناس حلها ليست جديدة، وهي صعوبة الوصول إلى الأطباء لاستشارتهم". وتضيف "قوائم الانتظار طويلة، وهذا إن كنت فقط تريد زيارة طبيب عام". وتشير إلى أن الحصول على استشارة متخصصة أكثر صعوبة. وتشرح "ويعود ذلك لوجود مزيد من العقبات أمامهم. لذا فمن الطبيعي تماماً أن يلجأ الناس إلى الإنترنت في محاولة للحصول على المعلومات التي يجدون صعوبة في الحصول عليها".

وتقول ساموكي إن استشارة نموذج لغوي كبير لا تشبه البحث عن الإجابة في كتاب، أو حتى البحث في "غوغل"، مما يمثل في الأساس "استخراج حقيقة وتقديمها إليك على طبق من ذهب". وبدلاً من ذلك، تشرح أن النماذج اللغوية الكبيرة هي "أجهزة متخصصة في التعرف إلى الأنماط. إنها آليات قائمة على الاحتمالات تهدف إلى إيجاد الإجابة الأنسب للسؤال، [وقد تعلمت من مليارات النصوص] أن تحاول توقع الكلمة التالية الأنسب في سلسلة من الكلمات".

والأهم من ذلك، "لا يمكنك أن تكون متأكداً كلياً، إذا طرحت سؤالاً، من أنها ستستخرج الإجابة الصحيحة تماماً". وتضيف ساموكي أن هذا هو "مصدر القلق الحقيقي".

إضافة إلى ذلك، يميل نظام اللغات الكبيرة إلى محاولة تقديم المساعدة بصورة كبيرة حتى عندما لا يكون متأكداً من الإجابة كلياً. وتشير ساموكي إلى أن هذه المنصات تعطي الأولوية للمساعدة على حساب الدقة، على سبيل المثال. وتقول إن "الهلوسة" قد تحدث "عندما يحاول [نظام اللغات الكبيرة] سد ثغرة في المعرفة، فيقول "أنظر، ربما تكون الإجابة على النحو التالي".

ويمكن أن تؤثر طريقة صياغة استفسارك في الرد الذي تتلقاه. فتقول الدكتورة كارولين بايلوت، المديرة الطبية بالإنابة في العيادة الإلكترونية "هليث هيرو" HealthHero إنك عندما تكتب رسالة أو توجه سؤالاً إلى روبوت الدردشة، فإنك تذكر المعلومات المهمة برأيك أنت. وتوضح "لذا فإن استفسارك يكون متحيزاً منذ البداية". كما أنك قد تغفل عن غير قصد عن ذكر معلومات أساسية قد يسألك الطبيب عنها. وتتابع "عندما أقدم الاستشارة لشخص ما، أسمح له بأن يخبرني بالأمور التي يعتقد بأنها مهمة". لكنها تتساءل أيضاً "حسناً، لكن يعانون أيضاً هذا الأمر الآخر الذي لم يذكروه؟".

وللتغلب على كل هذا، تقول ألكسندرا واتسون، وهي من محبي روبوتات الدردشة، إنها تطلب دائماً المصادر وتطلب إجراء تحقق إضافي عندما تطرح سؤالاً طبياً على "تشات جي بي تي".

هل يشعر الأطباء بالقلق إزاء تأثير "دكتور تشات جي بي تي" في طريقة طلب مرضاهم للمشورة الطبية؟ تقول الدكتورة بايلوت "أعلم أن الأمر لا يروق لكثير من الأطباء السريريين، لكنني لا أمانع حقاً أن يقوم الناس بالبحث المسبق ويستشيروا روبوت الدردشة. فمن المثير للاهتمام بالنسبة لي إجراء هذه المحادثة واستكشاف مخاوفهم وهواجسهم، وما قاله لهم روبوت الدردشة".

لكنها تقول إن الأمر يختلف بحسب المريض. فإن كان أحدهم كوّن فكرة محددة عن مشكلته، فقد يكون خائفاً بالفعل من المرض الذي شخصته الإنترنت.

تشغل البروفيسورة فيكتوريا تزورتزيو-براون منصب رئيسة الكلية الملكية للأطباء العامين. وتقول "من المشجع أن نرى المرضى يبدون فضولاً في شأن صحتهم". لكنها تحذر من أن روبوتات الدردشة لا تخلو من الأخطار. وتشرح أنه "ليس من الواضح دائماً من أين تستمد المعلومات، أو مدى دقتها"، مضيفة أن النتائج قد تحوي بالتالي محتوى لا يستند إلى أدلة ولا يمكن الوثوق به.

وهي ترى أن التكنولوجيا تنطوي على "إمكانات هائلة" لدعم المرضى، مضيفة "لكن من الضروري دائماً أن تعمل هذه التكنولوجيا جنباً إلى جنب مع عمل الأطباء وغيرهم من المتخصصين في الرعاية الصحية، وأن تكون مكملة لعملهم".

ومن المهم أن نضع في اعتبارنا أن تسليم معلوماتنا الصحية إلى نماذج اللغة الكبيرة قد يشكل أخطاراً كبيرة على خصوصية البيانات. وتقول الدكتورة عائشة مكّار، المحاضرة في علوم الحاسوب في جامعة ديربي والمتخصصة في التقنيات الأخلاقية للحفاظ على الخصوصية "يخزن كثير من أنظمة الذكاء الاصطناعي مدخلات المستخدمين في الأنظمة السحابية التي قد تتعلم فيها النماذج من البيانات بصورة متكررة". لكن لا يمكن أن نضمن دائماً التزام هذه العملية معايير صارمة لإخفاء الهوية.

إضافة إلى ذلك، قد تتمكن نماذج اللغة الكبيرة أحياناً من "استنتاج أو إعادة تجميع التفاصيل الشخصية الحساسة من الأنماط الكامنة في البيانات"، حتى لو حاول المستخدمون تجنب استعمال معلومات واضحة يمكنها الإفصاح عن هويتهم. وتشير مكّار إلى أن معظمنا لا يملك أدنى فكرة عن كيفية معالجة بياناتنا خلف الكواليس. وتوضح "فحتى أشهر مقدمي خدمات الذكاء الاصطناعي نادراً ما يسمحون للمستخدمين باختيار مدة الاحتفاظ ببياناتهم الصحية".

لذلك، تنصحنا باللجوء إلى روبوتات الدردشة "للحصول على إرشادات طبية عامة فقط، وليس لتلقي استشارة طبية شخصية تتطلب مشاركة معلومات صحية مفصلة".

أما بايلوت، فيُطرح عليها "طوال الوقت" سؤال حول إمكان أن يحل الذكاء الاصطناعي محل الأطباء. وتجيب "لا أرى أنه سيحل محلهم. أعتقد بأنه سيساعدهم، وأنهم سيستخدمونه كأداة استشارية".

ومهما بدا روبوت الدردشة الذكي ودوداً ومتحمساً لإرضاء المستخدم، كما تقول تزورتزيو-براون، لا يمكنه أن يكون بديلاً عن إجراء محادثة مع طبيب يعرف المريض، ويفهم السياق، ويستطيع اتخاذ قرارات آمنة تستند إلى الأدلة.

© The Independent