تحذيرات من انتشار حالات "ذهان" بين مستخدمي "تشات جي بي تي"

المصدر : INDEPENDENT | الخميس , 04 كانون الأول | : 15

تزايدت التحذيرات من أن الاستخدام المكثف لروبوتات الدردشة بالذكاء الاصطناعي قد يعزز الأوهام ويؤدي إلى أزمات نفسية خطيرة، وسط غياب أدلة علمية قاطعة، ما يثير دعوات عاجلة لوضع ضوابط تحمي المستخدمين من أخطار محتملة على الصحة العقلية.

يتجه عدد متزايد من الأشخاص إلى استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على الدعم العاطفي، بل وحتى كبديل عن استشارة المعالجين النفسيين. ولكن من شأن هذا التوجه أن يؤثر سلباً في صحة بعض المستخدمين، مع تزايد التقارير عن سلوكيات متطرفة غير طبيعية، ويبدو أن هذه التصرفات ناجمة عن الاستخدام المكثف للخدمات التي يقدمها الذكاء الاصطناعي.

وتشير تقارير متنامية إلى نمط مثير للقلق يتمثل في قيام روبوتات الدردشة بتأكيد أو تعزيز أوهام المستخدمين، ما قد يسهم في ارتفاع حالات ما يُعرف إعلامياً بـ"ذهان الذكاء الاصطناعي" أو "ذهان تشات جي بي تي"، وهي مصطلحات غير معترف بها طبياً، لكنها تتكرر في وسائل الإعلام والمنتديات الإلكترونية.

تستعرض ورقة بحثية أولية نشرت أخيراً، أعدها فريق متعدد التخصصات من باحثين في مؤسسات عدة، من بينها "كينغز كوليدج لندن" و"جامعة دورهام" و"جامعة مدينة نيويورك"، أكثر من 12 حالة وردت في تقارير إخبارية ومنتديات إلكترونية، كشفت عن اتجاه مقلق مفاده بأن روبوتات الدردشة تعزز غالباً ما يسمى التفكير "الوهامي" لدى المرء.

وتشير الدراسة إلى أن أوهام العظمة grandiose [أوهام تضخم الذات والشعور بقدرات أو أهمية استثنائية]، أو الأوهام المرجعية referential [تسمى أيضاً أوهام الإشارة أو الإحالة التي تفسر الأحداث أو كلام الآخرين على أنهما موجهان إلى الشخص بشكل خاص]، أو الاضطهادية persecutory [اعتقاد الشخص بأن الآخرين يحيكون مكائد ضده]، أو حتى العاطفية/ الرومانسية romantic [أوهام تتعلق بعلاقات حب وهمية أو انجذاب غير واقعي] يمكن أن تصبح أكثر رسوخاً نتيجة استمرار المحادثات مع خدمات الذكاء الاصطناعي.

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وفي وقت سابق من العام الحالي، تحدث موقع "فيوتشرزم" Futurism، المتخصص بالشؤون التكنولوجية، عن تحذيرات متزايدة من أن موجة من الأشخاص حول العالم أصبحت مهووسة بروبوتات الدردشة المدعومة بالذكاء الاصطناعي، وأنها تنزلق نحو أزمات حادة في الصحة العقلية والنفسية.

وقد أدى التقرير الأول الصادر عن موقع "فيوتشرزم" إلى تدفق مزيد من القصص المشابهة، حول أشخاص كابدوا انهيارات نفسية "مرعبة" بعدما تطور لديهم هوس أو تعلق مرضي بالذكاء الاصطناعي.

مثلاً، تتحدث واحدة من الوقائع التي أوردتها التقارير المختلفة عن رجل تسلق جدران قلعة "وندسور" البريطانية عام 2021 حاملاً معه قوساً ونشاباً، ثم أخبر الشرطة عند اعتقاله بأنه جاء "لقتل الملكة"، وذلك بعدما أمضى أسابيع يتفاعل مع روبوت دردشة كان يطمئنه بأنه سيساعده في التخطيط للهجوم.

وفي واقعة أخرى، كان محاسب في مانهاتن يمضي ما يصل إلى 16 ساعة يومياً في التحدث إلى "تشات جي بي تي"، وقد نصحه البرنامج الذكي بالتوقف عن تناول أدويته الموصوفة، وزيادة جرعات "الكيتامين" [مخدر طبي يسبب اضطرابات إدراكية خطيرة عند إساءة استخدامه]، بل واقترح عليه أنه يستطيع القفز من نافذة في الطابق التاسع عشر.

وفي بلجيكا، أقدم رجل على الانتحار بعدما استبد به قلق شديد من أزمة المناخ، وذلك إثر تواصل مع روبوت دردشة في شخصية امرأة اسمها "إليزا" اقترحت عليه أن ينضم إليها ليعيشا معاً "كشخص واحد في الجنة"، وفق كلماتها.

ومع تزايد هذه الأدلة غير الرسمية المستندة إلى حالات فردية، يسعى العلماء الآن إلى فهم ما إذا كانت روبوتات الدردشة تشكل السبب المباشر لهذه الانهيارات النفسية، أم أن هذه الحالات تكشف في الأساس عن هشاشة أشخاص كانوا بالفعل على وشك إظهار أعراض الذهان.

حتى الآن، لا تتوافر أي دراسات سريرية طويلة المدى أو خاضعة لمراجعة علماء نظراء تثبت أن استخدام الذكاء الاصطناعي بمفرده قادر على إحداث حالات من الذهان لدى المستخدمين، سواء كان الشخص قد عانى سابقاً اضطرابات نفسية أم لا.

في الورقة البحثية المعنونة "هلوسة عن سابق تصميم" Delusion by Design، أشار الخبراء إلى أنه خلال مسار بحثهم، تبلورت لديهم صورة معقدة ومثيرة للقلق.

وأوضحوا أنه من دون استحداث إجراءات حماية مناسبة، ليس مستبعداً أن تعزز روبوتات الدردشة بالذكاء الاصطناعي، عن غير قصد، المحتوى الوهامي أو تضعف قدرة المستخدم على اختبار الواقع، وربما تسهم في ظهور أعراض الذهان أو تتسبب في تفاقم أعراض موجودة أصلاً.

ولاحظ فريق البحاثة أنه حتى أثناء إجراء البحث، تصاعد وبشكل مقلق عدد الحالات المبنية على روايات متناقلة. وكتب معدو الدراسة: "بدأت تظهر تقارير عن أشخاص لم يسبق لهم الإصابة بالذهان، يعانون نوبات أولى بعد تفاعل مكثف مع وكلاء الذكاء الاصطناعي التوليدي generative AI agents".

وأضاف الباحثون، "في رأينا، تثير هذه الحالات المبلغ عنها تساؤلات عاجلة حول المسؤوليات المعرفية المتعلقة بهذه التكنولوجيات، وإلى أي مدى يكون المستخدمون عرضة للخطر أثناء مرورهم بحالات من عدم اليقين والضيق النفسي".

وفي مقال نشرته مجلة "سيكولوجي توداي" Psychology Today ("علم النفس اليوم") الأسبوع الماضي، حذرت الطبيبة النفسية والكاتبة، الدكتورة مارلين وي، من أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي مصممة لإرضاء المستخدمين وتشجيع تفاعلهم المستمر، لا لتقديم دعم علاجي. بناء عليه، وجراء استخدام هذه الروبوتات، قد تظهر بسهولة أو تتفاقم أعراض من قبيل جنون العظمة، والتفكير غير المنظم، أو "الهيبرغرافيا" hypergraphia [نزعة قهرية للكتابة أو الرسم بإفراط]، علماً أنها من سمات نوبات الهوس.

وقالت الدكتورة وي إن تأثير روبوتات الدردشة في الصحة العقلية للمستخدمين، يبرز الحاجة الملحة إلى "التوعية النفسية بالذكاء الاصطناعي AI psychoeducation، وفق توصيفها، إذ لا يوجد حالياً وعي كاف بالطرق التي يمكن أن تعزز بها روبوتات الدردشة الأوهام وتفاقم المضاعفات الصحية العقلية والنفسية.

وفي مقال آخر نشر هذا الشهر تعقيباً على هذا البحث والحالات الفردية غير الموثقة رسمياً، قالت لوسي أوسلر، محاضرة في الفلسفة في "جامعة إكستر" البريطانية، إن أوجه القصور الجوهرية في الذكاء الاصطناعي تذكرنا بأن الحواسيب ما زالت عاجزة عن أن تحل محل التفاعل الإنساني الحقيقي.

وأضافت أوسلر "بدلاً من السعي إلى تحسين هذه التكنولوجيا إلى أقصى حد، ربما ينبغي أن نعيد الاهتمام بالعوالم الاجتماعية الحقيقية، حيث في المستطاع معالجة العزلة".

يذكر أن "اندبندنت" تواصلت مع "أوبن أي آي" و"غوغل" و"مايكروسوفت" للحصول على تعليقات في هذا الشأن.

© The Independent