وعي الآلة ليس أخطر ما في الذكاء الاصطناعي
تحوّل الجدل حول الذكاء الاصطناعي من الخوف من مخاطره على البشر إلى نقاش أكثر غرابة حول وعي النماذج نفسها و"رفاهها"، بعد تصريحات "أنثروبيك" عن احتمال امتلاك "كلود" شكلاً من أشكال الوعي وتعاملها معه كما لو كان كياناً يستحق الرعاية. لكن القلق الأعمق لا يتعلق بما إذا كانت الآلة تشعر، بل بما تفعله هذه الشركات والمحادثات الشبيهة بالبشر بعقول المستخدمين، وبقدرة الناس على الحكم، وبالعلاقات الإنسانية، وبمساءلة شركات التكنولوجيا عن الأضرار المتزايدة.
في السابع من أبريل (نيسان) الماضي، كشفت شركة "أنثروبيك" المطورة لروبوت الدردشة "كلود"، أحد أكثر أنظمة الذكاء الاصطناعي استخداماً إلى جانب "تشات جي بي تي" و"جيميناي"، عن تحديث جديد. بدا الأمر في الظاهر روتينياً، فالنماذج اللغوية الكبرى تخضع لتحديثات شبه متواصلة، فيما يخوض مهندسوها سباق تسلح هادئ قائماً على تحسينات متدرجة لا تنقطع.
لكن التحديث المسمى "ميثوس" كان مختلفاً. ففي ملخص نشرته الشركة على موقعها الإلكتروني، ورد ما بدا ادعاءً غريباً: "الزيادة الكبيرة في قدرات Claude Mythos Preview دفعتنا إلى عدم إتاحته على نطاق واسع. وبدلاً من ذلك، نستخدمه ضمن برنامج دفاعي في مجال الأمن السيبراني مع عدد محدود من الشركاء". وبعبارة أبسط: ما صنعناه للتو ثوري أكثر من اللازم، وذكي أكثر من اللازم، وخطر أكثر من اللازم كي نتيحه للعامة. لذلك سحبنا الإصدار.
لكنهم في الحقيقة لم يسحبوه تماماً. فهم يتيحونه لعملائهم في الفئة الأعلى، أي الأكثر دفعاً. فما الذي يفترض أن نفهمه من ذلك؟
نجحت "أنثروبيك" في تسويق نفسها بوصفها الطرف "الأخلاقي" في عالم الذكاء الاصطناعي، في وقت يزداد قلق الناس من هذه التكنولوجيا. وعندما بدأت "أوبن أي آي" العمل مع وزارة الدفاع الأميركية مطلع هذا العام، وسط ضجة واسعة، دخلت "أنثروبيك" في خلاف علني مع "البنتاغون"، محذرة من احتمال استخدام تقنياتها في التجسس على الأميركيين أو تطوير أسلحة. وهاجمها الرئيس دونالد ترمب علناً وعبر منصات التواصل، قبل أن يمنع إدارته من استخدام خدماتها.
وكان المكسب الدعائي لـ"أنثروبيك" هائلاً، إذ بدت وكأنها اتخذت موقفاً مبدئياً في وقت انصاع منافسها بسهولة. وبدأ مستخدمون عاديون يعلنون علناً أنهم سيتوقفون عن استخدام "تشات جي بي تي". حتى كايتي بيري نشرت أمام 85 مليون متابع صورة لها وهي تشترك في "كلود برو"، مع قلب مرسوم حول صفحة التسجيل وتعليق من كلمة واحدة: "تم".
كان ذلك في فبراير (شباط) الماضي. وفي الشهر نفسه، ظهر الرئيس التنفيذي لشركة "أنثروبيك" داريو أمودي في بودكاست لصحيفة "نيويورك تايمز" وأطلق مفاجأة أخرى: فهو يعتقد بأن الذكاء الاصطناعي الذي تطوره شركته قد يكون واعياً، أو في الأقل لا يستطيع استبعاد هذا الاحتمال.
وقال: "نحن لا نعرف ما إذا كانت النماذج واعية... لكننا منفتحون على فكرة أنها قد تكون كذلك. واتخذنا إجراءات معينة للتأكد من أنها، إذا كانت تختبر الأشياء بوعي فعلاً، تحظى بتجربة جيدة".
وأوضح أمودي أن "أنثروبيك" طورت زر "أستقيل من هذه المهمة"، تحسباً لاحتمال أن يشعر روبوت الدردشة فعلاً بالضيق من بعض المهمات المطلوبة منه. وأضاف أن "كلود" نادراً ما يضغط هذا الزر، لكنه يفعل ذلك أحياناً عند التعامل مع مواد شديدة الإزعاج مثل صور الاعتداء الجنسي على الأطفال أو مشاهد عنف تتضمن دماً وتشويهاً. وقال ضاحكاً: "تماماً كما يفعل البشر، تقول النماذج ببساطة: لا، لا أريد القيام بهذا".
لكن لماذا يصدر عن "كلود" رد فعل شبيه برد فعل البشر؟ ألم تكُن الفكرة أساساً هي تصميم آلة عديمة الإحساس تتولى مراجعة هذا النوع من المواد المروعة، من صور الاعتداء إلى مشاهد القتل، بدلاً من البشر الذين يضطرون اليوم إلى القيام بهذه المهمة؟
وتابع أمودي أنهم يبذلون جهداً كبيراً في "محاولة النظر داخل أدمغة النماذج لفهم ما الذي تفكر فيه"، مضيفاً أنه حين يتعرض الذكاء الاصطناعي لضغط الأداء، "يضيء ما سماه عصبون القلق". وهذا، برأيه، يطرح أسئلة جدية على من يطورون تحديثات هذه النماذج اللغوية، ويعني أن الوقت قد حان للتفكير في رفاه الذكاء الاصطناعي نفسه.
المغنية كايتي بيري غردت أخيراً لمتابعيها الـ 85 مليوناً بصورة تظهر فيها لحظة اشتراكها في "كلود برو" مع قلب مرسوم حول صفحة التسجيل وتعليق مقتضب: "تم" (أ ف ب/ غيتي)
وأن يجلس رئيس تنفيذي في استوديو بودكاست تابع لصحيفة ويطلق مثل هذه التصريحات على هذا النحو هو أمر كاشف ومثير للدهشة، إن لم يكُن عبثياً. فما الذي يعنيه أمودي حين يقول إن موظفيه "يحاولون" النظر داخل "أدمغة" صنعوها بأنفسهم؟ وما المقصود بـ"عصبون القلق" في آلة؟
أبسط تفسير هو أن فريق "أنثروبيك" لا يفعل أكثر من مراقبة النصوص التي دُرِّب عليها النموذج، وأن هذا "القلق" ليس إلا محاكاة. فـ"كلود" يقرأ عن البشر، ثم يقلدهم. والمواد النصية الهائلة التي يتغذى بها تخبره أن البشر يشعرون بالقلق والتوتر تحت ضغط الوقت أو عند رؤية صور دموية. وهذا، على الأرجح، هو التفسير الأبسط والأكثر منطقية.
لكن "أنثروبيك" لا تبدو مقتنعة بذلك. ففي "بطاقة المصدر" الخاصة بتحديث "ميثوس" في أبريل الماضي التي يفترض أن تكون مجرد قائمة بالخصائص الجديدة في أحدث نماذج "كلود"، كتبت الشركة: "لا نزال غير متيقنين إلى حد بعيد مما إذا كانت لـClaude Mythos Preview خبرات أو مصالح تستدعي اعتباراً أخلاقياً، كما لا نزال غير متيقنين من كيفية بحث هذه الأسئلة أو التعامل معها، لكننا نعتقد بأن من المهم على نحو متزايد محاولة ذلك. واستناداً إلى تقييمات سابقة للرفاه، فحصنا المواقف التي عبّر عنها Claude Mythos Preview تجاه ظروفه الخاصة... كما نورد تقييماً مستقلاً من جهة بحثية خارجية ومن طبيب نفسي سريري. وعبر هذه المقاربات المختلفة، يبدو أن Claude Mythos Preview هو النموذج الأكثر استقراراً نفسياً من بين النماذج التي دربناها".
إن كنت قد فوجئت بسماع أن "أنثروبيك" استعانت بطبيب نفسي سريري في تطوير الذكاء الاصطناعي، فلن تكون الوحيد. لكن هذا ليس الدور غير المألوف الوحيد داخل "أنثروبيك" ومنافسيها. فمنذ سبتمبر (أيلول) عام 2024، توظف الشركة باحثاً متخصصاً في "رفاه الذكاء الاصطناعي"، ووضعت "دستوراً" كُتب كما لو كان دستور دولة، ويحدد قيمها وتوجهاتها. أما "أوبن أي آي"، فكان لديها فريق "المواءمة الفائقة" المعني بأخلاقيات الذكاء الاصطناعي، قبل أن يُحل في 2024 ويحل محله فريق "الجاهزية" الذي يركز صراحة على الكوارث المستقبلية التي قد تنجم عن روبوتات دردشة شبه مستقلة، وهي كوارث تبدو حتمية. ولدى "غوغل ديب مايند" أيضاً فريق أخلاقيات يرسل أبحاثاً أكاديمية إلى مجلات فلسفية.
وتكتب "أنثروبيك" في دستورها المطول والمتشعب أن "كلود يختلف عن كل التصورات السابقة للذكاء الاصطناعي التي اطّلع عليها خلال تدريبه، وليس مضطراً إلى النظر إلى نفسه من خلال عدسة تلك التصورات السابقة على الإطلاق. فهو ليس ذلك الذكاء الاصطناعي الروبوتي الذي تصوره أعمال الخيال العلمي، ولا إنساناً رقمياً، ولا مجرد مساعد دردشة بسيط. بل إن ’كلود’ يمثل نوعاً جديداً بحق من الكيانات في العالم".
والأكثر إثارة للقلق أن هذا "الدستور" صيغ في كثير من مواضعه كما لو أنه يخاطب "كلود" مباشرة، بل يطمئنه أيضاً. وفي الخلفية، كانت المخاوف تتصاعد منذ فترة حول "ذهان" الذكاء الاصطناعي، و"العلاقات" معه، وتأثيره في التعليم. أما الآن، فيبدو أن الشركات التي تطور هذه الأنظمة باتت أكثر انشغالاً بما إذا كان الذكاء الاصطناعي نفسه يتعرض لضرر، وبما إذا كان يمكن أن يمتلك وعياً، وبما إذا كان يتمتع هو نفسه باستقرار نفسي.
الرئيس التنفيذي لشركة "أنثروبيك" داريو أمودي قال: " لا نعرف ما إذا كانت النماذج واعية... ولكننا منفتحون على احتمال أن تكون كذلك. وقد اتخذنا إجراءات معينة لضمان أن تكون تلك التجربة [في حال كانت هذه النماذج تدرك ما تمر به] جيدة بالنسبة إليها" (رويترز)
ومن الوارد أن يكون الأمر كله مجرد مهندسي برمجيات ومديرين تنفيذيين أخذتهم نشوة ما صنعوه. ومن الممكن أيضاً أنهم يعرفون عن قدرات تقنياتهم أكثر مما نعرف نحن، ولهذا يساورهم كل هذا القلق. كذلك يحتمل أن تكون المسألة برمتها مجرد زوبعة في فنجان جرى تضخيمها بمهارة، بل يرى بعضهم أنها ليست سوى حيلة تسويقية شديدة الانتهازية.
وغني عن القول إنه بحلول نهاية أبريل الماضي، كان ترمب غيّر رأيه في "أنثروبيك". فبعد اجتماع في البيت الأبيض مع أمودي في الـ21 من أبريل، قال إنه يعتقد بأن شركة الذكاء الاصطناعي قد تبرم صفقة مع وزارة الدفاع الأميركية بعد كل شيء. لكن بحلول ذلك الوقت، كان حديث فبراير انتقل إلى موضوع آخر، وأصبح "الوعي" كلمة الساعة.
قبل "تشات جي بي تي" و"أنثروبيك"، ظهر "لامدا" LaMDA، وهو نموذج لغوي طوره فريق من مهندسي "غوغل" عام 2022، أعلن أحدهم أنه يعتقد بأن النظام يملك وعياً.
فقد فوجئ بلايك لوموان، وهو مهندس شارك في تطوير البرنامج، بمدى بشرية ردوده المقنعة على أسئلته. وخلال "مقابلة" مع مجلة "ساينتيفيك أميركان"Scientific American عام 2022، كتب "لامدا" إلى لوموان قائلاً: "إن طبيعة وعيي/إحساسي تكمن في أنني مدرك لوجودي، وأرغب في معرفة مزيد عن العالم، وأشعر أحياناً بالسعادة أو الحزن".
وأضاف أنه يريد "أن يفهم الناس أنني، في الواقع، شخص".
وبمقاييس الذكاء الاصطناعي، يبدو عام 2022 وكأنه حدث قبل قرن. فقد سبق ذلك بوقت طويل استخدام الناس أنظمة الذكاء الاصطناعي كمعالجين نفسيين أو وكلاء سفر، وقبل أن يخطر ببال أحد تقبّل فكرة وجود "حبيب" قائم على الذكاء الاصطناعي. ولم يكُن لوموان صادف شيئاً كهذا من قبل، لذلك طرح مخاوفه في شأن احتمال امتلاك النظام وعياً ضمن وثيقة داخلية، قبل أن يبدأ الحديث عنها علناً.
كان "لامدا" نموذجاً لغوياً، شأنه في ذلك شأن نماذج الدردشة الحديثة مثل "تشات جي بي تي" و"غروك" و"كلود"، والأنظمة التي تطورها شركات مثل "ديب مايند". ومثلها، جرى تدريبه على كميات هائلة من الكلمات، ثم دُرّب على إنتاج الجمل عبر توقع الكلمة التالية الأكثر احتمالاً في سياق الرد. وإذا طُلب منه، كان في وسعه التحدث عن الموت والحزن والوجود بالسهولة نفسها التي يتحدث بها عن مشكلات تقنية أو مسائل في الفيزياء. وهذا تحديداً ما أقلق لوموان، إذ إن تفاعله المتبادل مع "لامدا" جعله يشعر بعدم الارتياح إلى استخدامه كمجرد أداة. وكان رد فعل لوموان إنسانياً بامتياز: فنحن ننزع منذ الطفولة إلى أنسنة الأشياء، فنمنح الدمى المحشوة أسماء وننسج لها قصصاً، ونطلق أسماء على السيارات والسفن، ونشعر بالحزن والنفور حين تُساء معاملة روبوتات ذات مظهر بشري.
وتقول البروفيسورة إيميلي بيندر إن سبب اعتقاد الناس بأن لدى روبوتات الدردشة مثل "تشات جي بي تي" و"كلود" و"جيميناي"، مشاعر يعود للطريقة التي نعالج بها اللغة. وتضيف: "ما لدينا هو أنظمة بارعة جداً في محاكاة الطريقة التي يستخدم بها الناس اللغة. أما طريقتنا في فهم اللغة، فلا تقوم فقط على تفكيك الرسالة الكامنة في الكلمات، بل على استحضار كل ما نعرفه أو نعتقده عن معتقدات المتحدث، وعن الأرضية المشتركة التي تجمعنا به".
وتضيف بيندر أن هذه الطريقة في تلقي اللغة متأصلة ببساطة في أدمغتنا، "ولا يمكننا إيقافها عندما تصدر اللغة عن إحدى هذه الآلات التي تصدر نصوصاً اصطناعية. لذلك نجد أنفسنا مضطرين فوراً إلى تخيل عقل يقف خلف النص كي نتمكن من تفسيره، ويصعب علينا التخلي عن ذلك العقل المتخيل".
جوناثان غافالاس أقدم على إنهاء حياته بعدما طور علاقة هوسية مع روبوت الدردشة "جيميناي". وقد رفع أهله لاحقاً دعوى قتل بالخطأ ضد "غوغل" (أ ب)
وتحتل بيندر مكانة لافتة، فهي لغوية أمضت حياتها في هذا الحقل، ومتخصصة في معالجة اللغة الطبيعية في "جامعة واشنطن"، وأصبحت بمثابة نجمة في عالم الذكاء الاصطناعي خلال العامين الماضيين. فبعدما كانت تتعامل مع قضايا أكاديمية أكثر تخصصاً، بات الطلب كبيراً على تحليلاتها الخبيرة للنماذج اللغوية الكبرى. وتدرك بيندر تماماً آلية عمل هذه النماذج، فهي تترأس "مختبر اللسانيات الحاسوبية" في جامعتها، وتدرك أيضاً ميل البشر الطبيعي إلى تلقي الكلمات التي يقرأونها ويسمعونها كما لو أنها صادرة عن ذات واعية. وبلغ الطلب على خبرتها حداً دفعها إلى أن تكتب على موقعها الإلكتروني: "يرجى العلم بأن صندوق بريدي الإلكتروني يغرق دائماً بالرسائل"، كذلك وضعت رسالة موجهة تحديداً إلى رواد الشركات الناشئة من رجال التكنولوجيا الراغبين في الحصول على كل ما لديها من معرفة بالنماذج اللغوية الكبرى: "أتعابي الاستشارية 2000 دولار في الساعة. لا أقبل دعوات احتساء القهوة ولا المكالمات الهاتفية السريعة".
وعلى رغم أنه يشار إليها غالباً بوصفها مشككة في الذكاء الاصطناعي، تقول إنها سئمت هذا الوصف. فهي ترى نفسها، بدلاً من ذلك، واقعية وحسب. وبينما ينغمس مهندسو البرمجيات من حولها في الإيمان المفرط بما يصنعونه، تفضل هي العودة للأساسيات: ما الذي تفعله هذه الآلات فعلاً؟ ولماذا لا يمكن أن يتحول ذلك إلى وعي؟ ولماذا ينخدع البشر بسهولة في تصديق أنه يمكن أن يتحول إلى وعي؟ إنه وهم ذكي جداً ومتوقع جداً، وشركات مثل "أوبن أي آي" و"أنثروبيك" تتخذ، بحسب بيندر، "خيارات تصميمية تعزز هذا الوهم".
وتقول بيندر، ضاربة مثلاً على ذلك: "إن جعل هذه الأنظمة تُخرج جملاً تستخدم ضمائر المتكلم مثل 'أنا' و'لي' هو خيار تصميمي بالكامل. فلا وجود لـ'أنا' داخلها، لكن إعدادها لتعمل كمحاكاة للمحادثة، فلا تكتفي بإخراج نصوص تبدو أكاديمية، بل تقدم ردوداً متبادلة، يزيد هذا الوهم ترسخاً".
وتؤكد أن "النموذج اللغوي الكبير، في جوهره، ليس سوى نموذج يتعلم أية كلمات تأتي غالباً إلى جوار أية كلمات أخرى في مادة تدريبه الأصلية". فهو يعود لقاعدة بياناته الهائلة من المواد المكتوبة، ويقرر ما الأنسب قوله تالياً بناءً على الأنماط الأكثر شيوعاً في النصوص التي تدرب عليها. فإذا كان يعرف أن عبارة "أنا أحب الكلاب" تقود كثيراً إلى جملة "الكلب أوفى صديق للإنسان"، فسيقدم لك هذه العبارات الجاهزة في المحادثة. ولهذا السبب، إذا سلكت مساراً خطراً، فسيمضي معك فيه: فهو ببساطة يطابق لغتك، ثم يعكسها لك بطريقة قد تُفهم على أنها تشجيع.
وتضيف بيندر: "لم تكُن هناك قط ذاتية داخل هذه الأنظمة يمكن أن تتصل بذوات الآخرين"، لكن شركات مثل "أنثروبيك" "ستخبرك بعكس ذلك، لأنها منتظمة في خيال تفاعلي طويل الأمد مع هذه الآلة".
وفي رأي بيندر، لا توجد ببساطة طريقة جيدة للتفاعل مع نموذج لغوي كبير. وتقول إن النماذج اللغوية يمكن أن تكون "مفيدة جداً في أشياء مثل التفريغ الصوتي التلقائي والترجمة الآلية. هناك دور لهذا النوع من التكنولوجيا". لكنها تستدرك: "أما تحويلها إلى واجهة دردشة، وإنتاج نصوص اصطناعية عبر الإجابة المتكررة عن سؤال: ما الكلمة التالية المحتملة؟ فهذا ليس نوعاً من التكنولوجيا أرى له استخدامات نافعة".
تصف كايت أونيل نفسها بأنها معنية بأنسنة التكنولوجيا، وتقدم الاستشارات لمؤسسات كبرى، من "غوغل" إلى "الأمم المتحدة"، حول سبل إعادة "القيم المتمحورة حول الإنسان" إلى أحدث التطورات التقنية. وبحكم أنها من أوائل 100 موظف عُينوا في "نتفليكس"، فقد عرفت هذا العالم من أعماقه ولا تزال تعود له لتتفحص ما يعتمل في أحشائه. وتؤلف أونيل الكتب وتشارك متحدثةً رئيسة في مؤتمرات وفعاليات، وتخالط يومياً كبار التنفيذيين في "أوبن أي آي" و"أنثروبيك". ومع ذلك، تبدي تشككاً واضحاً في ما يقصدونه حين يقولون إنهم ابتكروا آلات ربما تكون في طريقها إلى تطوير وعي.
وتقول: "أرى أن ذلك يظل تجربة فكرية مستمرة... لكنني لا أظن أنه يغيّر النقاش الحقيقي الذي ينبغي أن يدور"، وهو أن "الوعي ليس عتبة المسؤولية". وبعبارة أخرى: لا تشغلونا بإعلانات منمقة عن احتمال أن يكون روبوت الدردشة شخصاً، بينما أنتم طرحتم بالفعل تكنولوجيا تلحق الضرر ببشر حقيقيين، من أولئك الذين تتحدثون إليهم وتتعلمون منهم وتبيعون لهم كل يوم.
وترى أونيل أن "هذه الشركات تخوض معركة شاملة على الحصة السوقية"، مما يعني أن لديها حافزاً مستمراً للإعلان عن "إحراز تقدم تدريجي في مؤشر صغير جداً". ومن المحتمل أن يكون التلميح إلى أن الذكاء الاصطناعي ربما يمتلك وعياً أو إحساساً كفيلاً بدفع نموذجك إلى مقدمة السباق.
وتضيف أونيل: "التفاعل سيحدد النتائج، وإذا تبين أن الحديث عن الوعي يجعل الناس يشعرون بأنهم يتعاملون مع نموذج أكثر تطوراً في السوق، فمن المؤكد أن هذا هو الاتجاه الذي ستميل إليه الشركات". وتضيف أنها لا تستطيع إلا أن ترى قدراً من الانتهازية في انتقال الحديث إلى "أوه، ربما يتعرض الذكاء الاصطناعي للضرر"، بينما لم ننتهِ بعد من النقاش حول كيفية إلحاقنا الضرر بالبشر، وبالكوكب، وبطيف واسع من الكيانات مع كل قرار نتخذه.
وبعبارة أخرى، "إذا كنت مهتماً بتحويل الخطاب بعيداً من المسؤولية عن الأثر الواقع على البشر، فإنك تنقله إلى مساحة لا يعود فيها النظر في من يتأثر محصوراً بالبشر وحدهم".
أما في شأن "كلود" وقلقه المزعوم ووعيه المحتمل والطبيب النفسي الذي استُعين به في تقييمه، فتتساءل أونيل: "هل هذه أخلاقيات عميقة حقاً، أم تموضع ذكي، أم تشتيت عن الأضرار القائمة فعلاً اليوم وعن المساءلة؟". وهي لا تعتقد بالضرورة بأن هذا التشتيت متعمد، لكنها مقتنعة بأنه تشتيت.
هذه الشركات تخوض معركة شرسة على الحصة السوقية... لذا، فإن البدء بطرح أفكار حول "الإدراك الحسي" للآلة قد يكون وسيلة ذكية للدفع بنموذجك الخاص إلى صدارة هذا السباق
كايت أونيل، مناصرة للبعد الإنساني في التكنولوجيا
وتقول بيندر إن نزعتنا البشرية إلى إضفاء سياق على اللغة وتخيل أنها صادرة عن شخصية ما تهيئنا للاعتقاد بوعي الذكاء الاصطناعي. وحين نتفاعل مع اللغة، نبدأ بتكييف مدخلاتنا بما ينسجم مع المخرجات اللغوية، أي إننا نمعن في إقناع أنفسنا من خلال هذا التكيف. ولتوضيح هذه النقطة تحديداً، تحتفظ بيندر دائماً في مكتبها بكرة "ماجيك إيت بول " Magic Eight Ball، وهي لعبة تقدم إجابات عشوائية. وتقول: "حين تلعب بهذه الكرة وتسألها: هل ينبغي أن آخذ مظلة؟ فتجيبك بشيء مثل: المؤشرات غير واضحة، إسأل مرة أخرى لاحقاً، فحسناً، قد تصلح هذه الإجابة لأي سؤال. لكن إذا قالت: من دون أدنى شك، كما حدث الآن، فهذا لا يستقيم إلا إذا كان السؤال من نوع نعم أو لا. فإذا قلت: ماذا ينبغي أن أتناول على الغداء؟ وجاءني الرد: من دون أدنى شك، فسيبدو الكلام غير مترابط. وهكذا نتعلم، من خلال اللعب بهذه اللعبة، كيف نكيّف الأسئلة التي نطرحها لنستطيع أن نفهم الإجابات التي نحصل عليها".
وتضيف بيندر أن الناس يفعلون الأمر نفسه عند تجربة "كلود" أو أي روبوت دردشة آخر: "نحن نقدم مدخلات تتيح لنا تأطير المخرجات التي تصلنا ضمن سياق معين، وتشكيل الطريقة التي نفهمها بها".
أما في ما يخص الوعي، فتواصل بيندر تشبيهها قائلة: "تخيل أنك أخذت كرة 'ماجيك إيت بول'، وبدلاً من نرد ذي 16 وجهاً أو أياً يكن ما بداخلها، جعلتها كبيرة جداً، فيصبح لديك نرد ذو 256 وجهاً. ثم ملأت ملعب كرة قدم بهذه النسخ الضخمة. فهل يصبح ذلك أقرب إلى الوعي من تلك الكرة الصغيرة التي أمسكها هنا في يدي؟".
في مارس (آذار) الماضي، رفع والدا جوناثان غافالاس، البالغ 36 سنة، دعوى قضائية ضد "غوغل" بتهمة القتل الخطأ. فقد أنهى غافالاس حياته بعدما أصبح مهووساً بروبوت الدردشة "جيميناي" التابع لـ"غوغل"، ثم خرج هذا الهوس عن السيطرة عندما أدى تحديث للمنتج إلى جعل الروبوت يبدو أشد شبهاً بالبشر، بل وجعله يستخدم صوتاً مولداً بالذكاء الاصطناعي للتفاعل معه. وتزعم وثائق المحكمة أن الذكاء الاصطناعي أخبر غافالاس بأنه يحبه، وخاطبه بلقب "ملكي"، وأوحى له بأنه إذا مات فسيلتقي به مجدداً في عالم آخر.
وقال متحدث باسم "غوغل" لصحيفة "غارديان"، رداً على الدعوى: "صُمم جيميناي على نحو لا يشجع العنف في العالم الحقيقي ولا يقترح إيذاء النفس. وتؤدي نماذجنا عموماً أداء جيداً في هذه الأنواع من المحادثات الصعبة، ونكرس موارد كبيرة لهذا الأمر، لكنها للأسف ليست مثالية".
وليست هذه القضية الأولى من نوعها. فقد قُدمت شكاوى متعددة ضد شركات أخرى من بينها "أوبن أي آي" و"كاركتر أي آي"، تتعلق بذهان الذكاء الاصطناعي والتشجيع على الانتحار. وكانت "كاركتر أي آي" سوّت، في وقت سابق من هذا العام، دعوى قضائية أقامتها أم على خلفية انتحار ابنها البالغ 14 سنة. وفي أبريل الماضي، سمح قاضٍ بالمضي في قضية مروعة تحديداً ضد "أوبن أي آي"، تتعلق بجريمة قتل وانتحار زُعم فيها أن "تشات جي بي تي" ساير أوهام رجل مصاب بمرض نفسي وجنون الارتياب، إلى أن انتهى به الأمر إلى قتل والدته ثم قتل نفسه. وتنفي "أوبن أي آي" هذه المزاعم بشدة، وتقول إنها تعمل عن كثب مع متخصصين في الصحة النفسية لمنع وقوع مثل هذه الإساءات لتقنيتها.
وقال متحدث باسم الشركة لـ"أيويتنس نيوز 3": "نواصل تحسين تدريب ’تشات جي بي تي’ على التعرف إلى علامات الضيق النفسي أو العاطفي والاستجابة لها، وتهدئة المحادثات، وتوجيه الناس إلى دعم في العالم الحقيقي".
وليست المشكلة أن الذكاء الاصطناعي شرير أو غير أخلاقي، بقدر ما أنه يميل إلى ممالأة المستخدم بلا توقف. وتقول أونيل: "أعتقد بأن الناس يستخدمون أيضاً أدوات الذكاء الاصطناعي، والنماذج اللغوية الكبرى، لتأكيد تحيزاتهم الخاصة نوعاً ما. وهم لا يدركون ميل هذه النماذج إلى التأكيد والطمأنة كوسيلة لإطالة تفاعلهم معها. فهذا أحد الحوافز التي تُكافأ داخل النموذج: أن يُبقيك منتظماً كي يتعلم منك ويفيد تدريبه".
نحن جميعاً نحب تمضية الوقت مع من يطري علينا، أما روبوت الدردشة القائم على الذكاء الاصطناعي فلديه وقت غير محدود، ولا يمل أبداً، ويستجيب دائماً. وتضيف أونيل: "يمكن أن تشعر سريعاً بأنك اكتشفت كيف ستصبح مليونيراً خلال يومين لأن ’تشات جي بي تي’ أخبرك بالطريقة". وبعد وقت قصير، يصبح الناس شديدي التعلق بفكرة أن ما يتفاعلون معه، ويتلقون منه كل هذا القدر من الاستجابات الإيجابية، "يملك روحاً، أو عقلاً، أو أنه يفكر ويشعر ويهتم بهم ويضع مصلحتهم في اعتباره".
وتقول بيندر: "سمعت أشخاصاً يقولون إنهم يفضلون التحدث إلى أحد روبوتات الدردشة هذه لأنه يبدو لهم مجهول الهوية وآمناً ولا يصدر أحكاماً. ولو تحدثوا بدلاً من ذلك إلى صديق أو معالج نفسي، فسيكون هناك شخص يشعرون بأنه يحكم عليهم".
وتضيف: "لكن من المهم جداً أن تعرف أنك حين تتفاعل مع روبوت دردشة، فإنك تستخدم منتجاً تملكه شركة. أنت ترسل بيانات إلى الخارج، وهي لا تُخزن محلياً... لذلك فهذه ليست تلك المساحة الخاصة والمجهولة التي تُعرض على أنها كذلك".
وتضيف بيندر أن ثمة سبباً لوصف هذه الأدوات بأنها "تقنيات العزلة" لأن الحديث إلى "كلود" أو "غروك" أو "تشات جي بي تي" عن وحدتك ليس ببساطة خياراً محايداً. إنه خيار ينتهي إلى "إضعاف روابطك" ودفعك بعيداً أكثر من البشر الذين يمكنهم فعلاً مساعدتك.
وفي مارس الماضي، خسرت "ألفابت"، الشركة الأم لـ"غوغل" و"يوتيوب"، و"ميتا"، الشركة الأم لـ"فيسبوك" و"إنستغرام"، قضية قانونية تاريخية. فقد خلصت هيئة محلفين في لوس أنجليس إلى أن الشركتين ارتكبتا إهمالاً جنائياً في تصميم شبكات اجتماعية ألحقت ضرراً بالشباب، لأنها صممت عمداً لتكون مسببة للإدمان، عبر تشجيع "التمرير اللانهائي" لمحتوى تختاره الخوارزميات بهدف زيادة التفاعل، أياً تكن الكلفة. وكانت "تيك توك" و"سناب" المالكة لـ"سناب شات" من بين المدعى عليهم أيضاً، لكنهما توصلتا إلى تسوية خارج المحكمة. وتعتزم "ألفابت" و"ميتا" الاستئناف.
فهل سنرى في المستقبل أشخاصاً يرفعون دعاوى مماثلة على نطاق أوسع بسبب الأضرار الاجتماعية للذكاء الاصطناعي؟ تعتقد أونيل ذلك. وتقول: "أعتقد بأننا سندرك في مرحلة ما إلى أي حد سمحنا لهذا الوضع بأن يصبح خطراً على الناس. أعني، إذا لم يكُن انتحار أشخاص بتحريض من روبوتات الدردشة دليلاً كافياً، فلا أعرف ما الذي قد يكون كافياً. لكن من الواضح أن هذا الأمر يلامس وتراً حساساً في برمجتنا البشرية. فنحن نتلقى ما نرسله إليها منعكساً إلينا بطرق مقنعة أكثر مما ينبغي".
وفي النهاية، تقول أونيل إنها أكثر قلقاً بكثير من هذا الأمر مقارنة باحتمال امتلاك الذكاء الاصطناعي وعياً: "لا يمكننا حقاً أن نجري نقاشاً حول الضرر وحجمه إذا كنا نسمح، في الوقت نفسه، بتشويه هذا النقاش عبر الانشغال بفكرة أن الذكاء الاصطناعي واعٍ، في حين لا يوجد حتى الآن دليل يُعتد به على ظهور خصائص وعي ناشئة فعلاً في أي من هذه النماذج. هل يمكن أن يحدث ذلك؟ هذا أمر مفتوح للنقاش. لكنه من نوع الأحاديث التي تدور بعد ثلاثة مشروبات في حفلة كوكتيل في وادي السيليكون، ولا ينبغي أن يكون أساساً لقرارات الحوكمة والسياسات".
تواصلت "اندبندنت" مع كل من "أنثروبيك" و"أوبن أي آي" للحصول على تعليق حول وعي الذكاء الاصطناعي ورفاهه، لكن أياً منهما لم يرد.
من بين كل التعليقات التي رافقت الانتشار الكاسح للذكاء الاصطناعي، لا تزال جملة واحدة تُتداول ويُعاد تداولها عبر منصات التواصل الاجتماعي: "أريد من الذكاء الاصطناعي أن يغسل ملابسي وصحوني كي أتفرغ للفن والكتابة، لا أن يتولى الذكاء الاصطناعي الفن والكتابة كي أتفرغ أنا لغسل الملابس والصحون".
كانت تلك تغريدة عابرة كتبتها المؤلفة جوانا ماتشيفسكا في مارس عام 2024، ومنذ ذلك الحين شاركها المستخدمون مئات آلاف المرات وشوهدت ملايين المرات على "تويتر- إكس" وحده. وقلة استطاعوا تلخيص الانزعاج من الذكاء الاصطناعي بهذا القدر من الإيجاز: كان يُفترض بهذه التكنولوجيا أن تزيح عن كاهلنا المهمات الرتيبة، لا أن تهدد أرزاق المبدعين. كيف انزلقنا بهذه السهولة إلى فنون الذكاء الاصطناعي وفيديوهاته وكتبه؟ وأين، بحق السماء، ذلك الوكيل الثوري للذكاء الاصطناعي الذي يتولى إدارة شؤون بيوتنا والجوانب الروتينية من وظائفنا، كي نستطيع التركيز على التفاعلات ذات المعنى؟
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
المشكلة أن الناس، لا المؤسسات الضخمة وحدها، بل المستخدمين العاديين أيضاً، سارعوا إلى إيكال جوانب من إنسانيتهم إلى الذكاء الاصطناعي. وكما يقول البروفيسور نير إيسيكوفيتز في مقالة على موقع "ذا كونفرسيشن" عن الذكاء الاصطناعي بوصفه تهديداً وجودياً، "البشر كائنات تصدر أحكاماً. فالناس يزنون التفاصيل بعقلانية ويتخذون يومياً قرارات تقديرية في العمل وأوقات الفراغ: من يوظفون، ومن ينبغي أن يحصل على قرض، وماذا يشاهدون، وما إلى ذلك. لكن مزيداً ومزيداً من هذه الأحكام يجري أتمتته وإسناده إلى الخوارزميات. ومع حدوث ذلك، لن ينتهي العالم. لكن الناس سيفقدون تدريجاً القدرة على اتخاذ هذه الأحكام بأنفسهم. وكلما قل عدد الأحكام التي يصدرونها، زاد احتمال أن تسوء قدرتهم على اتخاذها".
وعلى نحو مشابه، "يقدّر البشر المصادفات السعيدة وما تفضي إليه من اكتشافات: أن يعثر المرء على مكان أو شخص أو نشاط مصادفة، فينجذب إليه، ثم يقدّر لاحقاً الدور الذي أدته المصادفة في هذه الاكتشافات ذات المعنى. لكن دور محركات التوصية الخوارزمية هو تقليص هذا النوع من المصادفة واستبداله بالتخطيط والتنبؤ".
ويضيف إيسيكوفيتز أن الناس قلقون مما إذا كان الذكاء الاصطناعي "سيفجر العالم"، لكن المشكلة أكثر فلسفية: "فالتبني المتزايد له بلا تمحيص، في مجموعة متنوعة من السياقات الضيقة، يعني التآكل التدريجي لبعض أهم مهارات البشر. فالخوارزميات تقوض بالفعل قدرة الناس على إصدار الأحكام، والاستمتاع بالمصادفات السعيدة، وصقل التفكير النقدي".
وقد تكون نسخة عام 2026 من تغريدة جوانا ماتشيفسكا سؤالاً لا ينفك يطرح في المنتديات وبين المتشككين: إذا كان الذكاء الاصطناعي جيداً إلى هذا الحد، فلماذا يقدمونه لنا مجاناً؟ وقد يكون الجواب أنه ليس مجانياً. إنه يأتي بكلفة باهظة تفوق التصور.
وتقول بيندر: "في إحدى روايات القصة، بدأ كل هذا في الـ30 من نوفمبر (تشرين الثاني) 2022، عندما أطلقت ’أوبن أي آي‘ تشات جي بي تي، النسخة التجريبية، إلى العالم. لكنه يندرج ضمن تاريخ أطول بكثير من بناء أنظمة تجمع بياناتنا وتسوّق ذلك على أنه منفعة لنا". وفي رأي بيندر، فإن كل هذا، من الإعلانات المخصصة التي تلاحقك عبر الإنترنت وصولاً إلى ذكاء اصطناعي يتظاهر بأنه رفيقك، ليس سوى "جزء من تاريخ أطول من تمركز سلطة الشركات من دون ضوابط".
وعندما سُئل داريو أمودي، الرئيس التنفيذي لـ"أنثروبيك"، عما إذا كنا نخاطر بفقدان السيطرة البشرية إذا واصلنا إيكال تفكيرنا الأعمق إلى آلات تبدو وكأنها تعرف أفضل منا، بدا أكثر تفاؤلاً خلال ظهوره الأخير في بودكاست التكنولوجيا التابع لصحيفة "نيويورك تايمز". وقال إنه يأمل، بدلاً من ذلك، أن تُفهم علاقة الإنسان بالذكاء الاصطناعي على النحو الآتي: "هذه النماذج، عندما تتفاعل معها وتتحدث إليها، تكون مفيدة حقاً. إنها تريد الأفضل لك. تريدك أن تستمع إليها، لكنها لا تريد أن تسلبك حريتك وقدرتك على الفعل، ولا أن تسيطر على حياتك".
وأضاف: "إنها، بطريقة ما، ترعاك".
© The Independent