الشبكة العصبية الاصطناعية ثورة في استنساخ عمل الدماغ البشري

المصدر : INDEPENDENT | الجمعة , 15 تشرين الثاني | : 67

تم تصميمها لتحاكي عمل الشبكة العصبية البشرية والدماغ البشري ككل، على المستويين البنيوي والسلوكي، فكما شبكة الأعصاب البشرية تتكون من مجموعة من العصبونات ترتبط ببعضها بمشابك كذلك صممت نظيرتها الاصطناعية من الناحية البنيوية، وكذلك تتبع سلوكياً طريقة العصبونات في توليد ونقل الإشارة وقدرة الدماغ على التعلم من التكرار وتعزيز المعارف والخبرات مرة بمرة.

كان إعلان شركة "أوبن أيه آي" عن بوت الدردشة "تشات جي بي تي" أواخر نوفمبر (تشرين الثاني) 2022، حدثاً ثورياً في عالم بوتات الدردشة. وفي حين لم تكن الفكرة جديدة تماماً، إلا أن ما جاءت به هذه البرمجية كان مختلفاً تماماً، فنحن نتحدث هنا عن بوت ذكي لا يكتفي بتقديم إجابات دقيقة والدخول في محادثة طويلة، بل ويقوم بمهام لا حصر لها بسرعة عالية وجودة جيدة.

والسؤال يطرح هنا: كيف استطعنا الوصول إلى هذا النوع من البرمجيات الذكية التي بإمكانها أن تقوم بمهام كانت حكراً على البشر؟

النماذج اللغوية

يمكننا القول إن الفضل يعود إلى فكرة النماذج اللغوية أولاً، إذ مكنت هذه النماذج الآلة من استقبال وإدراك الكلام البشري والانتقال وظيفياً من مجرد القيام بالعمليات الحسابية المنطقية إلى فهم الكلام المنطوق والصور ومعالجتها، إذ بإمكان النماذج المدربة على مجموعة كبيرة من المعلومات من مصادر متعددة، أداء مهمة ما من خلال ميزة الاستكمال أو التنبؤ اعتماداً على السياق وربط الجمل. واعتبر هذا في وقته تطوراً كبيراً ولكن بالوقت نفسه ونسبة لما وصل إليه الذكاء الاصطناعي، كان محدوداً ومن السهل خداعه، إذ من الممكن في حالات كثيرة أن تغلط الآلة، لذا كان لا بد من برمجية قوية تسير بالآلة إلى موقعها الحالي اليوم، فظهرت الشبكات العصبية الاصطناعية.

الشبكة العصبية الاصطناعية

الشبكات العصبية الاصطناعية صورة من صور الذكاء الاصطناعي المدرب بصورة عميقة، إذ تندرج الشبكات العصبية تحت مصطلح التعلم العميق (إحدى صور التعلم الآلي)، وترتب بطرق عدة لإنتاج أشكال مختلفة تقوم بدورها في أداء مهام مختلفة في نوع من البناء يطلق عليه "Neural Network Architecture"، بحيث تختلف عن بعضها في طريقة تلقي المدخلات والتعامل معها وإنتاج المخرجات بأعداد كبيرة.

وتهدف الشبكات إلى معالجة البيانات وإنجاز مهام في مجالات متنوعة من خلال تقليد عمل عصبونات الدماغ، إذ صممت لتحاكي عمل الشبكة العصبية البشرية والدماغ البشري ككل، على المستويين البنيوي والسلوكي، فكما شبكة الأعصاب البشرية تتكون من مجموعة من العصبونات ترتبط ببعضها بمشابك كذلك صممت نظيرتها الاصطناعية من الناحية البنيوية، وكذلك تتبع سلوكياً طريقة العصبونات في توليد ونقل الإشارة وقدرة الدماغ على التعلم من التكرار وتعزيز المعارف والخبرات مرة بمرة، إذ تستقبل مدخلات معينة وتخرج مخرجات من طريق تغيير مجموعة من الأرقام تسمى "العوامل المتغيرة parameters".

مدخلات ومخرجات

وتتألف كل شبكة من مجموعة خلايا العصبية أو العصبونات المرتبة في طبقات فوق بعضها (ثلاثة كحد أدنى)، ولها طبقة بداية وطبقة نهاية، بحيث تتصل عصبونات كل طبقة بالطبقة التي تسبقها وكذلك بالطبقة التي تليها، لتلقي المدخلات ومعالجة البيانات والوصول إلى النتائج والمخرجات، إذ تتلقى الطبقة الأولية المعلومات الخام، وتعالجها لتمررها للطبقة التي تليها.

وبكلام شديد التبسيط، وفي عملية متقنة من استقبال البيانات وتفسيرها وفهمها والتعامل معها بذكاء، تقوم كل طبقة من طبقات الشبكة المصنعة بالقيام بدورها بدءاً من الطبقة الأولى التي تقوم باستقبال البيانات ثم تقوم باقي الطبقات بالتتابع بالتعرف على الأنماط الشديدة الدقة ثم على الأنماط الكبيرة، وصولاً إلى الطبقة الأخيرة للحصول على المخرجات.

وفي النهاية الخلية العصبية الاصطناعية هي مجرد تابع رياضي لديه مجموعة من المدخلات وخرج واحد، وتتمثل مهمتها في أخذ الأرقام من مدخلاته وأداء المهمة الموكلة لها وإرسال النتيجة.

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

المحولات Transformers

ومن أهم الهياكل المعروفة للشبكات العصبية هي، الشبكات العصبية الالتفافية (CNN) وتسـتخدم مع الصور والفيديوهات لتصنيفها وتجميعها والتعرف على الوجوه وتوليد الصور وتحسين جودتها وإنشاء التأثيرات والبحث عن العناصر والكائنات فـي الصور وفي مقاطع الفيديو، وهي بذلك تحاكي النظام البصري البشري. أما أكثرها شيوعاً فهي الشبكات العصبية المتكررة (RNN) وتستخدم مع الصوت أو النص أو الموسـيقى، إذ تفيد في معالجة اللغة والتعرف على الكلام والترجمة الآلية وتركيب صوت مميز للمساعد الشخصي.

أما أهمها على الإطلاق ما يسمى "المحولات Transformers"، ويمثلها حرف" T " في "Chat GPT"، ويعد ظهورها عام 2017 من قبل المتخصصين واحداً من أهم إنجازات القرن الـ21، كونها تعمل بطريقة مقاربة جداً لطريقة عمل الدماغ، إذ تعطي لكل كلمة في الجملة نسبة من الاهتمام لأهميتها الفعلية داخل الجملة، على عكس سابقاتها التي كانت تركز على الكلمة الأخيرة في الجملة،

أعطى هذا الإنجاز المجال لظهور النماذج اللغوية الكبيرة التي تستخدم المحولات مثل نموذج "بيرت "Bert  الذي صدرته "غوغل" عام 2018 وأول نموذج (Generative pre-trained Transformer (GPT  لـ"أوبن أي آي" في العام ذاته.