الميزان الأخلاقي للذكاء الاصطناعي العاطفي في التعليم: بين الوعود والمحاذير
الدكتور ناصر الجندى

✍️ بقلم: الدكتور ناصر الجندي
خبير تربوي
لقد شهدنا في العقود الأخيرة تطورًا مذهلًا في مجال الذكاء الاصطناعي، الذي لم يعد محصورًا في المهام الحسابية والتحليلية البحتة، بل امتد ليشمل فهم الجوانب الإنسانية الأكثر تعقيدًا، ومنها العواطف. برزت "الحوسبة العاطفية" (Affective Computing)، والمعروفة أيضًا بـ "الذكاء الاصطناعي العاطفي" (Emotional AI)، كأحد الحقول الحديثة التي تهدف إلى تطوير أنظمة قادرة على التعرف على المشاعر الإنسانية وتفسيرها، بل والتأثير فيها (Ho et al., 2024; Picard, 1995, كما ورد في Ho et al., 2024).
وفي إطار التعليم، تقدم هذه التقنيات وعودًا كبيرة بتحسين تجربة التعلم، وتخصيص الدعم للطلاب، وتعزيز التفاعل داخل الفصول الدراسية (Devillers & Cowie, 2023; Yadegaridehkordi et al., 2019). لكن مع هذا التقدم المذهل، تثار العديد من التساؤلات الأخلاقية حول استخدام هذه التكنولوجيا في بيئات التعلم.
المعضلات الأخلاقية الرئيسية في التعليم باستخدام الذكاء الاصطناعي العاطفي
- الخصوصية والمراقبة المستمرة
من أبرز المخاوف الأخلاقية المتعلقة بالذكاء الاصطناعي العاطفي في التعليم هي انتهاك خصوصية الطلاب. تعتمد الأنظمة على جمع بيانات حساسة مثل تعابير الوجه، ونبرة الصوت، والمؤشرات الفسيولوجية (مثل معدل ضربات القلب) لتحليل الحالة العاطفية للطلاب (Ho et al., 2024; Vistorte et al., 2024). هذا النوع من المراقبة المستمرة يثير قلقًا حول كيفية تخزين البيانات، ومن يملك حق الوصول إليها، ومدى حماية هذه البيانات من سوء الاستخدام. - التحيز والدقة المحدودة
يواجه الذكاء الاصطناعي العاطفي تحديًا في دقة تفسير المشاعر الإنسانية المعقدة والمتغيرة. فالمشاعر ليست بيانات ثابتة يمكن قياسها بسهولة؛ بل هي تتأثر بالسياق الثقافي والاجتماعي والشخصي. لذلك، قد يؤدي تدريب الأنظمة على مجموعات بيانات محدودة إلى التحيز ضد بعض الفئات أو إلى تفسير خاطئ للمشاعر (Devillers & Cowie, 2023). - الاستقلالية والتلاعب المحتمل
من الأسئلة المهمة التي تثار هي مدى تأثير الذكاء الاصطناعي العاطفي على استقلالية الطلاب. هل الاعتماد المفرط على التكنولوجيا لفهم وتنظيم المشاعر يعيق تطوير الذكاء العاطفي بشكل طبيعي؟ وهل يمكن أن تُستخدم هذه الأنظمة للتلاعب بمشاعر الطلاب لصالح أهداف تجارية أو أيديولوجية؟ - الخداع والتمثيل الزائف للمشاعر
قد تتسبب قدرة الأنظمة على محاكاة الاستجابات العاطفية في خلق انطباع كاذب بالفهم العاطفي. وهذا قد يؤدي إلى تعلق غير صحي بالآلة أو توقعات غير واقعية من التفاعل مع الأنظمة. - الموافقة والمسؤولية
يعد الحصول على موافقة مستنيرة لاستخدام تقنيات الذكاء الاصطناعي العاطفي معقدًا، خاصة في المدارس حيث تتخذ القرارات نيابة عن الطلاب البالغين (المعلمون، أولياء الأمور). وكذلك، تحديد المسؤولية في حالة حدوث أضرار مثل التشخيص الخاطئ لمشكلة عاطفية أو تسريب بيانات.
دراسات حالة وسيناريوهات واقعية
- أنظمة مراقبة الانتباه
بعض المدارس تستخدم أنظمة تعتمد على تحليل تعابير الوجه وحركة العين لتقييم مدى انتباه الطلاب أثناء الدرس. بينما يراها البعض أداة لتحسين دعم الطلاب، فإنها تثير مخاوف بشأن الخصوصية والضغط النفسي الناتج عن مراقبة مستمرة. - المعلمون الافتراضيون المتعاطفون
يتم تطوير روبوتات ومساعدين افتراضيين يظهرون تعاطفًا ويقدمون دعمًا عاطفيًا للطلاب، وهي تقنيات قد تكون مفيدة للطلاب الذين يعانون من صعوبات تعلم أو قلق اجتماعي. لكن السؤال الذي يطرح نفسه هو: هل يمكن للتعاطف الآلي أن يحل محل التفاعل الإنساني الحقيقي؟ - الألعاب التعليمية الذكية
تدمج بعض الألعاب التعليمية تقنيات الذكاء الاصطناعي العاطفي لتكييف مستوى الصعوبة أو تقديم تشجيع بناءً على الحالة العاطفية للطفل. لكن هذه الألعاب قد تثير مخاوف بشأن جمع بيانات الأطفال واستخدامها لأغراض تجارية.
نحو استخدام مسؤول: توصيات ومسارات مستقبلية
يتطلب التعامل مع التعقيدات الأخلاقية للذكاء الاصطناعي العاطفي في التعليم نهجًا متعدد الأوجه يشمل المطورين، المعلمين، صناع السياسات، والمجتمع ككل (Devillers & Cowie, 2023). تتضمن التوصيات الرئيسية:
- الشفافية: يجب أن تكون طريقة عمل الأنظمة وكيفية جمع واستخدام البيانات واضحة للطلاب وأولياء الأمور.
- التركيز على الإنسان: يجب أن تظل التكنولوجيا أداة لدعم المعلم وتعزيز التفاعل الإنساني.
- حماية البيانات: تطبيق معايير صارمة لحماية بيانات الطلاب.
- التدريب والتوعية: توفير تدريب للمعلمين والطلاب حول إمكانيات ومخاطر الذكاء الاصطناعي العاطفي.
- الأطر التنظيمية: تطوير مبادئ وقوانين واضحة لتنظيم استخدام هذه الأنظمة.
- البحث المستمر: تشجيع المزيد من الأبحاث حول التأثيرات طويلة المدى لهذه التقنيات على تطور الطلاب العاطفي والاجتماعي.
يمثل الذكاء الاصطناعي العاطفي تقاطعًا معقدًا بين التكنولوجيا، علم النفس والتعليم. يحمل في طياته إمكانات كبيرة لتحويل تجربة التعلم، لكنه يتطلب حذرًا شديدًا في التعامل مع مسؤولياته الأخلاقية. بناء "فصل دراسي واعٍ" يعني استخدام هذه التقنيات بحكمة وتعاطف حقيقي، مع الحفاظ على كرامة الطلاب و خصوصيتهم.