في عام 2020، استخدمت إحدى الجامعات البريطانية خوارزمية ذكاء اصطناعي لتقييم الطلاب الذين لم يتمكنوا من أداء امتحاناتهم بسبب جائحة كوفيد-19. قامت الخوارزمية بتخفيض درجات الطلاب من المدارس الأقل تمويلاً بشكل كبير مقارنةً بالطلاب من المدارس ذات الموارد الأفضل. أدى ذلك إلى احتجاجات واسعة من الطلاب الذين شعروا بالظلم، حيث تم الاعتماد على بيانات سابقة منحازة تتعلق بأداء المدارس بدلاً من تقييم قدرات الطلاب الفردية.
نستنتج من ذلك ان الأنظمة الذكية قد تكرر التحيزات الاجتماعية الموجودة إذا لم يتم تدريبها على بيانات عادلة وشاملة.
في الولايات المتحدة، تعرضت إحدى المنصات التعليمية التي تستخدم الذكاء الاصطناعي لاختراق أمني كبير في 2021.
تم تسريب بيانات شخصية لمئات الآلاف من الطلاب، بما في ذلك أسماؤهم وعناوينهم وسجلاتهم الدراسية. استخدم المتسللون هذه البيانات لاحقًا في هجمات إلكترونية، مما أثار قلقًا كبيرًا بشأن الأمان الرقمي.
نستنتج أن :
التكنولوجيا القوية تحتاج إلى بروتوكولات أمان قوية لحماية خصوصية المستخدمين، خاصة الأطفال..
في إحدى المدارس الثانوية، بدأ الطلاب في الاعتماد على أداة ذكاء اصطناعي لحل مسائل الرياضيات. بمرور الوقت، لاحظ المعلمون أن الطلاب أصبحوا غير قادرين على شرح الحلول أو التفكير النقدي في المسائل الجديدة. عند إجراء اختبار بدون استخدام التكنولوجيا، أظهر العديد من الطلاب أداءً ضعيفًا جدًا بسبب نقص الفهم الأساسي للمفاهيم.
نستنتج أن:
الاستخدام المفرط للذكاء الاصطناعي قد يضعف مهارات التفكير الأساسي لدى الطلاب…
في المغرب، خلال الجائحة، استخدمت بعض المدارس الخاصة منصات تعليمية تعتمد على الذكاء الاصطناعي للتدريس عن بُعد، بينما لم تتمكن المدارس العامة في المناطق الريفية من توفير الأدوات أو الاتصال بالإنترنت للطلاب. أدى ذلك إلى فجوة تعليمية كبيرة بين طلاب المدن وطلاب المناطق النائية، حيث فقد العديد من الطلاب في المناطق الأقل حظًا سنوات دراسية مهمة.
نستنتج أن:
يجب مراعاة التفاوت في الموارد لضمان أن تكون التقنيات الجديدة متاحة للجميع….
في إحدى المدارس بالهند، تم استخدام نظام ذكاء اصطناعي لتصحيح الامتحانات النصية. لاحظ المعلمون لاحقًا أن الخوارزمية قامت بتقييم خاطئ للعديد من الإجابات، حيث كانت تركز فقط على الكلمات الرئيسية بدلاً من فهم السياق العام للإجابات. نتيجة لذلك، حصل العديد من الطلاب على درجات منخفضة رغم أن إجاباتهم صحيحة منطقياً.
تستنتج أن:
أنظمة الذكاء الاصطناعي قد تخطئ في المهام التي تتطلب تفكيرًا إنسانيًا معقدًا.
الخلاصة :
رغم الإمكانيات الكبيرة التي يقدمها الذكاء الاصطناعي في التعليم، إلا أن الاعتماد عليه بشكل غير متوازن قد يؤدي إلى عواقب سلبية مثل التحيز، الفجوات التعليمية، والاعتماد المفرط. يجب أن يكون استخدام الذكاء الاصطناعي مصحوبا برقابة بشرية ووعي بالمخاطر لضمان تحقيق أقصى الفوائد مع تقليل الضرر.
0 تعليق