تشير دراسة حديثة إلى أن الذكاء الاصطناعي، بما في ذلك ChatGPT، قد لا يكون بمنأى عن الوقوع في أخطاء بشرية رغم طبيعته التقنية. وتكشف النتائج عن أن هذه الأنظمة قد تُظهر تحيزات معرفية مشابهة للتحيزات التي تصيب البشر، مما يشير إلى أن القرارات التي تعتمد على هذه الأنظمة قد تكون أحيانًا متأثرة بأنماط تفكير غير عقلانية، خاصة في المواقف التي تستند إلى الأحكام الشخصية.
الذكاء الاصطناعي بين القرارات العقلانية والتأثر بالتحيز
أظهرت الدراسة، التي نُشرت بمجلة Manufacturing & Service Operations Management، أن ChatGPT، خاصة النماذج GPT-3.5 وGPT-4، قد ارتكب بعض الأخطاء المشابهة للبشر في قراراته. قام الباحثون بتقييم 18 انحيازًا معرفيًا مختلفًا، مثل تأثير التملك والنفور من المخاطر والثقة الزائدة، ووجدوا أن ChatGPT أظهر في نصف الحالات تقريبًا أنماطًا مشابهة لتلك الأخطاء البشرية، مما يجعل استخدامه في القرارات الحرجة أو المعقدة يتطلب مزيدًا من الحذر والتقييم.
ووفقًا للنتائج، كان GPT-4 أفضل في المسائل التي تتطلب منطقًا واحتمالات دقيقة مقارنة بـ GPT-3.5، لكنه ارتكب أيضًا أخطاء أثناء معالجة المسائل التي يتداخل فيها التقييم الشخصي مع القرارات الاستراتيجية. كما أظهر ميلًا قويًا لما يُعرف بـ “تحيّز التأكيد”، حيث يعزز معلومات أو معتقدات قائمة بدلاً من مناقشتها أو اختبارها.
أسباب التحيز في أنظمة الذكاء الاصطناعي
وفقًا للبحث، قد يكون السبب وراء هذه التحيزات هو بيانات التدريب المستخدمة لتطوير نماذج الذكاء الاصطناعي، حيث تحمل هذه البيانات التحيزات الإدراكية التي يتم العثور عليها أصلاً في السلوك البشري. على سبيل المثال، في حين تمكن ChatGPT من تجنّب بعض الأخطاء الشائعة مثل تجاهل المعدلات الأساسية وتحيز الكلفة الغارقة، إلا أنه وقع أحيانًا في أخطاء أكثر تعقيدًا مثل “وهم التسلسل”، وهو الافتراض الخاطئ بوجود نمط في بيانات عشوائية.
كما أشار الباحثون إلى أن القرارات التي تعتمد على الذكاء الاصطناعي تكون أفضل عندما تُطبق على مسائل تعتمد على حقائق واضحة أو بيانات دقيقة، بدلاً من القرارات الغامضة التي تحتاج إلى تدخل الإبداع أو التقييم البشري.
أهمية الإشراف البشري في استخدام الذكاء الاصطناعي
توصي الدراسة بأهمية الإشراف البشري لتجنب تأثير التحيزات عند استخدام الذكاء الاصطناعي، خصوصًا في المجالات التي تتطلب مسؤولية أخلاقية أو تقييمات قائمة على الآراء. يقول البروفيسور يانغ تشين إن القرارات المعتمدة على التفضيلات الشخصية تحتاج إلى قيادة دقيقة من الإنسان، حيث يمكن أن يؤدي الاعتماد الكامل على ChatGPT إلى مخاطر تتعلق بأتمتة أخطاء البشر عوضًا عن تصحيحها.
على الجانب الآخر، أضافت الباحثة مينا أنديابان أنه يجب معاملة الذكاء الاصطناعي كأداة مساعدة تحت الرقابة البشرية، وخاصة في القرارات الحساسة التي تتطلب دقة وشفافية عالية. فهذا النوع من التشابك بين البشري والآلي يعزز فرص التكامل، بدلاً من تضخيم الأخطاء الفردية أو تحيز الأنظمة الرقمية.
«تحديث عاجل» سعر الذهب عيار 21 اليوم 17 مايو 2025 بالسوق المصري يرتفع فجأة
«صراع مفاجئ» إطلاق نار في حديقة بعدن بسبب شجار طفلين ماذا حدث بعدها
«فرصة مميزة» جامعة عفت السعودية تعلن أعضاء هيئة تدريس في 4 كليات وطريقة التقديم
الطقس يغير مجرى مباراة الأهلي وبالميراس بعد توقفها لسوء الأحوال الجوية
من هي ليلى عبد اللطيف؟ تعرف على سيرتها المثيرة بين التوقعات والجدل الإعلامي
«فرصة مميزة» شقق الإسكان الاجتماعي 2025 كيف تقدم وتضمن قبول طلبك بسهولة
رسمياً ” موعد صلاة عيد الأضحي المبارك 2025 في القاهرة وجميع محافظات مصر
صدمة كبيرة للزمالك.. الفريق يتلقى هزيمة مؤثرة أمام المصري في الدوري