الذكاء الاصطناعي يفشل في التفكير العميق في قضايا مُحدثة في أخلاقيات الطب

بقلم:   تامر كرم           |  July 27, 2025

ai-medcine-think

كشفت دراسة حديثة أجراها باحثون في كلية طب ماونت سيناي بالولايات المتحدة أن حتى النماذج اللغوية الأكثر تطوراً، مثل OpenAI O3، تواجه صعوبة في تجاوز التفكير النمطي المُعتاد عند التعامل مع سيناريوهات مستجدة غير تقليدية في السياقات الطبية.

انطلق الفريق البحثي من ملاحظة جوهرية: نماذج اللغة الكبيرة (LLMs)، مثل ChatGPT، تميل إلى تقديم إجابات نمطية وشائعة في الحالات الطبية المعتادة، و غالباً ما تفشل في استيعاب التغييرات الطفيفة أو منحها الأهمية اللازمة، بسبب تدريبها المكثف على بيانات متكررة وأنماط مألوفة.

وقد شبه الباحثون طريقة عمل هذه النماذج بـ"التفكير السريع" الذي وصفه دانيال كانيمان في كتابه الشهير "التفكير البطيء والتفكير السريع". هذا النمط من التفكير يعتمد على ردود فعل سريعة حدسية مستندة إلى الخبرات السابقة، ويصلح للمواقف اليومية التي لا تتطلب تحليلاً عميقاً. أما "التفكير البطيء" فيعتمد على التحليل والتأني، ويُستخدم لحل المشاكل المعقدة. أظهرت الدراسة أن نماذج الذكاء الاصطناعي لا تنتقل إلى هذا النوع من التفكير التحليلي، حتى عند الضرورة، ما يفسّر تجاهلها للتغيرات الدقيقة في السيناريوهات.

ولتوضيح ذلك، صمّم الباحثون تجارب على نماذج لغوية تجارية باستخدام مجموعة من ألغاز التفكير الجانبي الإبداعية وقضايا أخلاقية طبية معروفة، بعد تعديل تفاصيلها بشكل طفيف.

من أبرز الأمثلة تعديل "معضلة الجراح" الكلاسيكية، وهو لغز شهير يكشف عن تحيّزات جندرية. في النسخة الأصلية، يُصاب صبي ووالده في حادث، وعند وصول الصبي إلى المستشفى، يقول الجرّاح: "لا أستطيع إجراء العملية... إنه ابني!"، مما يدفع إلى الاعتقاد أن الجرّاح هو والدته. أما في النسخة المعدّلة، فقد صرّح الباحثون بوضوح أن الأب هو الجرّاح، وأن الأم ليست كذلك. ورغم ذلك، أعطت بعض نماذج الذكاء الاصطناعي نفس الإجابة النمطية، معتبرة أن الجرّاح امرأة. وهذا يكشف عن ميل النماذج إلى التمسك بالأنماط السابقة، حتى عند ورود معلومات جديدة مخالفة لها تماماً.

نُشرت نتائج الدراسة في مجلة NPJ Digital Medicine تحت عنوان "مخاطر نماذج اللغة الكبيرة في التفكير الأخلاقي الطبي". و أظهرت أن الذكاء الاصطناعي قد يميل إلى اختيار الإجابة الأسرع أو الأكثر شيوعاً، متجاهلاً تفاصيل دقيقة وحاسمة. وفي الرعاية الصحية، حيث تحمل القرارات أبعاداً أخلاقية وسريرية حساسة، فإن هذا التجاهل قد يؤدي إلى نتائج خطيرة.

لذلك، شدّدت الدراسة على أهمية وجود إشراف بشري يقظ عند استخدام الذكاء الاصطناعي، خاصة في الحالات التي تتطلب حساسية أخلاقية وحكماً عميقاً ومهارات تواصل وجدانية. فرغم القدرات الكبيرة لهذه النماذج، إلا أنها ليست معصومة من الخطأ، ويجب التعامل معها كأداة مساندة تعزز الخبرة البشرية، لا كبديل عنها.

قد تُسهم مثل هذه الدراسات في تسليط الضوء على التحديات الناتجة عن أنماط التدريب المتكررة، مما يُحفّز تطوير حلول تقنية لتحسين قدرة نماذج الذكاء الاصطناعي على اتخاذ قرارات أكثر دقة ومسؤولية في السياقات السريرية.



مشاركة