رئيس انفيديا: هكذا يمكن حل مشكلة الهلوسة في الذكاء الاصطناعي

بقلم:   جاد طرابيشي           |  March 25, 2024

nvidia_hallucination

في جلسة حوارية الإسبوع الماضي مع رئيس انفيديا الشركة الرائدة في تطوير تقنيات الذكاء الاصطناعي المادية والبرمجية أجاب جونسون هوانغ عن سؤال -يشغل بال مستخدمي ومطوري نماذج الذكاء الاصطناعي اللغوية مثل جيميناي و ChatGPT- حول مشكلة الهلوسة التي تبديها.

والهلوسة هي ظاهرة توليد نماذج اللغة لنصوص غير صحيحة من ناحية المعلومة التي تقدمها لكنها صحيحة لغوياً؛ فمثلاً هناك محامي سأل ChatGPT لإعطائه أمثلة عن قضايا مشابهة لقضيته فأعطاه عدة أمثلة تبين أنها صحيحة لغوياً لكن هذه القضايا غير موجودة فقد اخترعها النموذج من تلقاء نفسه. كما هناك العديد من الأسئلة التي يجيب فيها النموذج أجوبة عن أشياء غير موجودة و أحداث لم تحدث.

اقترح رئيس انفيديا أن يتم تزويد النماذج بإمكانية البحث في المصادر للتحري عن صحة ما تولده. وأكد أنها مشكلة يمكن حلها إذ تم البحث عن دقة المعلومة بعد توليدها في مصادر موثوقة وإذ لم نجدها نقوم بالبحث عن خيارات أخرى ويجب على هذه النماذج أن تقول لا أعرف عندما يكون السؤال غير معروف الجواب.

وقال في حالة الأسئلة الطبية يجب أن تبحث في المواقع الطبية الموثوقة وتتحقق من المعلومة بدقة قبل تقديمها للمستخدم.

ربما يشكل هذا حلاً لكنه يجعل من نماذج اللغة محركات بحث أيضاً فهي تولد الجواب ثم تتحقق منه وعملية التحقق بحد ذاتها هي عملية بحث واسعة وهذا في الحقيقة ما تفعله غوغل في جيميناي فهي لديها نظام تدقيق الحقائق وتقوم بالتدقيق في المعلومة قبل تقديمها ورغم ذلك لا يوجد ضمان أن نظام التدقيق هذا دقيق مئة بالمئة ولهذا مازلنا نضبط الكثير من الإجابات الخاطئة.



مشاركة