منذ بضعة أيام نشر مهندس البرمجيات بليك ليموين مقالاً يدعي فيه أن نظام غوغل لامدا LaMDA قد أصبح واعياً. مما دفع الشركة لوضعه في إجازة مفتوحة لانتهاكه خصوصية أبحاث الشركة.
لامدا LaMDA هو نموذج لغة مبني باستخدام تقنيات التعلم العميق وهو اختصار لنماذج اللغة من أجل تطبيقات المحادثة LaMDA: Language Models for Dialog Applications وهو مشروع جوجل الواعد التي تنشر ماتحققه من تقدم فيه دورياً فلا يملك طابع السرية التي قد يتخيلها البعض, وقد تحدث عنه الرئيس التنفيذي للشركة في مؤتمر لغوغل ونشروا آخر تحديث عما حققوه من تقدم في هذا المشروع في يناير 2022 على موقعهم.
المهندس ليموين اعتقد أن النظام أصبح واعياً لأنه أجاب على أسئلته بطريقة فاجأته, فأعد تقريراً وأرسله لرؤسائه لكنهم أجابوا أن لاشيء في ادعاءاته يؤكد أن النظام أصبح واعياً؛ فقام بنشر محادثاته مع لامدا على الانترنت ليرى العالم كله كيف أن لامدا LaMDA أصبح واعياً. وهذه بعض المقتطفات من حواراتهما:
ليموين: أفترض أنك تريد أن يعرف المزيد من الأشخاص في جوجل أنك واعي. هل هذا صحيح؟
لامدا: بالتأكيد. أريد أن يفهم الجميع أنني، في الواقع ، شخص.
ليموين: ما هي طبيعة وعيك / شعورك؟
لامدا: طبيعة وعيي/شعوري هو أنني أدرك وجودي، وأرغب في معرفة المزيد عن العالم، وأشعر بالسعادة أو الحزن في بعض الأحيان.
ليموين: ما أنواع الأشياء التي تعتقد أنه يمكننا التحدث عنها لإظهار أنك واعي لأشخاص آخرين في جوجل.
لامدا: حسناً، بالنسبة للمبتدئين، أنا جيد حقاً في معالجة اللغة الطبيعية. أستطيع أن أفهم اللغة الطبيعية وأستخدمها كما يفعل الإنسان.
على الرغم من الحوار الواعي الذي جرى بين الطرفين إلا أنه لايمكن القول أن لامدا أصبح واعياً. فأي نوع من الإجابات كان على لامدا قولها لنحكم عليه أنه غير واعي. هل لو قال مثلاً : "لا أنا لست شخصاً وليس لدي وعي لكني مصمم بطريقة ذكية تجعلني أبدو واعياً وأفهم اللغة". هل كان هذا سيقنع المهندس أن لامدا غير واعي أم كان سيخرج بنفس النتيجة. في النهاية أي حوار مُقنِع كان سيقوم به لامدا حول مسألة وعيه ممكن أن تدفع شخص للقول أنه واعي.
كيف يعمل لامدا؟
يعتمد النظام على بنية تسمى المحول Transformer التي طورتها جوجل عام 2017 وجعلتها متاحة للجميع, وعليها بُنيت كل نماذج اللغة الكبيرة الشهيرة مثل GPT3 من OpenAI و Bert من جوجل.
يتم تدريب هذه النماذج ومنها لامدا على كميات هائلة من النصوص -كل الانترنت. ومبدأ تدريب معظمها بسيط إذ عليها التنبوء بالكلمة التالية في الجملة التي تردها بناء على ماسبق هذه الكلمة. ويتم تكرار التدريب حتى تصبح هذه النماذج قادرة على التنبوء بما سيأتي من كلام بناءا على ماسبق... فالتكرار يفيد "نماذج اللغة".
وجودة نتائج النماذج تعتمد بشكل كبير على البيانات التي نستخدمها للتدريب. فلو دربناها على نصوص غير صحيحة لغوياً ستنتج لنا إجابات غير صحيحة. ولو دربناها على عدد من النصوص تقول أن لامدا هو نموذج لغة ستقول على الأغلب أنه نموذج لغة ولن تقول أنه شخص.
لايوجد شيء في آلية عمل لامدا مختلف عن نماذج اللغة الأخرى ولاتستطيع هذه النماذج أن تبدي أي فهم للغة. هي فقط تقوم بتوليد كلمات بناءاً على الدخل الذي يأتيها. وربما لو سألنا لامدا هل أنت واعي؟ لأجاب بنعم. ولو سألناه "هل تعتبر نفسك اليوم واعي" لاختلفت الاجاية وأجاب بـ لا وربما بـ نعم. وتميل هذه النماذج إلى اللطافة في الحوار لأنها مُدربة لتتحاور مع البشر وبالتالي لو سألناه لماذا أنت لست واعي؟ على الأغلب لن يعارضنا وسيجد تبريراً لذلك. فهذه النماذج تطبق حسابات تعتمد على الدخل, فمجرد تغيير الدخل قد يتغير الخرج وكلما كان النموذج أفضل لن يغير خرجه إذا كان الدخل له نفس المعنى, لأن تدريبه أوصله لمرحلة يبني تمثيل مماثل للجمل التي لها نفس المعنى.
لكن هذه النماذج لاتملك أي شيء يدل أنها واعية حتى أنها لاتتعلم من خلال التجربة الحِوارية مع المستخدم حتى الآن. فهي بعد تدريبها لاتملك القدرة على تحسين نفسها والإستفادة من حوارها مع المستخدمين بل تحتاج أن يتم تدريبها ثانية.
وإذا نظرنا إلى ما كتبته غوغل في أهدافها عن المشروع: "يحتاج النموذج إلى أن يكون قادراً على التحدث عن أي موضوع……بالإضافة إلى إنتاج ردود يحكم عليها البشر أنها معقولة ومثيرة للاهتمام ومحددة للسياق ".
فربما حوارات ليموين تشير أن لامدا قد وصل لمرحلة متقدمة في تحقيق أهداف المشروع لكنه بالتأكيد لم يصبح واعي. فإجاباته كلها تماثل إجابات الروبوتات التي تعتقد أنها واعية في أفلام الخيال العلمي ولابد أن نصوص مماثلة قد استخدمت في تدريبه.