طردت Google Blake Lemoine من قسم الذكاء الاصطناعي المسؤول في الشركة بعد أن تم إيقافه سابقًا. تصدّر عناوين الصحف في يونيو بسبب مزاعم بأن نموذج لغة LaMDA قد اتخذ حياة خاصة به وكان مدركًا لذاته.
طرح موقع Big Technology استقالة Lemoine على أساس حلقة بودكاست خاصة به وغير منشورة تحدث فيها المهندس عن طرده مؤخرًا من Google. أكدت الشركة مغادرته وقدمت أيضًا ردًا مفصلاً ، مع قسم Blake الموضح أدناه:
"إذا شارك أحد الموظفين مخاوف بشأن عملنا ، كما فعل بليك ، فإننا نراجعها على نطاق واسع. وجدنا ادعاءات بليك بأن LaMDA لا أساس لها عمدا وأمضينا شهورا في محاولة توضيح ذلك له. كانت هذه المحادثات جزءًا من الثقافة المفتوحة التي تساعدنا على الابتكار بمسؤولية. من المؤسف أنه على الرغم من الالتزام الطويل الأمد بهذا الموضوع ، لا يزال بليك يختار انتهاك سياسات التوظيف وأمن البيانات الواضحة والمستمرة ، بما في ذلك الحاجة إلى حماية معلومات المنتج. سنواصل تطويرنا الدقيق لنماذج اللغة ونتمنى لبليك الأفضل ".
بدأت هذه المشكلة في يونيو وتدور حول LaMDA ، وهي لغة أو نموذج محادثة تم تدريبه على كميات كبيرة من النصوص. كتبت LaMDA فيها ، من بين أشياء أخرى ، أنها ترى نفسها كشخص وتريد أن تتمتع بنفس الحقوق مثل موظفي Google الآخرين. جنبا إلى جنب مع زميل ، توصل Lemoine إلى استنتاج مفاده أن هناك وعيًا بالذات. حاول الموظفان في Google إقناع نائب رئيس الشركة ورئيس قسم الابتكار المسؤول داخليًا ، لكنهما رفضا الادعاءات.
أخيرًا ، بدأ Lemoine بالنشر حول هذا في شكل سجلات محادثات كان لديه مع LaMDA. على سبيل المثال ، نشر "مقابلة" مع LaMDA ، وهي في الواقع عبارة عن مجموعة من جلسات الدردشة المتعددة. كما اتصل بصحيفة واشنطن بوست مدعياً أن النموذج اللغوي أصبح واعياً لذاته. بانتهاك واجب السرية ، سرعان ما تم إيقاف المهندس.
كشفت Google عن نموذج اللغة لتطبيقات الحوار ، أو LaMDA ، في مؤتمرها I / O 2021. يتيح نموذج اللغة إجراء محادثات بطلاقة حول العديد من الموضوعات ، على غرار الطريقة التي يتحدث بها الأشخاص مع بعضهم البعض عبر الإنترنت. يتم تدريب LaMDA على كميات كبيرة من البيانات لمثل هذه المحادثات.