グーグルは、ブレイク・ルモワンが以前に停止された後、同社の責任あるAI部門から解雇されました。 彼はXNUMX月に、LaMDA言語モデルが独自の人生を歩み、自己認識しているとの主張で大見出しになりました。
Lemoineの辞任は、エンジニアがGoogleからの最近の解雇について語った、独自の未公開のポッドキャストエピソードに基づいて、ウェブサイトBigTechnologyによって提起されました。 同社は彼の出発を確認し、詳細な回答も提供しました。以下に示すブレイクのセクションを示します。
「ブレイクのように、従業員が私たちの仕事について懸念を共有している場合、私たちはそれらを広範囲にレビューします。 LaMDAは意図的に根拠がなく、それを明確にするために何ヶ月も費やしたというブレイクの主張を発見しました。 これらの会話は、責任を持ってイノベーションを起こすのに役立つオープンカルチャーの一部でした。 この問題への長年の取り組みにもかかわらず、ブレイクが製品情報を保護する必要性を含め、永続的な明確な雇用とデータセキュリティポリシーに違反することを選択したことは残念です。 私たちは言語モデルの慎重な開発を継続し、ブレイクが最高であることを願っています。」
この問題はXNUMX月に始まり、大量のテキストでトレーニングされた言語または会話モデルであるLaMDAを中心に展開しています。 LaMDAは、とりわけ、自分自身を人と見なし、他のGoogleの従業員と同じ権利を持ちたいと書いています。 同僚と一緒に、レモインは自己認識があるという結論に達しました。 GoogleのXNUMX人の従業員は、社内で会社の副社長と責任あるイノベーション部門の責任者を説得しようとしましたが、彼らはその主張を拒否しました。
最後に、Lemoineは、LaMDAとのチャットのログの形でこれについて公開し始めました。 たとえば、彼はLaMDAとの「インタビュー」を公開しました。実際には、いくつかのチャットセッションを組み合わせたものです。 彼はまた、言語モデルが自己認識になったと主張してワシントンポストに接近した。 守秘義務に違反したため、エンジニアはすぐに停止されました。
Googleは、I / O 2021会議で、Dialogue Applications用の言語モデル(LaMDA)を発表しました。 言語モデルは、人々がオンラインで互いに会話するのと同じように、多くのトピックについて流暢な会話をすることを可能にします。 LaMDAは、そのような会話のために大量のデータについてトレーニングを受けています。