Google は社内で Claude を使用して Gemini をトレーニングし、システムのセキュリティを向上させるために出力を比較します

現在、AI 開発では他のモデルとの比較が時々行われます。最近、Google が自社モデルのセキュリティを向上させるために、競合する Anthropic の Claude モデルを使用している可能性があると報じられました。

TechCrunch の報道によると、Google は外注業者に Gemini の成果と Claude の成果を比較するよう依頼しているという。外部委託スタッフが各回答セットを評価するには最大 30 分かかります。報告書では、Google の社内プラットフォーム上の保留中のコンテンツに「私は Anthropic のクロードです」というキャプションが付いた複数の出力を発見したと外部委託スタッフが述べたと伝えています。 」

外部委託された従業員によると、クロードはセキュリティの点でジェミニよりも優れており、クロードはロールプレイングなどの安全でないプロンプトに応答することを拒否し、ジェミニは特定のプロンプトに対して不適切なコンテンツを出力していたとのことです。 Google は Anthropic の主要投資家の 1 つですが、Anthropic の利用規約では、競合製品の開発や競合 AI モデルのトレーニングのために Claude を無許可で使用することを明示的に禁止しています。

Google DeepMindの広報担当者シーラ・マクナマラ氏は、確かにAIモデルの出力を比較していたことは認めたが、ジェミニのトレーニングにクロードを使用したことは否定したが、出力比較を行うライセンスをAnthropicから得ていたかどうかについては回答しなかった。

Related Posts