現在、AI開発には、他のモデルとの比較が随時含まれています。最近、Googleがライバルの人類のクロードモデルを使用して、独自のモデルのセキュリティを改善している可能性があると報告されました。
TechCrunchは、GoogleがGeminiの出力をClaudeの出力と比較するためにアウトソーカーに委託していると報告しています。外部委託されたスタッフが各応答を評価するのに最大30分かかり、報告書は外部委託されたスタッフが、Googleの内部プラットフォーム上の保留中のコンテンツで複数の出力を見つけたと述べたと引用しました。
アウトソーシングされた従業員によると、クロードはセキュリティの面でジェミニを上回り、クロードはロールプレイングなどの安全でないプロンプトへの応答を拒否し、ジェミニは特定のプロンプトに不適切なコンテンツを出力していました。 GoogleはAnthropicの主要な投資家の1つですが、人類のサービス利用規約は、競合する製品を開発するか、競合するAIモデルを訓練するためにClaudeの無許可の使用を明示的に禁止しています。
Google Deepmindのスポークスマン、Shira McNamaraは、AIモデルの出力を実際に比較していることを認めましたが、Claudeを使用してGeminiを訓練したことを拒否しましたが、出力の比較を行うために人為によって認可されたかどうかには応答しませんでした。