Hoje em dia, o desenvolvimento da IA envolve comparações periódicas com outros modelos. Recentemente, foi relatado que o Google pode estar usando o modelo Claude da rival Anthropic para melhorar a segurança de seu próprio modelo.
O TechCrunch relata que o Google está contratando um terceirizador para comparar a produção da Gemini com a de Claude. A equipe terceirizada leva até 30 minutos para avaliar cada conjunto de respostas, e o relatório citou a equipe terceirizada dizendo que encontrou vários resultados no conteúdo pendente na plataforma interna do Google com a legenda “Sou Claude da Anthropic .”
Segundo o funcionário terceirizado, Claude superou a Gemini em termos de segurança, e que Claude se recusava a responder a solicitações inseguras, como dramatizações, e que a Gemini havia produzido conteúdo inadequado para determinadas solicitações. Embora o Google seja um dos principais investidores da Anthropic, os termos de serviço da Anthropic proíbem explicitamente o uso não licenciado de Claude para desenvolver produtos concorrentes ou treinar modelos de IA concorrentes.
A porta-voz do Google DeepMind, Shira McNamara, admitiu que eles estavam de fato comparando os resultados do modelo de IA, mas negou ter usado Claude para treinar Gemini, mas não respondeu se eles haviam sido licenciados pela Anthropic para fazer a comparação de resultados.