Google utiliza internamente a Claude para capacitar a Gemini para comparar resultados y mejorar la seguridad del sistema.

Hoy en día, el desarrollo de la IA implica comparaciones con otros modelos de vez en cuando. Recientemente, se informó que Google podría estar utilizando el modelo Claude de su rival Anthropic para mejorar la seguridad de su propio modelo.

TechCrunch informa que Google está encargando a un subcontratista que compare la producción de Gemini con la de Claude. El personal subcontratado tarda hasta 30 minutos en evaluar cada conjunto de respuestas, y el informe citó al personal subcontratado diciendo que habían encontrado múltiples resultados en el contenido pendiente en la plataforma interna de Google con el título "Soy Claude de Anthropic". .”

Según el empleado subcontratado, Claude superó a Gemini en términos de seguridad, y que Claude se negaba a responder a indicaciones inseguras, como juegos de roles, y que Gemini había generado contenido inapropiado para ciertas indicaciones. Si bien Google es uno de los principales inversores de Anthropic, los términos de servicio de Anthropic prohíben explícitamente el uso sin licencia de Claude para desarrollar productos de la competencia o entrenar modelos de IA competitivos.

La portavoz de Google DeepMind, Shira McNamara, admitió que de hecho estaban comparando los resultados del modelo de IA, pero negó haber usado a Claude para entrenar a Gemini, pero no respondió si Anthropic les había otorgado licencia para hacer la comparación de resultados.

Related Posts