V dnešní době vývoj AI zahrnuje čas od času srovnání s jinými modely. Nedávno se objevila zpráva, že Google možná používá konkurenční model Anthropic's Claude ke zlepšení zabezpečení svého vlastního modelu.
TechCrunch uvádí, že Google pověřuje externího dodavatele, aby porovnal výstup Gemini s výstupem Claude. Outsourcovaným pracovníkům trvá až 30 minut, než vyhodnotí každou sadu odpovědí, a zpráva citovala externí pracovníky, kteří uvedli, že našli několik výstupů v nevyřízeném obsahu na interní platformě Google s popisem „Jsem Claude z Anthropic .“
Podle externího zaměstnance Claude překonal Gemini, pokud jde o bezpečnost, a že Claude odmítl reagovat na nebezpečné výzvy, jako je hraní rolí, a že Gemini vydával nevhodný obsah na určité výzvy. I když je Google jedním z hlavních investorů Anthropic, podmínky služby Anthropic výslovně zakazují nelicencované použití Claude k vývoji konkurenčních produktů nebo výcviku konkurenčních modelů umělé inteligence.
Mluvčí Google DeepMind Shira McNamara přiznala, že skutečně porovnávali výstupy modelů AI, ale popřela, že by Claude používali k výcviku Gemini, ale neodpověděla na to, zda měli licenci od Anthropic k provádění srovnání výstupů.