Manapság a mesterséges intelligencia fejlesztése során időről időre össze kell hasonlítani más modellekkel. A közelmúltban arról számoltak be, hogy a Google a rivális Anthropic Claude modelljét használja saját modellje biztonságának javítására.
A TechCrunch jelentése szerint a Google megbízást ad a Gemini és Claude teljesítményének összehasonlítására. Akár 30 percet is igénybe vehet, amíg a kiszervezett munkatársak kiértékelik az egyes válaszokat, és a jelentés idézi a kiszervezett munkatársakat, akik azt mondták, hogy több kimenetet találtak a Google belső platformján lévő függőben lévő tartalomban „Claude vagyok az Anthropicból” felirattal. .”
A kiszervezett alkalmazott szerint Claude felülmúlta a Geminit a biztonság terén, és hogy Claude nem hajlandó válaszolni a nem biztonságos felszólításokra, például a szerepjátékra, és hogy a Gemini nem megfelelő tartalmat adott ki bizonyos felszólításokra. Míg a Google az Anthropic egyik legnagyobb befektetője, az Anthropic szolgáltatási feltételei kifejezetten tiltják Claude engedély nélküli felhasználását konkurens termékek fejlesztésére vagy versengő AI-modellek betanítására.
A Google DeepMind szóvivője, Shira McNamara elismerte, hogy valóban összehasonlították az AI-modell kimeneteit, de tagadta, hogy Claude-ot használták volna a Gemini képzésére, de nem válaszolt arra, hogy az Anthropic engedélyt kapott-e a kimenetek összehasonlítására.