Obecnie rozwój sztucznej inteligencji wymaga od czasu do czasu porównań z innymi modelami. Niedawno doniesiono, że Google może wykorzystywać model Claude konkurencyjnej firmy Anthropic do poprawy bezpieczeństwa własnego modelu.
TechCrunch donosi, że Google zleca firmie zewnętrznej porównanie wyników Gemini z wynikami Claude'a. Ocena każdego zestawu odpowiedzi zewnętrznemu personelowi zajmuje do 30 minut, a w raporcie zacytowano wypowiedź zewnętrznego personelu, który twierdził, że znalazł wiele wyników w oczekujących treściach na wewnętrznej platformie Google z podpisem „Jestem Claude z Anthropic .”
Według wynajętego pracownika Claude przewyższał Gemini pod względem bezpieczeństwa i że Claude odmawiał reagowania na niebezpieczne podpowiedzi, takie jak odgrywanie ról, a także że Gemini wyświetlała nieodpowiednie treści w przypadku niektórych podpowiedzi. Chociaż Google jest jednym z głównych inwestorów Anthropic, warunki korzystania z usług Anthropic wyraźnie zabraniają nielicencjonowanego wykorzystywania Claude do opracowywania konkurencyjnych produktów lub trenowania konkurencyjnych modeli sztucznej inteligencji.
Rzeczniczka Google DeepMind, Shira McNamara, przyznała, że rzeczywiście porównywali wyniki modeli sztucznej inteligencji, ale zaprzeczyła, że wykorzystali Claude do szkolenia Gemini, ale nie odpowiedziała, czy otrzymali licencję od Anthropic na porównanie wyników.