Google wewnętrznie używa Claude do szkolenia Gemini w zakresie porównywania wyników w celu poprawy bezpieczeństwa systemu

Obecnie rozwój sztucznej inteligencji wymaga od czasu do czasu porównań z innymi modelami. Niedawno doniesiono, że Google może wykorzystywać model Claude konkurencyjnej firmy Anthropic do poprawy bezpieczeństwa własnego modelu.

TechCrunch donosi, że Google zleca firmie zewnętrznej porównanie wyników Gemini z wynikami Claude'a. Ocena każdego zestawu odpowiedzi zewnętrznemu personelowi zajmuje do 30 minut, a w raporcie zacytowano wypowiedź zewnętrznego personelu, który twierdził, że znalazł wiele wyników w oczekujących treściach na wewnętrznej platformie Google z podpisem „Jestem Claude z Anthropic .”

Według wynajętego pracownika Claude przewyższał Gemini pod względem bezpieczeństwa i że Claude odmawiał reagowania na niebezpieczne podpowiedzi, takie jak odgrywanie ról, a także że Gemini wyświetlała nieodpowiednie treści w przypadku niektórych podpowiedzi. Chociaż Google jest jednym z głównych inwestorów Anthropic, warunki korzystania z usług Anthropic wyraźnie zabraniają nielicencjonowanego wykorzystywania Claude do opracowywania konkurencyjnych produktów lub trenowania konkurencyjnych modeli sztucznej inteligencji.

Rzeczniczka Google DeepMind, Shira McNamara, przyznała, że ​​rzeczywiście porównywali wyniki modeli sztucznej inteligencji, ale zaprzeczyła, że ​​wykorzystali Claude do szkolenia Gemini, ale nie odpowiedziała, czy otrzymali licencję od Anthropic na porównanie wyników.

Related Posts