Google använder internt Claude för att träna Gemini att jämföra utdata för att förbättra systemsäkerheten

Nuförtiden innebär AI-utveckling jämförelser med andra modeller från tid till annan. Nyligen rapporterades det att Google kan använda rivaliserande Anthropics Claude-modell för att förbättra säkerheten för sin egen modell.

TechCrunch rapporterar att Google ger en outsourcing i uppdrag att jämföra Geminis produktion med Claudes. Det tar upp till 30 minuter för den utlagda personalen att utvärdera varje uppsättning svar, och rapporten citerade den utlagda personalen som sa att de hade hittat flera utdata i det pågående innehållet på Googles interna plattform med texten "Jag är Claude från Anthropic .”

Enligt den outsourcade medarbetaren överträffade Claude Gemini vad gäller säkerhet, och att Claude skulle vägra svara på osäkra uppmaningar, som rollspel, och att Gemini hade matat ut olämpligt innehåll till vissa uppmaningar. Även om Google är en av Anthropics största investerare, förbjuder Anthropics användarvillkor uttryckligen olicensierad användning av Claude för att utveckla konkurrerande produkter eller träna konkurrerande AI-modeller.

Google DeepMind talesman Shira McNamara medgav att de verkligen jämförde AI-modellutdata, men förnekade att de använde Claude för att träna Tvillingarna, men svarade inte på om de hade licensierats av Anthropic för att göra utdatajämförelsen.

Related Posts