Google använder internt Claude för att träna Gemini för att jämföra utgångar för att förbättra systemsäkerheten

Numera innebär AI -utveckling jämförelser med andra modeller då och då. Nyligen rapporterades det att Google kan använda Rival Anthropics Claude -modell för att förbättra säkerheten för sin egen modell.

TechCrunch rapporterar att Google beställer en outsourcer för att jämföra Geminis produktion med Claude's. Det tar upp till 30 minuter för den outsourcade personalen att utvärdera varje uppsättning svar, och rapporten citerade den outsourcade personalen för att säga att de hade hittat flera utgångar i det pågående innehållet på Googles interna plattform med bildtexten ”Jag är Claude från Anthropic . ”

Enligt den outsourcade anställden överträffade Claude Gemini när det gäller säkerhet, och att Claude skulle vägra att svara på osäkra instruktioner, såsom rollspel, och att Gemini hade utmatat olämpligt innehåll till vissa instruktioner. Medan Google är en av Anthropics stora investerare, förbjuder Anthropics användarvillkor uttryckligen den olicensierade användningen av Claude för att utveckla konkurrerande produkter eller träna konkurrerande AI -modeller.

Google DeepMind -talesman Shira McNamara medgav att de verkligen jämförde AI -modellutgångar, men förnekade att använda Claude för att träna Gemini, men svarade inte på om de hade licensierats av Anthropic för att göra utgångsjämförelsen.

Related Posts