I dag involverer AI-udvikling sammenligninger med andre modeller fra tid til anden. For nylig blev det rapporteret, at Google muligvis bruger rivaliserende Anthropics Claude-model til at forbedre sikkerheden for sin egen model.
TechCrunch rapporterer, at Google bestiller en outsourcer til at sammenligne Geminis output med Claudes. Det tager op til 30 minutter for det outsourcede personale at evaluere hvert sæt svar, og rapporten citerede det outsourcede personale for at sige, at de havde fundet flere output i det afventende indhold på Googles interne platform med billedteksten "Jeg er Claude fra Anthropic ."
Ifølge den outsourcede medarbejder udkonkurrerede Claude Gemini med hensyn til sikkerhed, og at Claude ville nægte at reagere på usikre opfordringer, såsom rollespil, og at Gemini havde udsendt upassende indhold til visse prompter. Mens Google er en af Anthropics største investorer, forbyder Anthropics servicevilkår udtrykkeligt ulicenseret brug af Claude til at udvikle konkurrerende produkter eller træne konkurrerende AI-modeller.
Google DeepMind-talsmand Shira McNamara indrømmede, at de faktisk sammenlignede AI-modeloutput, men nægtede at bruge Claude til at træne Gemini, men svarede ikke på, om de var blevet licenseret af Anthropic til at udføre output-sammenligningen.