I dag innebærer AI-utvikling sammenligninger med andre modeller fra tid til annen. Nylig ble det rapportert at Google kan bruke rivaliserende Anthropics Claude-modell for å forbedre sikkerheten til sin egen modell.
TechCrunch rapporterer at Google gir en outsourcer i oppdrag å sammenligne Geminis produksjon med Claudes. Det tar opptil 30 minutter for det utkontrakterte personalet å evaluere hvert sett med svar, og rapporten siterte det utkontrakterte personalet som sa at de hadde funnet flere utdata i det ventende innholdet på Googles interne plattform med bildeteksten «Jeg er Claude fra Anthropic ."
I følge den utkontrakterte medarbeideren overgikk Claude Gemini når det gjaldt sikkerhet, og at Claude ville nekte å svare på utrygge forespørsler, som rollespill, og at Gemini hadde gitt ut upassende innhold til visse forespørsler. Mens Google er en av Anthropics største investorer, forbyr Anthropics bruksvilkår eksplisitt ulisensiert bruk av Claude for å utvikle konkurrerende produkter eller trene konkurrerende AI-modeller.
Google DeepMind-talsperson Shira McNamara innrømmet at de faktisk sammenlignet AI-modellutdata, men nektet for å bruke Claude til å trene Gemini, men svarte ikke på om de hadde fått lisens fra Anthropic til å gjøre utdatasammenligningen.