Google gebruikt Claude intern om Gemini te trainen in het vergelijken van resultaten om de systeembeveiliging te verbeteren

Tegenwoordig omvat de ontwikkeling van AI van tijd tot tijd vergelijkingen met andere modellen. Onlangs werd gemeld dat Google mogelijk het Claude-model van rivaliserende Anthropic gebruikt om de beveiliging van zijn eigen model te verbeteren.

TechCrunch meldt dat Google een outsourcer de opdracht geeft om de output van Gemini te vergelijken met die van Claude. Het duurt maximaal 30 minuten voordat het uitbestede personeel elke reeks reacties heeft geëvalueerd, en in het rapport werd het uitbestede personeel geciteerd dat ze meerdere resultaten hadden gevonden in de openstaande inhoud op het interne platform van Google met het onderschrift 'Ik ben Claude van Anthropic .”

Volgens de uitbestede medewerker presteerde Claude beter dan Gemini op het gebied van beveiliging, en dat Claude zou weigeren te reageren op onveilige aanwijzingen, zoals rollenspellen, en dat Gemini op bepaalde aanwijzingen ongepaste inhoud had weergegeven. Hoewel Google een van de belangrijkste investeerders van Anthropic is, verbieden de servicevoorwaarden van Anthropic expliciet het gebruik zonder licentie van Claude om concurrerende producten te ontwikkelen of concurrerende AI-modellen te trainen.

Google DeepMind-woordvoerder Shira McNamara gaf toe dat ze inderdaad de output van AI-modellen aan het vergelijken waren, maar ontkende dat ze Claude hadden gebruikt om Gemini te trainen, maar reageerde niet op de vraag of ze van Anthropic een licentie hadden gekregen om de outputvergelijking uit te voeren.

Related Posts