Šiais laikais dirbtinio intelekto kūrimas apima kartais palyginimus su kitais modeliais. Neseniai buvo pranešta, kad „Google“ gali naudoti konkurento Anthropic Claude modelį, kad pagerintų savo modelio saugumą.
„TechCrunch“ praneša, kad „Google“ paveda užsakovui palyginti „Gemini“ ir „Claude“ produkciją. Užtrunka iki 30 minučių, kol užsakomasis personalas įvertina kiekvieną atsakymų rinkinį, o ataskaitoje cituojamas užsakomasis personalas, sakęs, kad jie rado keletą rezultatų laukiančiame „Google“ vidinės platformos turinyje su prierašu „Aš Klodas iš Antropikos. .
Anot užsakomojo darbuotojo, Claude'as pranoko Dvynius saugumo požiūriu ir kad Claude'as atsisakė reaguoti į nesaugius raginimus, pavyzdžiui, žaisti vaidmenimis, ir kad Dvyniai į tam tikrus raginimus išvedė netinkamą turinį. Nors „Google“ yra vienas didžiausių „Anthropic“ investuotojų, „Anthropic“ paslaugų teikimo sąlygos aiškiai draudžia nelicencijuoti „Claude“ naudojimą kuriant konkuruojančius produktus arba mokant konkuruojančius dirbtinio intelekto modelius.
„Google DeepMind“ atstovė Shira McNamara pripažino, kad jie iš tikrųjų lygino AI modelio išvestis, tačiau neigė, kad naudojo Claude mokyti Dvynius, tačiau neatsakė, ar jiems buvo suteikta „Anthropic“ licencija atlikti išvesties palyginimą.