Google îl folosește intern pe Claude pentru a-l antrena pe Gemeni să compare rezultate pentru a îmbunătăți securitatea sistemului

În zilele noastre, dezvoltarea AI implică comparații cu alte modele din când în când. Recent, s-a raportat că Google ar putea folosi modelul Claude al rivalului Anthropic pentru a îmbunătăți securitatea propriului model.

TechCrunch raportează că Google comandă unui furnizor extern să compare producția lui Gemini cu cea a lui Claude. Este nevoie de până la 30 de minute pentru ca personalul externalizat să evalueze fiecare set de răspunsuri, iar raportul a citat personalul externalizat spunând că au găsit mai multe rezultate în conținutul în așteptare de pe platforma internă Google cu legenda „Sunt Claude de la Anthropic. .”

Potrivit angajatului externalizat, Claude i-a depășit pe Gemeni în ceea ce privește securitatea și că Claude ar refuza să răspundă la solicitări nesigure, cum ar fi jocurile de rol, și că Gemeni a trimis conținut neadecvat la anumite solicitări. În timp ce Google este unul dintre investitorii majori ai Anthropic, termenii și condițiile Anthropic interzic în mod explicit utilizarea fără licență a lui Claude pentru a dezvolta produse concurente sau a antrena modele AI concurente.

Purtătorul de cuvânt al Google DeepMind, Shira McNamara, a recunoscut că au comparat într-adevăr rezultatele modelului AI, dar a negat că l-au folosit pe Claude pentru a-i antrena pe Gemeni, dar nu a răspuns dacă au fost autorizați de către Anthropic pentru a face compararea rezultatelor.

Related Posts