Al giorno d’oggi, lo sviluppo dell’intelligenza artificiale implica di tanto in tanto confronti con altri modelli. Recentemente, è stato riferito che Google potrebbe utilizzare il modello Claude della rivale Anthropic per migliorare la sicurezza del proprio modello.
TechCrunch riferisce che Google sta incaricando un outsourcer di confrontare l'output di Gemini con quello di Claude. Lo staff in outsourcing impiega fino a 30 minuti per valutare ciascuna serie di risposte e, nel rapporto, lo staff in outsourcing afferma di aver trovato più output nei contenuti in sospeso sulla piattaforma interna di Google con la didascalia "Sono Claude di Anthropic .”
Secondo il dipendente in outsourcing, Claude ha sovraperformato Gemini in termini di sicurezza e che Claude si sarebbe rifiutato di rispondere a istruzioni non sicure, come il gioco di ruolo, e che Gemini aveva prodotto contenuti inappropriati per determinate istruzioni. Sebbene Google sia uno dei principali investitori di Anthropic, i termini di servizio di Anthropic vietano esplicitamente l'uso senza licenza di Claude per sviluppare prodotti concorrenti o addestrare modelli di intelligenza artificiale concorrenti.
La portavoce di Google DeepMind, Shira McNamara, ha ammesso che stavano effettivamente confrontando gli output dei modelli di intelligenza artificiale, ma ha negato di aver utilizzato Claude per addestrare Gemini, ma non ha risposto se avevano ottenuto la licenza da Anthropic per eseguire il confronto degli output.