Σήμερα, η ανάπτυξη AI περιλαμβάνει συγκρίσεις με άλλα μοντέλα κατά καιρούς. Πρόσφατα, αναφέρθηκε ότι η Google μπορεί να χρησιμοποιεί το ανταγωνιστικό μοντέλο Claude της Anthropic για να βελτιώσει την ασφάλεια του δικού της μοντέλου.
Το TechCrunch αναφέρει ότι η Google αναθέτει σε έναν εξωτερικό συνεργάτη να συγκρίνει την παραγωγή του Gemini με του Claude. Χρειάζονται έως και 30 λεπτά για το προσωπικό που έχει ανατεθεί σε εξωτερικούς συνεργάτες να αξιολογήσει κάθε σύνολο απαντήσεων και η αναφορά ανέφερε ότι το προσωπικό που ανατέθηκε σε εξωτερικούς συνεργάτες είπε ότι είχαν βρει πολλά αποτελέσματα στο εκκρεμές περιεχόμενο στην εσωτερική πλατφόρμα της Google με τη λεζάντα "Είμαι ο Claude από το Anthropic .»
Σύμφωνα με τον υπάλληλο που ανατέθηκε σε εξωτερικούς συνεργάτες, ο Claude ξεπέρασε τις επιδόσεις του Gemini όσον αφορά την ασφάλεια και ότι ο Claude θα αρνιόταν να ανταποκριθεί σε μη ασφαλείς προτροπές, όπως το παιχνίδι ρόλων, και ότι ο Gemini είχε εξάγει ακατάλληλο περιεχόμενο σε ορισμένα μηνύματα. Ενώ η Google είναι ένας από τους σημαντικότερους επενδυτές της Anthropic, οι όροι υπηρεσίας της Anthropic απαγορεύουν ρητά τη χρήση του Claude χωρίς άδεια για την ανάπτυξη ανταγωνιστικών προϊόντων ή την εκπαίδευση ανταγωνιστικών μοντέλων τεχνητής νοημοσύνης.
Η εκπρόσωπος της Google DeepMind, Shira McNamara, παραδέχτηκε ότι πράγματι συνέκριναν τις εκροές μοντέλων AI, αλλά αρνήθηκε ότι χρησιμοποίησε τον Claude για να εκπαιδεύσει τους Gemini, αλλά δεν απάντησε στο εάν είχαν λάβει άδεια από την Anthropic για να κάνουν τη σύγκριση εξόδου.