Google verwendet Claude intern, um Gemini darin zu trainieren, Ausgaben zu vergleichen und so die Systemsicherheit zu verbessern

Heutzutage erfordert die KI-Entwicklung von Zeit zu Zeit Vergleiche mit anderen Modellen. Kürzlich wurde berichtet, dass Google möglicherweise das Claude-Modell des Konkurrenten Anthropic nutzt, um die Sicherheit seines eigenen Modells zu verbessern.

TechCrunch berichtet, dass Google einen Outsourcer damit beauftragt, die Ergebnisse von Gemini mit denen von Claude zu vergleichen. Es dauert bis zu 30 Minuten, bis die ausgelagerten Mitarbeiter jeden Antwortsatz ausgewertet haben, und in dem Bericht werden die ausgelagerten Mitarbeiter mit der Aussage zitiert, sie hätten in den ausstehenden Inhalten auf der internen Plattform von Google mehrere Ausgaben mit der Überschrift „Ich bin Claude von Anthropic“ gefunden .“

Dem ausgelagerten Mitarbeiter zufolge war Claude Gemini in puncto Sicherheit überlegen, und Claude weigerte sich, auf unsichere Eingabeaufforderungen wie Rollenspiele zu reagieren, und Gemini habe bei bestimmten Eingabeaufforderungen unangemessene Inhalte ausgegeben. Obwohl Google einer der Hauptinvestoren von Anthropic ist, verbieten die Nutzungsbedingungen von Anthropic ausdrücklich die unlizenzierte Nutzung von Claude zur Entwicklung konkurrierender Produkte oder zum Trainieren konkurrierender KI-Modelle.

Google DeepMind-Sprecherin Shira McNamara gab zu, dass sie tatsächlich die Ergebnisse von KI-Modellen verglichen, bestritt jedoch, Claude zum Trainieren von Gemini zu verwenden, antwortete jedoch nicht darauf, ob sie von Anthropic eine Lizenz für den Ausgabevergleich erhalten hatten.

Related Posts