Google verwendet intern Claude, um Gemini zu trainieren, um Ausgänge zu vergleichen, um die Systemsicherheit zu verbessern

Heutzutage umfasst die KI -Entwicklung von Zeit zu Zeit Vergleiche mit anderen Modellen. Vor kurzem wurde berichtet, dass Google möglicherweise das Claude -Modell von Rivalen Anthropic verwendet, um die Sicherheit seines eigenen Modells zu verbessern.

TechCrunch berichtet, dass Google einen Outsourcer beauftragt, um Geminis Ausgabe mit Claude zu vergleichen. Es dauert bis zu 30 Minuten, bis das ausgelagerte Personal die Antworten bewertet hat, und der Bericht zitierte das ausgelagerte Personal mit der Aussage, dass sie mehrere Ausgänge in den anstehenden Inhalten auf der internen Plattform von Google mit dem Titel „Ich bin Claude von anthropic . ““

Nach Angaben des ausgelagerten Mitarbeiters übertraf Claude Gemini in Bezug auf die Sicherheit, und diese Claude würde sich weigern, auf unsichere Aufforderungen wie das Rollenspiel zu reagieren, und dass Gemini unangemessene Inhalte auf bestimmte Aufforderungen ausgab. Während Google einer der Hauptinvestoren von Anthropic ist, verbieten Anthropics Servicebedingungen von Anthropic ausdrücklich die nicht lizenzierte Verwendung von Claude, um konkurrierende Produkte zu entwickeln oder konkurrierende KI -Modelle auszubilden.

Der Sprecher von Google Deepmind, Shira McNamara, gab zu, dass sie tatsächlich die KI -Modellausgaben vergleichen, verweigerten jedoch die Verwendung von Claude, um Gemini zu trainieren, antworteten jedoch nicht darauf, ob sie von Anthropic für den Ausgangsvergleich lizenziert worden waren.

Related Posts