Всередині Google використовує Клода, щоб навчити Gemini порівнювати результати для підвищення безпеки системи

Зараз розробка штучного інтелекту час від часу включає порівняння з іншими моделями. Нещодавно повідомлялося, що Google може використовувати модель Claude конкурента Anthropic для підвищення безпеки своєї власної моделі.

TechCrunch повідомляє, що Google доручає аутсорсеру порівняти результати Gemini з Claude. Аутсорсинговому персоналу потрібно до 30 хвилин, щоб оцінити кожен набір відповідей, і в звіті цитується аутсорсинговий персонал, який каже, що вони знайшли кілька результатів у вмісті, що очікує на розгляд, на внутрішній платформі Google із підписом «Я Клод з Anthropic». .”

За словами стороннього співробітника, Клод перевершував Gemini з точки зору безпеки, і що Клод відмовлявся відповідати на небезпечні підказки, такі як рольові ігри, і що Gemini виводив невідповідний вміст у певні підказки. Хоча Google є одним із головних інвесторів Anthropic, умови використання Anthropic прямо забороняють неліцензійне використання Claude для розробки конкуруючих продуктів або навчання конкуруючих моделей ШІ.

Представник Google DeepMind Шира Макнамара визнала, що вони справді порівнювали результати моделей штучного інтелекту, але заперечила використання Claude для навчання Gemini, але не відповіла, чи мали вони ліцензію Anthropic на порівняння результатів.

Related Posts