Google ще използва Claude на Anthropic, за да подобри своя AI Gemini

Подобряването на Gemini AI на Google води до сравняване на неговите отговори с резултатите произведени от конкурентния модел на Anthropic Claude. Тъй като технологичните компании се надпреварват да създават по-добри AI модели, ефективността им често се оценява спрямо конкурентите. Това става обикновено чрез пускане на техните собствени модели през индустриални бенчмаркове, вместо да карат изпълнителите старателно да оценяват AI отговорите на своите конкуренти.

Оценка и производителност

Изпълнителите работят и по Gemini. Те са натоварени да оценят точността на резултатите от модела, чрез преценка на всеки отговор, който виждат. Това се прави според множество критерии, като истинност и многословие. Изпълнителите получават до 30 минути на подкана, за да определят чий отговор е по-добър.

Наскоро започнаха да се забелязват препратки към Claude на Anthropic. Те се появяват във вътрешната платформа на Google, която използват за сравняване на Gemini с други неназовани AI модели. Поне един от резултатите, представени на изпълнителите на Gemini, изрично заявява: „Аз съм Claude, създаден от Anthropic.“

Настройки за безопасност

Отговорите на Claude изглежда наблягат повече на безопасността. Настройките са сред най-строгите при моделите с изкуствен интелект. В определени случаи Claude няма да отговори на подкани, които смята за опасни, като например ролева игра на различен AI асистент. В други, програмата избягва да отговори на подкана, докато отговорът е маркиран като огромно нарушение на безопасността за включването на голота или робство.

Търговските условия на услугата на Anthropic забраняват на клиентите да имат достъп до Claude за създаване на конкурентен продукт, услуга или обучение на други AI модели без одобрението на Anthropic. Google е основен инвеститор в Anthropic.

Коректна информация

В съответствие със стандартната индустриална практика, в някои случаи резултатите от модела се сравняват като част от процеса на оценка. Неотдавна изпълнителите на Google, работещи върху AI продуктите на компанията, са били принудени да оценят отговорите на AI на Gemini в области извън техния опит. Вътрешната кореспонденция изразява загриженост, че Gemini може да генерира неточна информация по изключително чувствителни теми като здравеопазването.

Сподели
Предишна страницаКакво е новото в смарт очилата Ray Ban
Следваща страницаНай-добрият AI модел с отворен код
Технологичен журналист от 2012 г. със сериозен опит в отразяването на новини за софтуер, мобилни технологии, мобилни приложения. Има в активите си стотици статии по теми като 3G, 4G, 5G, приложенията за iPhone, Android и други популярни платформи, както и множество други сфери.