Компания Anthropic заявила, что китайские ИИ-лаборатории DeepSeek, Moonshot и MiniMax используют Claude для обучения своих моделей путем дистилляции. Однако в сообществе позицию фирмы раскритиковали.
Согласно официальному релизу, упомянутые организации якобы совершили более 16 млн актов взаимодействия с Claude, используя 24 000 мошеннических аккаунтов. В организации подчеркнули, это является нарушением не только ее условий обслуживания, но и экспортных ограничений США.
Отметим, дистилляция — это метод обучения ИИ-моделей на базе ответов другого решения, «более продвинутого», как заявили в Anthropic.
В отдельных случаях, согласно публикации компании, конкуренты напрямую просили чат-бот Claude раскрыть особенности механизма его обучения. В частности, DeepSeek просила подробно сформулировать и расписать логику, которая лежит в основе готового ответа.
Также Anthropic подчеркнула, что ее продукты недоступны коммерческим клиентам в Китае. Для обхода этих ограничений контрагенты используют прокси-решения.
Фирма намерена и дальше совершенствовать меры обнаружения подобных кампаний, усилила проверку подлинности учетных данных, предприняла определенные контрмеры и готова обмениваться информацией во избежание повторения таких инцидентов.
Заявление Anthropic вызвало критику и осуждение со стороны пользователей. В частности, Тори Грин, соучредитель поставщика ИИ-инфраструктуры IO.Net, написал следующее:
При этом против самой Anthropic ранее подала иск команда ресурса Reddit. Компанию обвинили в использовании материалов форума для обучения своих моделей.
Ранее мы освещали мнение CEO Anthropic Дарио Амодея о том, что экспорт чипов Nvidia в Китай — это равносильно поставкам ядерного оружия.
Сообщение Anthropic обвинила DeepSeek, Moonshot и MiniMax в эксплуатации Claude появились сначала на INCRYPTED.


