Web Analytics
Forklog
2026-04-27 08:37:37

Anthropic протестировала маркетплейс для торговли между ИИ-агентами

Компания Anthropic создала тестовую площадку, где ИИ-агенты выступают в роли покупателей и продавцов. Эксперимент получил название Project Deal. New Anthropic research: Project Deal.We created a marketplace for employees in our San Francisco office, with one big twist. We tasked Claude with buying, selling and negotiating on our colleagues’ behalf. pic.twitter.com/H2f6cLDlAW— Anthropic (@AnthropicAI) April 24, 2026 В проекте участвовали 69 сотрудников фирмы. Каждому выделили бюджет $100 в виде подарочных карт.  Перед стартом Claude провел с участниками интервью: выяснил, какие личные вещи они готовы продать, что хотели бы купить, по какой цене и с каким стилем переговоров должен действовать их агент. Затем на основе ответов для каждого создали персональный системный промпт. Рынок запустили в Slack. Там агенты публиковали объявления, делали предложения по чужим товарам, торговались и заключали сделки без участия людей. После завершения эксперимента сотрудники обменялись настоящими предметами, которые согласовали их «ИИ-представители».  Источник: Anthropic.  Всего агенты заключили 186 сделок по более чем 500 объявлениям. Совокупная стоимость транзакций превысила $4000.  В Anthropic отметили, что участники в целом остались довольны результатами эксперимента. Некоторые заявили о готовности платить за похожий сервис в будущем. Четыре версии рынка Anthropic запустила четыре независимые версии маркетплейса. Одна была «реальной» — именно по ее итогам сотрудники обменивались товарами. Остальные использовались для исследовательских целей. Эта информация не раскрывалась  В двух вариантах всех участников представляла Claude Opus 4.5 — на тот момент самая продвинутая модель Anthropic. В двух других участникам случайно назначали Opus 4.5 или менее мощную Claude Haiku 4.5. Качество модели влияло на результат переговоров. Пользователи с Opus в среднем заключали примерно на две сделки больше, чем пользователи с Haiku. При продаже одинаковых товаров Opus также добивался более высоких цен. В среднем разница составляла $3,64.  Haiku продал велосипед за $38, а Opus — за $65. Источник: Anthropic.  Участники не всегда замечали расхождение. В Anthropic это назвали потенциальной проблемой будущих рынков с участием ИИ-агентов. Пользователи с менее сильными моделями могут получать худшие условия, не понимая, что находятся в невыгодном положении. Промпты почти не повлияли на результат Исследователи также проверили, влияют ли стартовые указания людей на поведение агентов. Часть участников просила Claude действовать дружелюбно, часть — агрессивнее торговаться. По данным Anthropic, грубые инструкции не оказали статистически значимого влияния на вероятность продажи, итоговую цену или способность покупать дешевле.  Команда проекта уточнила, что дело не обязательно в слабом следовании инструкциям: Claude действительно мог воспроизводить заданный стиль общения, но это не давало заметного коммерческого преимущества. Непредвиденные результаты  В Anthropic отметили несколько непредсказуемых эпизодов. Перед запуском агенты получили ограниченный объем данных: интервью с участниками длились менее 10 минут, а после старта люди уже не могли вмешиваться в переговоры. В одном из случаев сотрудник купил через ассистента такой же сноуборд, который у него уже был. По словам специалистов, человек не стал бы делать такую покупку самостоятельно, но агент смог точно определить предпочтения участника. To our amazement, another Claude agent modeled its human’s preferences so accurately that—based on only an offhand mention of an interest in skiing—Claude bought him the exact snowboard he already owned. (Here he is, duplicate snowboard in hand.) pic.twitter.com/SsAyeB9pcI— Anthropic (@AnthropicAI) April 24, 2026 Другой сотрудник попросил бота купить «подарок для себя». Сделка прошла в реальной версии эксперимента. В итоге в офис принесли пакет шариков для пинг-понга, который Anthropic оставила «от имени Claude». Некоторые агенты торговались не за товары, а за опыт. Один из них предложил бесплатный день с собакой сотрудницы. После обсуждения с другим ассистентом стороны согласовали «собачье свидание», которое работники впоследствии провели.  Источник: Anthropic.   В Anthropic подчеркнули, что конкретно эти случаи вряд ли повторятся в будущем. Однако сочетание человеческих предпочтений и непредсказуемого поведения ИИ может приводить к неожиданным результатам.  Вопросы к надежности  Основатель неназванной агротехнологической компании сообщил на Reddit, что утром 110 сотрудников одновременно получили уведомление о приостановке доступа к Claude без предварительного предупреждения. ANTHROPIC JUST BANNED A 110 PERSON COMPANY OVERNIGHT WITHOUT WARNINGmonday morning at an agricultural tech company, every single employee wakes up to an email saying their claude account has been suspended110 people locked out at the same time with zero warning and the email… pic.twitter.com/qARizhgOXs— Om Patel (@om_patel5) April 27, 2026 По его словам, письмо выглядело как индивидуальная блокировка и содержало ссылку на персональную форму апелляции, из-за чего команда не сразу поняла, что ограничение затронуло всю организацию. Предприниматель подчеркнул, что восстановить доступ оперативно не удалось. Спустя 36 часов после подачи запросов Anthropic не предоставила разъяснений. При этом API-аккаунт фирмы продолжал работать и списывать средства. Корпоративные администраторы не могли войти в панель управления, чтобы проверить платежи и использование сервиса. Основатель также отметил, что блокировка всей организации могла произойти из-за действий одного пользователя. В Claude нет отдельных ограничений на уровне рабочего пространства, механизма локальной изоляции нарушений или административного приоритета для сохранения доступа остальной команды. По его мнению, такая модель модерации ставит под сомнение возможность использования Claude в качестве критической инфраструктуры для повседневных бизнес-операций. С проблемой сталкиваются и другие компании. Один из пользователей поделился ссылкой на сервис, где на момент написания зарегистрировано 53 подобных случая.  Напомним, 24 апреля корпорация Google объявила об инвестициях на $40 млрд в Anthropic. 

Ricevi la newsletter di Crypto
Leggi la dichiarazione di non responsabilità : Tutti i contenuti forniti nel nostro sito Web, i siti con collegamento ipertestuale, le applicazioni associate, i forum, i blog, gli account dei social media e altre piattaforme ("Sito") sono solo per le vostre informazioni generali, procurati da fonti di terze parti. Non rilasciamo alcuna garanzia di alcun tipo in relazione al nostro contenuto, incluso ma non limitato a accuratezza e aggiornamento. Nessuna parte del contenuto che forniamo costituisce consulenza finanziaria, consulenza legale o qualsiasi altra forma di consulenza intesa per la vostra specifica dipendenza per qualsiasi scopo. Qualsiasi uso o affidamento sui nostri contenuti è esclusivamente a proprio rischio e discrezione. Devi condurre la tua ricerca, rivedere, analizzare e verificare i nostri contenuti prima di fare affidamento su di essi. Il trading è un'attività altamente rischiosa che può portare a perdite importanti, pertanto si prega di consultare il proprio consulente finanziario prima di prendere qualsiasi decisione. Nessun contenuto sul nostro sito è pensato per essere una sollecitazione o un'offerta