Web Analytics
Forklog
2026-02-17 08:23:10

СМИ узнали о планах SpaceX создать ПО для автономного оружия Пентагона

Космическая компания Илона Маска SpaceX и с недавних пор ее дочерняя ИИ-фирма xAI участвуют в секретном новом конкурсе Пентагона на создание автономных роев дронов с голосовым управлением. Об этом пишет Bloomberg со ссылкой на источники. Вход двух стартапов предпринимателя в сферу разработки вооружений на базе искусственного интеллекта — новый и потенциально спорный поворот для миллиардера, пишет агентство. SpaceX давно является оборонным подрядчиком, а Маск активно поддерживает развитие ИИ, однако он выступал против создания «новых инструментов для убийства людей». В 2015 году миллиардер подписал открытое письмо, предупреждающее об опасности автономного вооружения. Предприниматель призывал запретить оружие, которое может самостоятельно выбирать цели и действовать без значимого контроля человека. Суть проекта Для участия в шестимесячном тендере с фондом $100 млн отобрано ограниченное количество компаний. Он направлен на создание продвинутой «технологии роя, способной переводить голосовые команды в цифровые инструкции и управлять несколькими дронами». Возможность одновременно координировать действия нескольких беспилотников уже существует. Однако создание ПО для одновременного пилотирования несколькими десятками аппаратов остается сложной задачей. Проект будет развиваться в пять этапов, начиная с разработки программного обеспечения и заканчивая испытаниями в реальных условиях. БПЛА применят в наступательных целях, утверждают в Bloomberg. Стартап xAI начал активный найм инженеров в Вашингтоне и на западном побережье США с действующим доступом к гостайне для работы с федеральными подрядчиками. В январе ИИ-бота Grok интегрировали с сетью Пентагона. Министр обороны США Пит Хегсет заявил, что «предоставит все необходимые данные» из военных IT-систем, в том числе информацию из отдела разведки. Ранее Министерство обороны США выделило $200 млн компаниям Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. Главное управление цифровых и ИИ-технологий ведомства заявило, что средства помогут ускорить внедрение передовых возможностей нейросетей в инструменты национальной безопасности. OpenAI тоже SpaceX давно является оборонным подрядчиком, однако компания в основном занималась многоразовыми ракетами и спутниками для космических исследований, военной связи и разведки. О ПО для наступательного оружия речи не шло. Она не единственная, кто принимает участие в проекте. OpenAI поддерживает заявку фирмы Applied Intuition. Однако она ограничится только элементом «центра управления миссией», который будет переводить голосовые команды командиров в цифровые инструкции. Технологии компании Сэма Альтмана не будут использоваться для управления дронами, интеграции оружия или выбора целей. Пентагон наступает Пентагон усиливает применение искусственного интеллекта на поле боя. В январе он опубликовал новую стратегию ИИ, которая предполагает применение агентов — от планирования операций до наведения на цели, потенциально включая смертельные удары. В феврале СМИ узнали о применении Claude от Anthropic в операции по захвату президента Венесуэлы Николаса Мадуро. При этом контракт ведомства с ИИ-стартапом планируют пересмотреть. У сторон возникли разногласия из-за жесткой этической политики Anthropic. Правила запрещают использовать модель Claude для массовой слежки и автономных летальных операций. «Нашей стране нужны партнеры, готовые помогать бойцам побеждать в любой войне», — заявил представитель Пентагона Шон Парнелл. Армия США давит на четыре крупные ИИ-компании, чтобы те разрешили использовать технологии для «всех законных целей». Речь идет в том числе о разработке оружия, сборе разведданных и боевых операциях. Anthropic отказывается снять ограничения на слежку за гражданами США и создание полностью автономного вооружения. Переговоры зашли в тупик, однако быстро заменить Claude сложно из-за технологического превосходства модели в специфических государственных задачах. Помимо чат-бота Anthropic, Пентагон использует ChatGPT от OpenAI, Gemini от Google и Grok от xAI в несекретных задачах. Все три согласились ослабить ограничения, действующие для обычных пользователей. Сейчас обсуждается перенос LLM в секретный контур и их применение «для всех законных целей». Одна из трех компаний уже согласилась это сделать, другие две «проявляют большую гибкость» по сравнению с Anthropic. Axios узнали, что Хегсет «близок» к разрыву деловых отношений с Anthropic и к признанию компании «риском для цепочки поставок» — это значит, что любая фирма, желающая работать с армией США, должна будет прекратить сотрудничество с создателем Claude. «Это будет чертовски тяжело распутывать. Мы позаботимся о том, чтобы они заплатили цену за то, что вынудили нас пойти на такой шаг», — заявил высокопоставленный представитель Пентагона. Признание Anthropic риском для цепочки поставок обяжет подрядчиков Пентагона подтвердить, что они не используют Claude в своих процессах. Скорее всего, это затронет многие компании. Ранее стартап Дарио Амодеи заявил, что восемь из 10 крупнейших фирм США применяют чат-бота. Напомним, в марте 2025 года Пентагон анонсировал использование ИИ-агентов для моделирования столкновений с иностранными противниками. https://forklog.com/exclusive/ai/general-algoritm

Crypto Haber Bülteni Al
Feragatnameyi okuyun : Burada sunulan tüm içerikler web sitemiz, köprülü siteler, ilgili uygulamalar, forumlar, bloglar, sosyal medya hesapları ve diğer platformlar (“Site”), sadece üçüncü taraf kaynaklardan temin edilen genel bilgileriniz içindir. İçeriğimizle ilgili olarak, doğruluk ve güncellenmişlik dahil ancak bunlarla sınırlı olmamak üzere, hiçbir şekilde hiçbir garanti vermemekteyiz. Sağladığımız içeriğin hiçbir kısmı, herhangi bir amaç için özel bir güvene yönelik mali tavsiye, hukuki danışmanlık veya başka herhangi bir tavsiye formunu oluşturmaz. İçeriğimize herhangi bir kullanım veya güven, yalnızca kendi risk ve takdir yetkinizdedir. İçeriğinizi incelemeden önce kendi araştırmanızı yürütmeli, incelemeli, analiz etmeli ve doğrulamalısınız. Ticaret büyük kayıplara yol açabilecek yüksek riskli bir faaliyettir, bu nedenle herhangi bir karar vermeden önce mali danışmanınıza danışın. Sitemizde hiçbir içerik bir teklif veya teklif anlamına gelmez