На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Страна и люди

10 383 подписчика

Свежие комментарии

  • Александр Ляшенко
    Увеличились в трое, среднесуточные показатели запуска ВС РФ дронов-камикадзе по Украине ("Герани" и "Герберы") по вер...Удары российских ...
  • Александр Ляшенко
    Удары не так точны и мощны как хотелось бы, россиянам. Ведь от их точности и мощи, зависит время СВО.😡Российские войска...
  • Александр Каплуненко
    Рыжий вновь обосрался?Наш цирк зажигает...

@Этичный@ ИИ идет на войну

photo_2026-02-16_15-58-42.jpg

«Этичный» ИИ пошёл на войну

Компания Anthropic строила свой бренд на обещании: мы делаем ИИ, который не причинит вреда. У их модели Claude есть собственная «конституция» — набор этических принципов, по которым она обучена быть полезной, безвредной и честной. На каждой конференции руководители Anthropic рассказывали про ответственный подход, протоколы безопасности и заботу о человечестве.
А потом выяснилось, что эту самую модель использовали в режиме реального времени во время военного рейда на Каракас, в ходе которого бомбили городские объекты, гибли люди, а президента суверенного государства захватили и вывезли из страны.

13 февраля 2026 года Wall Street Journal (https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17) и Axios (https://www.axios.com/2026/02/13/anthropic-claude-maduro-raid-pentagon) одновременно сообщили, что языковая модель Claude от Anthropic применялась во время операции по захвату президента Венесуэлы Николаса Мадуро и его жены Силии Флорес. Модель была развёрнута через платформу Palantir. Это первый публично известный случай, когда коммерческая ИИ-модель работала в контуре секретной военной операции Пентагона.

Реакция Anthropic на публикацию — готовая глава для учебника по корпоративному двуличию. Компания выпустила идентичные заявления для Axios и Fox News:

«Мы не можем комментировать, использовался ли Claude или какая-либо другая ИИ-модель для каких-либо конкретных операций, засекреченных или иных».

При этом анонимный источник, знакомый с ситуацией, заверил Fox News, что Anthropic «отслеживает засекреченное и незасекреченное использование и уверена, что всё использование соответствует политикам компании».
То есть с одной стороны — «мы не можем комментировать», а с другой — «но всё в рамках наших правил».


Но чтобы понять, как Claude оказалась на поле боя, нужно отмотать назад. Фундамент был заложен ещё 7 ноября 2024 года, когда Anthropic, Palantir и Amazon объявили о трёхстороннем партнёрстве: модели Claude интегрировались в платформу Palantir на так называемом шестом уровне, что даёт допуск к секретным данным Министерства обороны. Технический директор Palantir Шьям Санкар тогда заявил, что его компания стала «первым отраслевым партнёром, предоставившим модели Claude в засекреченных средах». Уже тогда было понятно, для чего это делается, но конференции про этику продолжались.

К концу января 2026 года отношения Anthropic и Пентагона начали портиться, но не из-за операции в Венесуэле, а из-за того, что военные хотели ещё большего. Reuters 29 января сообщил, что переговоры зашли в «стадию застоя»: Пентагон требовал убрать ограничения, запрещающие использование Claude для автономного наведения оружия и внутренней слежки за американцами. Anthropic на этих двух «красных линиях» формально стояла насмерть. Формально — потому что, как показала операция в Каракасе, другие красные линии, вроде запрета на поддержку насилия, оказались вполне пересекаемыми.

За четыре дня до публикации WSJ из Anthropic уволился Мринанк Шарма — глава группы безопасности. В открытом письме он написал: «Мир в опасности. Я видел, как трудно позволить ценностям управлять действиями». И уехал учиться на поэта.

Никто не поднимал бы шума, если бы не утечка. Все прекрасно понимали, зачем Claude интегрируется в Palantir и зачем ей нужен доступ уровня «секретно». Но пока это оставалось за кулисами, все могли сохранять лицо: Anthropic — говорить про этику, Пентагон — про инновации, а общественность — не задавать неудобных вопросов. Когда на столе контракт на 200 миллионов долларов, «конституция» из этических принципов оказывается не красной линией, а переговорной позицией.

https://t.me/darpaandcia - цинк

Разумеется, ИИ-решения будут применяться военными, по сути они сейчас являются главными заказчиками таких исследований, которые будут активно прокачивать концепцию мультидоменных операций и полной цифровизации поля боя. Надежды сдержать этот процесс где-то из области пожеланий остановить гонку ядерных вооружений в 50х годах XX века.

Ну а про военную этику в эпоху нормализованного геноцида и уничтоженного международного права и вовсе смешно.

Ссылка на первоисточник
наверх