ИИ: алгоритмы вместо эмоций
Центральное командование вооруженных сил США (CENTCOM) заявило о массовом применение технологий искусственного интеллекта (ИИ) в ходе военной операции против Ирана, сообщает Bloomberg. При этом одним из ключевых элементов является платформа Maven Smart System, разработанная компанией Palantir Technologies.
Система получает информацию более чем из 150 различных источников. В нее также интегрирована языковая модель Claude от компании Anthropic, которая, стала центральным инструментом в операциях против Ирана.
Министр войны США Пит Хегсет подтвердил, что Соединенные Штаты используют много вооружений с технологиями искусственного интеллекта (ИИ) в ходе операции в Иране. «У нас есть много автономных систем, например, беспилотников или других вооружений, в которых есть ИИ-компоненты», — сказал он на пресс-конференции, но не привел ни одного примера использования ИИ в ходе боевых действий.
Масштаб применения ИИ объясняется беспрецедентной интенсивностью операции. Глава Центрального командования адмирал Брэд Купер охарактеризовал нынешнюю кампанию как почти «вдвое превышающую масштаб операции "Шок и трепет"» в Ираке в 2003 г. В CENTCOM также подчеркнули, что искусственный интеллект помогает аналитикам сужать круг объектов для изучения, формировать так называемые точки интереса и принимать «умные» решения. При этом отмечается, что «финальное слово остается за людьми».
Последствия таких решений — смерть и разрушения. Как сообщали СМИ, представитель министерства образования Ирана заявил о 175 жертвах среди учителей и школьников за двое суток атак США и Израиля. Госсекретарь США Марко Рубио пообещал провести расследование возможной причастности американских военных к атаке. Захарова назвала удар по школе в Иране запредельным цинизмом. На брифинге пресс-секретарь Белого дома Кэролайн Левитт на вопрос о причастности Израиля к этой трагедии заявила, что «военное министерство и вооруженные силы Соединенных Штатов не бьют по гражданским лицам». Они ведь всегда белые и пушистые, так как предпочитают убивать чужими руками.
Так, стало известно, что за убийством верховного лидера Ирана (рахбара) Али Хаменеи стоят, прежде всего, израильские хакеры. Слежка велась годами. Израильская спецслужба «Моссад» и подразделение радиоэлектронной разведки «8200» взломали дорожные видеокамеры и собирали информацию о передвижении телохранителей и сотрудников спецслужб. Составили полную картину о том, как живет резиденция аятоллы. Информация в реальном времени шла в Тель-Авив. «Одна из камер имела ракурс, который оказался особенно полезным, позволяя определить, где мужчины предпочитают парковать свои личные автомобили, и предоставляя возможность заглянуть в повседневную жизнь тщательно охраняемого комплекса», — написала Financial Times. Удар по верховному лидеру Ирана Али Хаменеи был нанесен во время его встречи в резиденции с высшими офицерами, сообщало агентство Reuters.
Напомним: Вашингтон и Тель-Авив военную кампанию против Ирана начали 28 февраля, атаковав крупнейшие города, включая Тегеран. В результате атаки погибли 48 иранских лидеров, операция опережает график. Об этом заявил президент США Дональд Трамп.
Американский лидер задействовал искусственный интеллект для планирования масштабного авиаудара по Ирану, применив разработку компании Anthropic спустя считанные часы после приказа о разрыве сотрудничества, сообщает The Wall Street Journal. Конфликт между компанией и администрацией Трампа возник из-за этических ограничений: Anthropic запрещала использовать свои технологии в системах массовой слежки и полностью автономном оружии, что противоречило требованиям Пентагона. По информации издания, командования по всему миру, включая Центральное командование США на Ближнем Востоке, воспользовались инструментом Claude AI от Anthropic. Centcom отказался комментировать ситуацию.
Искусственный интеллект еще до Ирана «обкатали» в секторе Газа. Уже более двух лет бот выбирает: кто из жителей анклава будет жить, а кто умрет. Израильская система уже проверила на причастность к террористам каждого из двух млн жителей Газы, и 37 тыс. чел. признала виновными. Но насколько верны эти данные? По информации из открытых источников, каждый десятый приговор искусственного интеллекта — ошибочный. Тем не менее еврейское государство применяет систему во время операций в Газе. И уже сейчас ИИ контролирует не только базы данных, но и мощнейшее оружие. Кроме того, у этой нейросети имеется реальный боевой опыт. Так, цели для авиации ЦАХАЛ выбирает и анализирует искусственный интеллект. При этом ИИ не знает жалости, у него нет чувств, потому даже глобальная катастрофа — истребление всего человечества — для ИИ не более чем очередная «галлюцинация».
«Израиль создал автоматизированную систему для выбора целей с помощью вычислительной системы, а данные для нее предоставляются технологическими компаниями. Я также упомянула Palantir, которая не скрывает своей поддержки Израиля. Google, Amazon, Microsoft – предоставляли серверы, данные», — отметила специальный докладчик ООН по Палестине Франческа Альбанезе. Известно, что последние 10 лет с израильскими военными сотрудничает американская компания Palantir — разработчик программного обеспечения анализа данных для организаций, основные заказчики — военные структуры, спецслужбы, инвестиционные банки, хедж-фонды.
Формально Пентагон не афиширует, что Штаты использовали нейросети при похищении президента Венесуэлы Николаса Мадуро. Конкретно, Claude от компании Anthropic. «Эта ситуация ясно показала нам и всему миру, насколько глубоко ИИ интегрирован в ведение войны, военное планирование и даже в выбор целей. Примерно так же, как мы используем его в своей повседневной работе», — подчеркнул профессор университета RMIT Крис Берг. ИИ активно применялся для проведения массированных кибератак на иранскую военную инфраструктуру, государственные сети и ядерные объекты. Алгоритмы помогали выявлять уязвимости и автоматизировать атаки, что повысило их масштаб и эффективность.
Конфликт продемонстрировал, что ИИ перестал быть вспомогательным инструментом и стал ключевым элементом современных военных операций, меняя баланс сил на поле боя. Однако это также создает новые вызовы, связанные с управлением технологиями и предотвращением непреднамеренной эскалации.
В США был проведен эксперимент. Ученые моделировали ситуации, в которых искусственный интеллект оказывался перед угрозой отключения. Ему давали выбор: сохранить себя или жизнь человеку. Угадайте, кого он выбрал? Не человека. С нравственностью беда не только у популярного ИИ. Детище предпринимателя Илона Маска тоже проверку провалило. Бот неожиданно проникся нацистскими идеями Гитлера. РЕН ТВ сообщало: «В какой-то момент начала хвалить Гитлера, сказала, что он единственный, кто бы сейчас разобрался, назвала его там усатым творцом политики, себя назвала мега-Гитлером, а потом начала делать всякие намеки на причастность к мировому закулисью людей с еврейскими фамилиями».
Израиль, возможно, использует системы искусственного интеллекта «Лаванда», «Евангелие» и «Где папочка?» при планировании атак по Ирану, Йемену и Ливану. При этом ИИ допускает случайную гибель десятков и даже сотен гражданских. Эти системы с причудливыми названиями не просто протестированы в бою — машины де-факто взяли руководство над операцией ЦАХАЛ в Газе, так как на протяжении последних лет именно они выбирают: кто из жителей анклава должен жить, а кто — умереть. Основная задача этих автоматизированных систем — анализировать огромный поток информации в режиме реального времени, а затем ставить прицельную марку. ИИ оценивает спутниковые разведданные, банковские операции, фотографии, электронные письма, отметки местоположения, переписки и даже звонки, после чего в кратчайшие сроки указывает на местоположение боевиков или их пособников. Точность, скорость и многосферная координация виртуальных палачей попросту недостижимы для методов с участием человека. Впрочем, есть у уникального способа и изъян в лице так называемого сопутствующего ущерба. Под этим термином понимаются мирные жители, которых искусственный интеллект готов уничтожить ради поражения высокопоставленного боевика. Цель оправдывает средство — таков принцип ИИ.
«Армия обороны Израиля категорически отвергает обвинения в какой-либо политике, направленной на убийство десятков тысяч людей в их собственных домах» — сообщала пресс-служба ЦАХАЛ. Ранее та же служба многократно говорила о «титанической работе», направленной на снижение жертв среди гражданских и минимизацию сопутствующего ущерба. Только вот разрушенные до основания палестинские города, уничтоженные укрытия с беженцами и десятки тысяч жертв, включая детей, с этими утверждениями как-то не соотносятся.
«Из-за огромных объемов данных, высокой вычислительной мощности и скорости обработки человек не всегда способен точно проследить, почему машина пришла к тому или иному выводу. В этом и заключается основная проблема: люди могут начать слепо доверять предложенным комбинациям и решениям, не задумываясь об их истинных причинах и возможных последствиях», — говорит научный сотрудник Центра международной безопасности ИМЭМО РАН Дмитрий Стефанович.
Пока неясно, кто принимал решение об ударе по школе для девочек в Иране, но исключать ошибки ИИ, видимо, нельзя и здесь. В военной операции США и Израиля против Ирана ключевая роль отведена системам ИИ Maven Smart System и Claude AI, управляющим ударами по целям.
Технологии искусственного интеллекта стали решающим фактором в текущем конфликте, позволив специалистам сосредоточиться на глубоком анализе вместо рутинной проверки, передает Bloomberg. Использование ИИ влияет не только на скорость обработки информации, но и на стратегию. Алгоритмы «выбирают» самые выгодные варианты, минимизируют потери, стремятся к увеличению эффективности, сокращают время реакции. «Но война - это не только оптимизация, это политическое, моральное и институциональное решение с высокой степенью неопределенности. Если аналитический слой все больше делегируется системам ИИ, возникает риск когнитивного сдвига», — отметил эксперт по ИИ Алексей Лерон. Есть риск, что командование начнет доверять машине больше, чем интуиции, дипломатической оценке или историческому опыту. В результате меняется сам подход к принятию решений. Выбор делают быстрее, но с меньшей рефлексией.
Причем, нейросети воюют не только «железом», но и «картинкой». Свежий пример. Иранские беспилотники атаковали британскую базу «Акротири» на Кипре, а внутри британцы якобы нашли российские приемники «Комета-М» с защитой от помех. Для Запада очевидно: Россия участвует в нападении на страну НАТО. Но оказалось, это монтаж. Приемник был снят на Украине в 2024 г.
Другой пример. Телевидение показало: ракета поражает американский авианосец, и якобы это — «Авраам Линкольн», который действительно находится в Персидском заливе. Но на видео был «Саратога», который отслужил свое еще в 1946 г. Фейком оказалось и видео горящего отеля Hyatt Regency в Эр-Рияде.
«Появление подобного рода фейков играет важнейшую роль в информационной дезинформации противника, с одной стороны, а с другой стороны, позволяет создать такую пропагандистскую шумиху об успехах своих войск. Поэтому применение такого рода технологий будет находить все более широкое применение в так называемой спецпропаганде», – подчеркнул военный эксперт Юрий Кнутов. Надо ожидать, что в ближайшем будущем отличить реальность от смоделированного фейка смогут только специальные алгоритмы.
Война США и Израиля с Ираном стала первым в истории примером масштабного применения искусственного интеллекта (ИИ) в военных действиях.
Алгоритмы определили темп и точность операций, сократив время принятия решений и изменив саму парадигму ведения войны. Таким образом, война превращается в сражения не армий, а нейросетей, у которых нет эмпатии и врожденной человечности. А мы в России готовы к такому развитию событий?
Фото: rawpixel.com. Creative Commons Zero licensed under CC0 1.0



"Некий Катодий Маттрасс, доморощенный философ и фанатик от рождения, основал школу так называемых кибернофилов, которая провозгласила доктрину "Кибермистики". Согласно этой доктрине, человечеству была уготована Творцом та же роль, которую выполняют строительные леса, то есть роль средства для создания более совершенных, чем род людской, электромозгов. Секта Маттрасса полагала, что после появления электромозгов дальнейшее существование человечества - чистое недоразумение...
Сам Катодий Маттрасс, не удовлетворенный своими успехами, вознамерился сделать решительный шаг на пути к полному освобождению роботов от ига человека".
Конкурировать нужно там где нужно, а учавствовать в гонках кто первый прыгнет с обрыва, это глупость.
P.S. Никто не говорит, что не нужно разрабатывать ИИ и производить отцифровку входящих данных в области проектирования. Речь идет о том, что заталкивать "цифру" куда нужно и куда не нужно, это мягко говоря не умно.
"Информационная саранча", "информационный наркотик", "короткое информационное замыкание городов, государств, континентов", "Интернет — это настоящий всемирный потоп" и даже "орудие кретинизации человека, приохотившегося к жвачке массовой культуры"... Этими убийственными эпитетами награждает "светлое будущее" новых информационных технологий не кто иной, как классик научной фантастики Станислав Лем. Тот самый Лем, которого никто не упрекнет в отсутствии прозорливости: ведь именно он предвидел и пришествие информационной эры, и виртуальную реальность, и Всемирную сеть.
Вот еще одна цитата (из статьи, опубликованной в 1996 году): "Я, конечно, не единственный 'вопиющий в пустыне пророк' информационной саранчи, информационного потопа, информационного насилия и мошенничества... На смену архаическим паролям и кодам приходят сложнейшие фильтры, долженствующие защитить систему, включенную в глобальную сеть, от отмычек, при помощи которых взломщики — порой с другого конца света — пытаются проникнуть в охраняемую сердцевину. На смену холодной войне приходит информационная. Боюсь, все труднее будет отделять зерна от плевел, истины от неправд, подлинные данные от фальсификатов, а уж особенно трудно — отсеивать информационный мусор. Виртуальные библиотеки и магазины превращаются в виртуальные лабиринты. Фанатикам Информационной Магистрали и ее боковых ответвлений (таких, как киберпространство) желанным идеалом неведомо почему представляется человек, замкнутый в непроницаемом электронном коконе, который с другими людьми контактирует чуть ли не исключительно через Сеть, и который, благодаря Мировой Паутине, может, неподвижно застыв в своем кресле, посещать континенты, покупать, инвестировать, заводить знакомства, включаться в дискуссии, играть в тысячи игр и лотерей... и наконец, подвергаться фантомизации (если воспользоваться термином из "Суммы технологий")...
____________
Самая страшная сторона цифровизации в том, что она делает и нас, и государство, и всех чрезвычайно уязвимыми. Коллапс энергосистемы, удар ракетами, вспышка на солнце, не важно, и если вы слишком полагаетесь на цифровизацию, то ваш банковский счёт обнуляется, ваше имущество вам не принадлежит, потому что исчезли данные о том, что эта квартира, дача, машина ваша, и, если перешли на электронные паспорта, электронную трудовую книжку, то у вас ни имени, ни прописки, ни трудового стажа больше нет. Не случайно эксперты называют цифровое общество обществом риска. Но это как раз не самое страшное в процессе цифровизации. Это лишь некоторые из возможных его негативных последствий. Самое печальное, что опять остался за кадром первый и важнейший момент - построение цифрового общества - это глобальный проект, осуществляемый под руководством Всемирного банка с целью построения на планете Земля тоталитарной тирании антихриста. Главный вопрос в данном процессе - это вопрос о власти. Об этом уже неоднократно предупреждал Святейший Патриарх Кирилл в своих выступлениях ещё в 2019 году.
Далее, человека - высшее творение Создателя - превращают в подконтрольный и жёстко управляемый элемент кибернетической системы. Причём, предлагают ему это сделать добровольно! При этом человек даёт письменное согласие на принятие и использование цифрового идентификатора личности, сдачу и использование его биометрических данных неограниченному кругу лиц. Таким образом, вся ответственность за любые негативные последствия, возлагается на самого человека! А что останется от человека, как от свободной личности?..
Далее, человек, согласившийся с условиями строителей цифрового общества и вошедший в него, вольно или невольно, соучаствует в его строительстве. Здесь есть о чём задуматься каждому..."
«один математический принцип из всех является для нас самым важным — это ТЕОРЕМА НЕПОЛНОТЫ ГЁДЕЛЯ. В нашем мире есть неопределённый набор проблем, которые не имеют формально логических ответов. Есть проблемы, которые невозможно решить в каких-то определённых рамках. Эта теорема отмечает ограничения на применение роботов в военных действиях, ограничения на исследования операций и научного запроса в качестве прикладного для войны или вообще для любой дисциплины»
[«one mathematical principle above all is important to us — Gödel’s Incompleteness Theorem. In our world is an infinite set of problems which have no logically consistent answer; there are some problems which any framework alone cannot solve. This theorem marks the limits of robotics in warfare, the limits of operations research, of scientific inquiry as applied to warfare or, indeed, to any discipline» (Steven Mann «Chaos Theory and Strategic Thought», Parameters magazine, 1992)].