Использование искусственного интеллекта при принятии стратегических решений

отметили
75
человек
Использование искусственного интеллекта при принятии стратегических решений
Искусственный интеллект в стратегической политике может быть полезен не как замена государственного суждения, а как катализатор внимания, скорости и дисциплины стратегического анализа. Его оптимальное назначение — это оперативная обработка массивов данных, выявление слабых сигналов, выстраивание и оценка различных правдоподобных сценариев развития событий, проверка логических допущений и фиксирование кризисных отклонений. Там же, где речь идет об эскалации, применении силы, необратимых шагах или международно-правовой ответственности, ИИ не может пока становиться механизмом, принимающим решение, но способен значительно усилить возможности стратегического анализа, лежащего в его основании.
 
В российском правовом поле под ИИ понимается комплекс технологических решений, имитирующих когнитивные функции человека. В терминологию дополнительно также введены и фундаментальные модели (frontier models). На практике это означает, что под одним зонтичным термином объединены различные по своей природе инструменты — от специализированных систем компьютерного зрения до генеративных языковых и мультимодальных моделей.
 
Настоящий доклад систематизирует зарубежный и российский опыт применения ИИ в стратегическом контуре, фиксирует ключевые ограничения и предлагает контуры управленческой дисциплины.
 
1. Зарубежный и российский опыт: где ИИ уже дает результат
 
Современный зарубежный опыт наиболее убедителен в сферах анализа информации и прогнозирования. Программа Project Maven, запущенная Министерством обороны США в 2017 году, изначально решала задачу применения компьютерного зрения для распознавания объектов и приоритизации сигналов при обработке видеопотока с беспилотных платформ. Логика прозрачна: машина берет на себя первичную сортировку потока, а аналитик получает не весь массив данных, а отобранные сигналы. В программе прогнозирования IARPA Hybrid Forecasting Competition было показано, что наилучшие результаты дают не машина и не человек по отдельности, а гибридная схема, в которой экспертное суждение и алгоритмический расчет лаконично дополняют друг друга.
 
Тот же принцип работает в раннем предупреждении и логистике. Платформа EIOS Всемирной организации здравоохранения анализирует в режиме, близком к реальному времени, большие объемы открытых данных, помогая выявлять потенциальные угрозы общественному здоровью. Армия США описывает предиктивную логистику как переход от реактивного снабжения к упреждающему: алгоритмы, опираясь на исторические данные, текущие тренды и оперативные планы, заранее оценивают спрос на запасы, запчасти и услуги. В обоих случаях польза ИИ связана не со способностью «понимать мир», а со способностью быстрее человека фиксировать статистически значимые отклонения.
 
Отдельного рассмотрения заслуживает опыт компании Palantir Technologies, одного из наиболее известных поставщиков аналитических решений для государственных структур и силовых ведомств США. Ее платформы применяются для интеграции разнородных данных — от разведывательных сведений до перманентного анализа финансовых потоков с целью выявления скрытых связей и поддержки оперативных решений аналитика. Вместе с тем этот пример отчетливо иллюстрирует ключевой тезис, что даже наиболее совершенные аналитические платформы с ИИ не принимают решений самостоятельно. Они формируют основу ситуационной оценки, тогда как интерпретация данных и выбор стратегий остаются за экспертом.
 
Российская практика также формирует широкий набор прикладных инструментов. В 2025 году правительством России заявлено о внедрении ИИ в систему мониторинга национальных проектов и государственных программ: соответствующая модель в онлайн-режиме сопоставляет мероприятия и показатели с национальными целями. МЧС России использует ИИ в «Атласе опасностей и рисков». Отдельные модели за определенное время до начала ледохода оценивают сроки вскрытия льда на реках, что служит инструментом управленческого решения при подготовке к паводкам и положительным примером использования ИИ. Применяются и технологии компьютерного зрения для обработки спутниковых снимков, позволяющие в отдельных случаях устанавливать причины лесных пожаров. Это один из наиболее зрелых типов государственных применений ИИ в формате мониторинга, раннего предупреждения, классификации, приоритизации и распределения ресурсов.
 
Что касается сценарного анализа, то в работах RAND Corp. отмечается, что ИИ уже способен содействовать политико-военному моделированию — особенно там, где требуется быстро просчитывать множество вариантов развития событий. Одновременно те же исследователи подчеркивают и ограничения: большинство подобных «упражнений» пока недостаточно цифровизированы и не формируют полноценных обучающих массивов, а современные системы не обладают стратегическим пониманием, сопоставимым с человеческим. Иными словами, ИИ усиливает это направление, но не отменяет собственно стратегического мышления.
 
2. Сильные стороны и ограничения
 
Сильные стороны ИИ в стратегическом контуре вполне конкретны. Он расширяет «полосу внимания», ускоряет первичную сортировку входящей информации, обеспечивает единообразие рутинной обработки, помогает выявлять слабые сигналы в массивах данных и позволяет за меньшее время перебрать больше альтернатив, чем способна исключительно человеческая команда. Можно прямо связать ИИ с улучшением принятия решений, прогнозирования и выявления аномалий в государственном управлении. Однако польза не возникает автоматически — она требует исключительно качественных данных, корректной постановки задачи и отсутствия завышенных ожиданий.
 
Одновременно следует ясно очертить пять основных ограничений.
 
Первое — качество данных. RAND в обзоре ограничений ИИ для военных применений выводит устойчивую закономерность: данные для обучения и тестирования должны быть актуальными, доступными и качественными, а сами алгоритмы существенно сужают круг своей применимости. ИИ не «додумает» в отсутствие релевантных данных: данные мирного времени не подменяют данные реального кризиса или военного конфликта. Вывод: дефицит качественных данных, устаревшие информационные системы и необходимость формирования квалифицированных кадров нового образца влияют на масштабирование и риски ошибочных выводов.
 
Второе — прозрачность. Нейросетевые системы обладают свойствами черного ящика, что в регуляторном и политическом контуре затрудняет подотчетность, внешнюю проверку и требует обязательного человеческого контроля над результатами. Частично эту проблему компенсируют методы механистической интерпретируемости языковых моделей — анализ активаций нейросети и цепочек рассуждения (reasoning trace), однако говорить о полной прозрачности сейчас преждевременно.
 
Третье — человеческая психология. Систематические исследования фиксируют, что пользователи систем поддержки принятия решений склонны реже искать противоречащие данные и чаще некритично принимать машинную рекомендацию, особенно в условиях дефицита времени. Более новые работы применительно к публичному сектору отмечают избирательное следование алгоритмическим советам там, где они совпадают с уже имеющимися установками или стереотипами. Для стратегической политики это опаснее, чем для рутинной бюрократии: ошибка здесь редко бывает локальной.
 
Четвертое — враждебная среда и «ИИ против ИИ». Исследования по состязательному машинному обучению систематизируют специфические опасные атаки: отравление обучающих данных, атаки на приватность, перехват контроля над автономными агентными системами, управление выходами генеративных моделей. Для языковых моделей к этому добавляются инъекции промптов (prompt injection) — вредоносный текст или документ, способный вывести систему из штатного режима, такие атаки сейчас автоматизированы. В стратегическом контуре из этого следует практический вывод, что в условиях противоборства ИИ необходимо рассматривать как новую потенциальную поверхность атаки и уязвимости, а не только как инструмент усиления собственных возможностей.
 
Пятое — геополитическое измерение. Потенциальная зависимость от иностранных облачных мощностей и аппаратных решений, регулярных обновлений и отдельных программных библиотек — это не только технический фактор, но и вопрос устойчивости и суверенности принимаемых решений. В российском контуре эта проблематика уже формализована в перечне поручений президента России 2026 года, где обозначено приоритетное использование отечественных фундаментальных моделей генеративного ИИ в государственном управлении и на объектах критической информационной инфраструктуры.
 
3. Управление, ответственность и роль человека
 
В качестве примера представляет интерес полезный практический каркас NIST AI Risk Management Framework. Он опирается на четыре последовательные функции: govern, map, measure, manage — управление, картирование, измерение, оперативные действия.
 
Сначала выстраивается система управления: роли, процедуры, учет правовых требований, документированная терпимость к риску, цепочки ответственности и порядок работы с третьими сторонами. Затем следует картирование: контекст применения, целевая задача, применимые нормы, возможный вред, уязвимые группы — и принципиальное решение о целесообразности внедрения системы вообще. Далее — измерение: тесты, метрики, независимая оценка надежности, безопасности, объяснимости, а также механизм апелляции и обратной связи. И лишь затем — решения: приоритизация рисков, мониторинг после развертывания, процедуры ручного контроля и отката версий, реагирование на новые и потенциальные инциденты и при необходимости вывод системы из эксплуатации.
 
Отсюда следует содержательное понимание «человека в контуре решения» (human-in-the-loop). Речь идет не о символической подписи под машинным выводом, а об институционально оформленной роли, когда конкретное ответственное должностное лицо обладает правом отклонить ИИ-рекомендацию, управлять доступами к альтернативному, немашинному каналу проверки. А также использовать понятный журнал действий (что предложила система, что решил человек и почему). Это и возможность остановки, отключения и разбора отдельного возможного инцидента.
 
В российском контуре заслуживают внимания три основополагающих организационных сигнала. Во-первых, Минцифры России совместно с аналитическим центром при правительстве Российской Федерации оформили центр развития ИИ с задачами координации, тиражирования решений и оценки уровня внедрения. Во-вторых, в составе правительственной комиссии создана подкомиссия по развитию и внедрению технологий искусственного интеллекта. В-третьих, введен в действие порядок управления качеством государственных данных с использованием единой информационной платформы национальной системы управления данными.
 
4. Практические правила применения
 
Практическое правило может быть сформулировано просто. ИИ целесообразно применять там, где задача повторяема, данные относительно полны и актуальны, качество измеримо, ошибка быстро замечается и исправляется, а эксперт способен проверить результат быстрее, чем выполнить работу с нуля. ИИ следует применять ограниченно — как предварительный фильтр или генератор вариантов — там, где цена ошибки высока, но рекомендация еще обратима. ИИ не следует использовать как решающий механизм там, где решение уникально, необратимо, принимается в условиях кризисного сжатия времени, затрагивает применение силы, санкционные или правоограничительные меры либо существенно зависит от тонкого политического контекста, не поддающегося формализации в данных.
 
Для генеративных моделей правило еще строже. Их допустимо использовать для ускорения первого черновика, сопоставления сценариев, подготовки перечня вопросов и выявления лакун в рассуждении. Однако их нельзя использовать как автономный фактографический источник или как самодостаточное основание для официальной позиции. Причины хорошо известны: галлюцинации, инъекции подсказок, риск утечек данных, сложность верификации происхождения каждого фрагмента текста. Рабочий стандарт таков: генеративная модель ускоряет написание, но ответственность несет не она — ее несет автор документа.
 
5. Как описывать ИИ руководителям и обществу
 
Для политического руководства ИИ следует описывать, если можно так сказать, без маркетинга. Не «система решила», а «система выявила сигнал, ранжировала версии и предложила варианты; решение принял уполномоченный сотрудник». Не «модель умнее эксперта», а «модель быстрее просматривает массив аналогичных случаев, но не несет политической и правовой ответственности». Не «точный прогноз», а «вероятностная оценка при заданных данных и ограничениях». Такой язык не только точнее — он снижает риск чрезмерного доверия к автоматизации и облегчает последующий разбор ошибок.
 
Для публичной коммуникации представляется целесообразным фиксировать пять обязательных элементов, даже применительно к не самым чувствительным случаям: цель применения, тип данных и временной охват, роль человека в окончательном решении, известные ограничения, риски и механизм оспаривания или исправления ошибки.
 
В заключение представляется принципиально важным разграничивать два класса применений. Первый — административный: черновики, мониторинг, логистика, поиск аномалий. Второй — управленческий: кризисные сигналы, санкционные и правоограничительные решения, силовые шаги.
 
Для первого класса допустим более широкий экспериментальный режим. Для второго уместна вначале вспомогательная роль ИИ — с повышенными требованиями к объяснимости, с обязательной независимой верификацией. Это и есть содержательная позиция через пропорциональность возможных рисков и пути их купирования.
 
6. Политическое измерение работы с ИИ
 
Принципиальное значение в обращении с ИИ в области принятия политических решений любого рода, тем более стратегического характера, как показывает доступный опыт, имеют следующие моменты.
 
Независимый и высокоэрудированный ум, доказанная способность непредвзято и трезво оценивать ситуацию. Проблема в том, что называется групповым конформизмом, исходящим из коллективно принятой картины мира на основе определенной идеологии. Мы наблюдали это в СССР, то же налицо в ряду западных элит, включая американские, которые не видят себя вне своей глобальной гегемонии.
 
Любая идеология — серьезный ограничитель, будь то альтернативы социализм — капитализм, демократия — авторитаризм или другие продукты исключительно западной цивилизации. Необходимо широко смотреть на вещи и выходить на культурно-цивилизационные категории, что уже в полный голос заявляет о себе в мировой политике, включая нынешнюю войну Израиля и США с Ираном. Словом, необходимо комплексное осмысление всего мирового исторического опыта без клише и попыток мерить по себе. Необходимо понимать другого и представить себя на его месте, особенно ввиду различия ценностных систем и моделей развития, уже не говоря об историческом опыте.
 
С этим связано представление о нелинейном характере исторических процессов, о законе нежелаемых последствий принимаемых решений, о высокой вероятности отсутствия полного представления о них, что должно побуждать к соблюдению принципов умеренной политики, отказу от постановки конечных/предельных целей, отдающих «концом истории». В частности, важно сознавать наличие как банальных, легко просчитываемых стратегий, так и фатальных, укорененных в судьбах, исторической миссии и идентичности государств и народов, что требует глубокого, а не выборочного знания истории, философии и религии (проблема — как вписать свод этих обширных знаний в большие данные). На этот счет четко высказался Генри Киссинджер в одной из своих последних книг «Лидерство» (2022 год), а последняя (в соавторстве) вообще была посвящена проблематике ИИ.
 
Ярким примером фатальных стратегий была наша борьба с Наполеоном и Гитлером, а в наше время — реакция на украинский кризис, навязанный нам Западом и имеющий все признаки цивилизационного прокси-конфликта. То же можно сказать о нынешней борьбе Ирана, отстаивающего свою цивилизационную идентичность. Что касается выборочного подхода к истории, то один из архитекторов украинского конфликта использовал аналогию с Русско-японской войной и последующей революцией 1905 года — вне более широкой исторической картины и характера нынешней ситуации в России и мире.
 
Не менее опасно впасть в апологетику, сделаться жертвами собственной пропаганды, когда за скобки выводится все, включая неоспоримые факты, что не укладывается в коллективно принятый нарратив. Помимо советского, весьма убедителен американский опыт. Так, внешнеполитическая политология насквозь политизирована в том числе тем, что соответствующие команды демократов и республиканцев сменяют друг друга в высших эшелонах администрации (порядка трех тысяч политических назначенцев, противостоящих профессионалам, слово которых далеко не первое). В бюрократических вертикалях складываются существенные ограничители. Апологетика американского доминирования дает о себе знать и на страницах такого издания, как журнал Foreign Affairs, где в последние 30 лет от силы найдутся одна-две статьи в каждом номере, содержащие элементы критического мышления. В остальных под разными углами утверждается непоколебимость и безальтернативность американской гегемонии, в том числе на путях ее «тонкой настройки». На это накладывается подмеченная еще Алексисом де Токвилем (в его «Демократии в Америке» 1834 года) своего рода диктатура коллективного мнения в республиканской Америке, то есть высокая степень несвободы суждений и самоцензуры по сравнению даже с монархическими режимами.
 
Также приходится сознавать, что любой независимый анализ так или иначе ставит под вопрос уже принятые политические решения. И это понятно: ситуации меняются и требуют новых подходов, что всегда сопряжено с рисками, но при этом и возможностями. Это особенно верно для текущего геополитического перелома в мире, когда многие моменты из привычной определенности перестают быть таковыми. Собственно, поэтому анализ вообще не приветствовался в СССР: бал правил догматизм, хотя на нижних уровнях и могли быть свежие идеи, наверх они не доходили — было заведомо понятно, что проходит, а что нет. Не лучше дела и на Западе. Скажем, логично то, что аналитические подразделения МИД России (департамент внешнеполитического планирования) и Госдепартамента США (штаб политического планирования) подчинены непосредственно министру и госсекретарю.
 
Искусственный интеллект — обоюдоострый инструмент, и он может стать союзником аналитиков и лиц, формирующих решения, если будет соответственно вооружен/снаряжен и с ним будут работать хорошо подготовленные, интеллектуально честные и открытые сотрудники.
 
Но главное, что необходимо постоянно иметь в виду, — это то, что ИИ не функционирует в отрыве от окружающего его массива информации, который всегда будет связан с политикой и политической мыслью конкретных стран. Это значит, что мы снова возвращаемся к теме образования и глубокого знания истории и всего, что с ней связано.
 
Александр Яковенко
Добавил suare suare 8 Мая
Комментарии участников:
vvsupervv66
0
vvsupervv66, 8 Мая , url

У ИИ есть одна очень большая проблема — истинность первоначальных установочных данных в диктате хозяина ИИ, а так же та или иная идеология, носителем которой является хозяин ИИ.

Именно из-за разгула коммунистической идеологии в форме инквизиции в СССР кибернетику долгое время называли лже наукой. Извращенцы коммунистической идеологии очень боялись правды. С сухими цифрами спорить бесполезно, когда и ещё было не понятно, как можно было подтасовать результат и в итоге хоть как-то управлять процессом в нужном партноменклатурной воровской «элите» Советского Союза русле.

Цифровизация в СССР раньше, чем на западе не прошла по тем же причинам. Воровать в огромных размерах стало бы невозможно.

Проблемы с тех пор нисколько не изменились. И авантюрная агрессия США против Ирана это подтвердила. ИИ, как бездуховная сущность не смог правильно решить многомерную и многослойну задачу, не смог подсчитать силу духа иранцев.

precedent
+3
precedent, 8 Мая , url

«Долгое время»- несколько месяцев ))) просвещайся, демагог. 

habr.com/ru/companies/sberdevices/articles/543988/

vvsupervv66
+1
vvsupervv66, 8 Мая , url

Перейду так же на личности.

Такой, как ты редкий урод и выродок просвещать не может по определению.

И по существу дела.

Генетика и кибернетика в дальнейшем эволюционировав и в названиях тоже, определили и будут определять развитие прошлого и будущего века.

Вот только очень жаль академика Вавилова.

Как только Циалковского тоже не привлекли?

А вот Королёв попал в жернова коммунистической инквизиции.

Сломанная челюсть Королёва стоила СССР прорыва первыми к Луне.

Уничтожение Горбачевым Министерства связи стоило СССР хронического отставания в развитии отечественной микроэлектроники.

Набиуллина и её синоптики из ЦБ сегодня закладывают фундаментальные основы хронического отставания России абсолютно во всём.

В России много чего интересного рождается, но из-за таких набиуллиных во власти не реализуется или реализуется с огромным отставанием.

В России прежде чем надавать хороших гниздюлей внешнему врагу, надо сначала пролить немало крови местным российским вампирам.

Но это было вчера.

Сегодня Россию будут убивать одновременно и снаружи и изнутри.

precedent
0
precedent, 8 Мая , url

Ох, прости, совсем упустил, что весна. Ты, главное, не волнуйся, береги себя. И в мыслях не было тебя «просвещать», я же предложил интересную публикацию, написав «просвещайся». Ничего оскорбительного в этом нет. И даже в эпитете «демагог» тоже ничего особенного, ты же не можешь сконцентрироваться на теме развития кибернетики в СССР. Никаких репрессий в отношении кибернетиков не было (в отличии от генетиков, к примеру). 

Вот фрагмент из публикации, раз тебе лень узнать что- либо

1960-е стали золотым веком советской науки. К 1975 году ¼ от всего количества учёных в мире работала в СССР, при этом большое внимание уделялось точным наукам, плоды которых часто имели прикладное значение. Не обходили стороной и кибернетику, в которой видели огромный потенциал. Под влиянием военного и учёного Анатолия Китова она была реабилитирована после недолгой «опалы». Шла работа в области автоматического управления, машинного перевода, сетевых технологий… Сейчас бы мы сказали, что в СССР существовала целая школа искусственного интеллекта!

В рамках кибернетики развивалось и направление, которое мы привыкли называть нейросетевым. Юрген Шмитхубер, создатель известной нейросетевой архитектуры LSTM, известный в наши дни также как историк глубокого обучения, часто ссылается в своих выступлениях на вклад советских учёных в становление этого направления.

В 60-ые годы в СССР большими тиражами выходило несколько серьёзных тематических изданий, и, судя по наукометрической статистике, изрядная доля мировых коннекционистских исследований издавалась именно на русском языке. Коннекционизм в какой-то момент оказался настолько популярен, что им занялись не только в метрополии, но и в других городах и республиках, например в Армении и Грузии. К сожалению, пока что оцифрована лишь небольшая доля публикаций тех лет, большинство работ можно найти только в оффлайн-библиотеках.
...

Несмотря на железный занавес, советские исследователи не варились в собственном соку. Существовал интенсивный обмен идеями между нашими и заграничными учёными. Если говорить про кибернетику, в 1965 году в рамках международного обмена группа западных исследователей посетила СССР. В составе делегации был и Джон Маккарти, автор термина «искусственный интеллект». После открытия III Всесоюзного совещания по автоматическому управлению (технической кибернетике) в Одессе и его продолжения на пароходе «Адмирал Нахимов», делегация отправилась в тур по советским научно-исследовательским институтам. Сначала они заехали в Киев и познакомились с академиком Виктором Глушковым, автором концепции ОГАС, а также с профессором Киевского политехнического института Алексеем Ивахненко, о котором речь пойдёт далее. Затем последовал визит в Тбилиси, где западных гостей встречал директор Института систем управления Академии наук Грузинской ССР Арчил Элиашвили. Там над многослойными (или, как их называли в советской литературе, «многорядными») перцептронами работали исследователи, имена которых сейчас даже человеку, подкованному в теме, мало что скажут. Они занимались в том числе системами распознавания речи. Уинстон Нельсон (Winston Nelson) из Лаборатории Белла, участвовавший в делегации, описывает визит в грузинскую лабораторию так:
«Там на полу был небольшой робот, и он передвигался согласно произносимым вслух командам. А затем мы вернулись в офис директора, где стоял длинный стол, уставленный вазами с фруктами, хачапури и превосходным грузинским коньяком».

Помимо Одессы, Киева и Тбилиси, делегация посетила Баку, Москву, Минск, Ленинград и несколько других городов союзных республик. В Москве Маккарти встретился со своим старым знакомым — академиком Андреем Ершовым. Коллеги познакомились в декабре 1958 года в Великобритании на Конференции по автоматизации мыслительных процессов. После визита в Москву Маккарти в сопровождении Ершова отправился в новосибирский Академгородок, откуда через Москву вернулся домой (в реалиях холодной войны, когда Новосибирск был одним из полузакрытых научных центров, Ершову стоило больших трудов согласовать этот визит).

 по оценке западных специалистов СССР совсем немного отставал от США в кибернетике, но опережал в развитии систем АСУ (автоматическая система управления) 

Если же говорить о политических репрессиях в отношении учёных, то, увы, это не изобретение Ульянова или Джугашвили, или КПСС, или Российской Империи, или СССР. 

Эта мрачная сторона человеческой цивилизации преследует ее на протяжении всей ее истории, и ни одна культура, ни одна формация и государство ее не избежали.  

vvsupervv66
+1
vvsupervv66, 10 Мая , url

Система Буревестник была свёрнута, а американский шатл и ни один полетел.

Первый в мире самолёт невидимка был придуман советским конструктором, как концепция, а первым реализован в США.

Первый интернет был придуман в СССР для синхронизации работы ПВО вокруг Москвы на автоматическом уровне, а широко использован на гражданском уровне в США и конечно широко в американском ВПК.

Слава Богу в эту проблематику извечного искусственного отставания России от запада уверенно вошёл коммунистический Китай, размазав в асфальт цветную прозападную революцию на площади Тяньаньмэнь танками, и в корне изменил ситуацию, и особенно для западофиллов в России.

precedent
+1
precedent, 10 часов 33 минуты назад , url

Не «Буревестник», а «Буран». Кстати, на Байконуре служил, когда «Энергия» первый раз взлетела (с болванкой). Полёт не был безукоризненным, но мощь при пуске кого угодно бы впечатлила на всю жизнь. Проект был закрыт де- факто ещё до 1993 года. СССР распался, распалась кооперация, финансирование прекратилось, управления не стало. А потом аж до начала 10-х ну никакой возможности для возобновления проекта или нового. Но, что такое человеческая жизнь в сравнении с эпохой? Начинается новая эпоха, у меня нет ни доли сомнения, что к третьему десятилетию Россия получит самый лучший в мире многоразовый корабль и средства его доставки. Орёл он будет называться или ещё как, неважно. Работы не прекращались несмотря ни на что. 

Нет такого понятия «невидимка». Есть разные технологии снижения заметности. Даже на У-2 их использовали.  Их применяют и используют с начала первой мировой войны всё воюющие государства. Очевидно, что Вы слышали «звон» про работы Уфимцева, которые стали основанием для разработки стелс — технологий, связанных с геометрией аппаратов. Так у нас они раньше были отработаны и реализованы:  на блоках МБР. Что до авиации, то посмотрите мученья американцев с F-35. Сотни миллиардов долларов США улетели в трубу. При этом, американцы принесли в жертву маневренность самолёта, то есть, возможность победить в бою на ближней и средней дистанции. Сузили платформу. По другому было никак, не было другой возможности раньше. А сегодня есть возможность объединить технологии. И наш Су-57 великолепен на любой дистанции. 

Я Вам давал линк на публикацию о кибернетике. Не собирайте мусорную информацию. Да, печально, что министерство, во времена СССР, не поддержала в своё время Китова должным образом. Но вся эта история не от того, что кто-то кого-то не раздавил танками. 

Посмотрите как Россия догнала и обошла как стоячих другие государства по технологиям, связанным с БПЛА. Это — успех государственно — частного партнёрства.   Государство всегда слишком консервативно, а частная инициатива — рискована. Вот баланс и объединение возможностей дают наилучшие результаты. Вот об этом успехи России (можно вспомнить «Бюро 1440»), Китая, США (тот же Маск)

bee_e
+1
bee_e, 8 Мая , url

ИИ не следует использовать

 а если очень хочется?

vvsupervv66
0
vvsupervv66, 8 Мая , url

Смог бы ИИ рассказать, что будет при крушении СССР?

Да, в общих чертах я, думаю, смог бы.

А смог бы ИИ предотвратить крушение СССР?

Нет не смог.

Вот такие стратегические решения.



Войдите или станьте участником, чтобы комментировать