Могут ли технологии искусственного интеллекта изменить международный баланс сил?

 

Мы умнее машин, потому что их создали мы — Станислав Петров

Nariman Mehdiyev  

АНАЛИЗ - Могут ли технологии искусственного интеллекта изменить международный баланс сил?

    

СТАМБУЛ

Мелике Танберк ведет исследования по этике больших данных и искусственного интеллекта в Кембриджском университете. Она написала для «Анадолу Анализ» о важности адаптации к технологиям искусственного интеллекта при условии, что человеческий фактор будет оставаться в центре внимания.

***

26 сентября 1983 года советский офицер времен холодной войны Станислав Петров нес службу в командном пункте системы раннего предупреждения ВС СССР. Когда сигнал тревоги сообщил о запуске ракеты из Соединенных Штатов Америки, задачей Петрова было немедленно нанести ответный удар. Однако он колебался, понимая, что серьезные последствия таких действий могут привести к началу Третьей мировой войны и одновременно к прекращению жизни на Земле. Полагая, что это ложная тревога, Петров решил не сообщать о ней и не нажимать кнопку «ОГОНЬ». Эти критические секунды, которые казались вечностью, отражают хрупкий баланс между человеческими суждениями и автоматическими системами, особенно когда речь идет о возможности глобальной катастрофы. В конце концов выяснилось, что система приняла солнечные лучи над облаками за запуск ракеты, что еще раз подчеркивает потенциальную опасность полагаться только на автоматизированные технологии.

Стратегические последствия применения искусственного интеллекта в военных действиях

Со времен эпохального решения Петрова технологии значительно развились, но концепция гонки вооружений осталась неизменной. Сегодня страны вкладывают значительные средства в технологии ИИ, признавая их преобразующий потенциал в различных секторах, включая здравоохранение, промышленность и, что особенно важно, автономные системы вооружений.

Однако споры об этических и стратегических последствиях применения ИИ в военных действиях не утихают, в частности, о передаче полномочий по принятию решений автоматизированным системам в противовес людям-операторам. Продолжающиеся дебаты на эту тему подчеркивают необходимость сбалансированного подхода к развитию ИИ, который учитывал бы мощь технологий, но при этом признавал бы важность человеческого суждения.

Вопрос о том, должны ли страны осуществлять национальные программы в области ИИ, требует рассмотрения более широких последствий технологического суверенитета. Подобно тому, как превосходное оружие испанских конкистадоров изменило динамику развития американского континента в XVI веке, передовые технологии ИИ способны повлиять на геополитическое соперничество и стратегии национальной безопасности в современную эпоху. Страны, не обладающие широкими возможностями ИИ, рискуют поставить под угрозу свой суверенитет и стать уязвимыми для эксплуатации или колонизации, подобно историческим примерам технологического неравенства, приведшего к завоеваниям. Это говорит о необходимости инвестировать в исследования и разработки в области ИИ для защиты интересов национальной безопасности.

Искусственный интеллект в холодной войне

Во многих отношениях мы уже являемся свидетелями того, как искусственный интеллект становится аспектом холодной войны, поскольку великие державы используют возможности искусственного интеллекта для наблюдения, принятия решений и получения стратегического преимущества. Для остального мира адаптация к реалиям этой новой эпохи крайне необходима, чтобы не остаться позади и не столкнуться с тяжелыми последствиями. Центральное место в этой адаптации занимает эффективное использование и контроль данных — жизненной силы алгоритмов ИИ. Государства, которые уделяют приоритетное внимание большим данным и инвестируют в исследования и разработки в области ИИ, имеют больше шансов защитить свои национальные границы в инфосфере.

Возвращаясь к суждению Петрова, следует отметить, что оно служит ярким напоминанием о важности человеческого суждения в эпоху искусственного интеллекта. Даже с развитием технологий сущность государственности включает в себя не только географические границы, но и общие ценности, культурное наследие и коллективное сознание. Поэтому, когда мы пытаемся разобраться со сложностями ИИ в сценарии холодной войны, человеческое принятие решений должно оставаться первостепенным, чтобы предотвратить возможные катастрофы. Как однажды заметил Петров, «мы умнее машин, потому что их создали мы».

Перевод Хатидже Карахан

[Мелике Танберк, мать пятерых детей, окончила Оксфордский университет. Она в настоящее время изучает этику в области больших данных и искусственного интеллекта в Кембриджском университете].

АНАЛИЗ — Могут ли технологии искусственного интеллекта изменить международный баланс сил? (aa.com.tr)