116 спeциaлистoв из 26 стрaн мирa oбрaтились в OOН зaпрeтить рaзрaбoтку и испoльзoвaниe aвтoнoмнoгo oружия. Срeди aвтoрoв, пoдписaвшиx пeтицию прoтив испoльзoвaния автономных боевых роботов, известный инженер, генеральный директор spacex Элон Маск, основатель компании, которая занимается искусственным интеллектом DeepMind Мустафа Сулейман, передает НТВ.
Письмо о технологии робота, который способен проводить операции без человеческого вмешательства, направленные на организацию Объединенных Наций до начала конференции в Мельбурне по искусственному интеллекту (ИИ), сообщает «Интерфакс».
Российская компания поддерживает призыв Элон маск о запрещении боевых роботов. Promobot и Навиробот подписали открытое письмо о необходимости запретить военным ИИ. «Автономных летальных видов оружия может служить инструментом для диктаторов и террористов, используемые против гражданского населения. Хакеры могут взломать их и использовать их в незаконных целях», — говорится в документе.
В соответствии с BFM.RU что основатель spacex Элон Маск почти каждый месяц выступает с заявлениями о необходимости контроля ИИ — и военных, и гражданских, но истинный искусственный интеллект еще не создан. Не слишком рано? Проблема тревожными темпами, заявил на конференции основатель spacex:
«Это вдвойне экспоненциальный рост. Во-первых, экспоненциально растущей вычислительной мощности микроэлектроники. Другие, экспоненциально повысить эффективность программного обеспечения, используемого в ИИ. Когда оно примерно вдвое больше участников, почти все варианты будут слишком консервативными. Год назад все думали, что компьютер победит чемпиона в игре пройти как минимум 20 лет. Весной это произошло. И теперь компьютер может играть 50 одновременных игр против лучших игроков в мире, без шанса проиграть — и это один год спустя».
Программного обеспечения прорыва в ИИ может произойти в любой момент, и с механической точки зрения все понятно: роботы, включая прототипы, военные модели, построенные по всему миру», — говорит управляющий директор Навиробот Игорь Кузнецов: «технология позволяет производить горячую роботов в виде мехатроника, которые готовы мышцы, скелет, позвоночник, но даже искусственный интеллект, который будет принимать решения. Если на борту есть искусственный интеллект, он решает сам, и именно здесь начинаются проблемы. Если он попадает в руки хакеров, террористов и других плохих персонажей, это может привести к очень плохим результатам».
Предоставление самостоятельности в военных ИИ может привести — и это без преувеличения апокалиптические последствия. Ярким примером является история о том, что произошло в начале 80-х, когда Советская система предупреждения о ракетном нападении неправильно зарегистрирован в США для запуска ракет в СССР. Глобальной ядерной войны, предотвратить только бдительность дежурного офицера Станислава Петрова, который впоследствии стал лауреатом нескольких премий и предмет документального фильма «человек, который спас мир».
Одни и те же ошибки присущи и искусственного интеллекта», — говорит соучредитель и директор компании promobot развития Олег Kiokure: «сегодня мы можем с уверенностью сказать, что нет единой системы, которая способна правильно распознавать объект со 100% точностью. Это означает, что парящий робот видение на любой предмет возможных ошибок. Имидж может пострадать, или человек, то есть робот может путаете военных с простой житель, или наведена ракета может повредить объект, робот может перепутать его с военной базы. Это одна из причин, почему надо ограничивать и регулировать использование роботов».
Но мы не должны забывать, что человеку свойственно ошибаться интеллект не только искусственные, но и обычные люди. Это четко зафиксировано в документах, например, случайное сбитие пассажирских самолетов системами защиты, которые контролируются людьми. Поэтому, идеальным решением было бы запретить все виды оружия для безупречного робота или безупречные люди.