» » Разработчики искусственного интеллекта выступили против автономного оружия
Раздел: Технологии  
0

Разработчики искусственного интеллекта выступили против автономного оружия

Разработчики искусственного интеллекта выступили против автономного оружияВедущие специалисты высказались категорически против разработки летального автономного оружия.

Ведущие мировые эксперты по искусственному интеллекту (ИИ), обеспокоенные тем, что их разработки могут использоваться для убийства, подписали соглашение не участвовать в создании автономного оружия.

Об этом пишет Хроника.инфо со ссылкой на realist.

Открытое письмо, опубликованное в сети 18 июля, подписали 2400 исследователей из 160 организаций и 36 стран. В их числе — основатели Deep Mind Демис Хассабис, Шейн Легг и Мустафа Сулейман, Илон Маск и другие именитые бизнесмены и ученые.

Подписанты высказались против разработки летального автономного оружия.

«Такие системы представляют серьезную угрозу для человечества, им нет места в нашем мире», — говорится в письме.

«Существует неотложная необходимость для граждан, политиков и лидеров разграничить приемлемое и неприемлемое использование ИИ.

Читайте также: Украинцы создали программу искусственного интеллекта

Военное использование ИИ неприемлемо, и мы, нижеподписавшиеся, согласны с тем, что решение забрать человеческую жизнь никогда не должно быть передано машине.

Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом обещании".

«Мы действительно хотим, чтобы развитие технологии ИИ было положительным и не привело к страшной гонке вооружений или антиутопии, в которой летающие роботы убивают людей», — сказал в комментарии CNN подписавший соглашение Энтони Агирре, преподаватель физики из Калифорнийского университета.

Летающие роботы-убийцы и «умное» оружие сегодня остаются научной фантастикой, но стремительный прогресс технологий компьютерного зрения и машинного обучения делает их создание более реалистичным. CNN пишет, что в национальной стратегии обороны, выпущенной Пентагоном, есть призыв увеличить инвестиции в искусственный интеллект.

«Новые технологии, такие как ИИ, дают возможность улучшить нашу способность сдерживать войны, защитить граждан, уменьшить число жертв среди гражданского населения и причинять меньше вреда гражданской инфраструктуре, — говорится в заявлении пресс-секретаря Министерства обороны США Мишель Балданза для CNNMoney. — Эта инициатива подчеркивает необходимость активного диалога между Министерством обороны, исследовательским сообществом ИИ, этиками, социологами и другими вовлеченными сообществами. Нам нужны открытые дискуссии по этике и безопасности в разработке и использовании ИИ».

Несмотря на оппозицию ведущих исследователей, развитие интеллектуальных систем для использования в военном деле едва ли остановится.

«Не думаю, что это существенно изменит то, как крупные державы, такие как США, Китай и Россия, подходят к технологиям ИИ», — говорит Пол Шарр, научный сотрудник Центра новой американской безопасности и автор книги об автономном оружии «Army of None».

Так или иначе, отказ DeepMind Technologies, Element AI и других ведущих мировых лабораторий «поддерживать развитие, производство, торговлю или использование» автономного оружия является хорошим примером для других исследователей ИИ.

Соглашение о запрете производства автономного оружия составила организация Future of Life Institute. Документ был представлен на международной конференции по искусственному интеллекту International Joint Conference on Artificial Intelligence, которая проходит в Стокгольме с 13 по 19 июля.
Если вы нашли ошибку в тексте, выделите её мышью и нажмите Ctrl+Enter
Загрузка...
загрузка...
18-07-2018, 21:44 » Автор: Едгар Букмирза
     594
     0

Также советуем посмотреть


Оставьте свой комментарий

Имя:*  
E-Mail:
Полужирный Наклонный текст Подчёркнутый текст Зачёркнутый текст | Выравнивание по левому краю По центру Выравнивание по правому краю | Вставка смайликов Выбор цвета | Скрытый текст Вставка цитаты Преобразовать выбранный текст из транслитерации в кириллицу Вставка спойлера
Введите код: *


наверх