» » Эксперты рассказали, при каких условиях искусственный интеллект может выйти из-под контроля
Раздел: Технологии  
+1

Эксперты рассказали, при каких условиях искусственный интеллект может выйти из-под контроля

Эксперты рассказали, при каких условиях искусственный интеллект может выйти из-под контроляПричиной "восстания машин" видят в создании сообщества роботов.

Если компьютеры разовьют собственный, непонятный нам язык и создадут свою социальную сеть, они могут выйти из-под контроля и начать управлять нами, предостерегает издание Venture Beat, информирует Хроника.инфо со ссылкой на Хвиля.

Число социальных сетей растет, их функционал развивается, количество активных пользователей увеличивается с каждым днем. К 2020 году число последних, по прогнозам, должно возрасти до 2,9 млрд. И все более значительную роль в их маркетинге играет искусственный интеллект. Его способностей уже хватает на то, чтобы воспринимать естественный язык и учиться на прошлом опыте. Что произойдет, если разработчики станут использовать ИИ как основу для новых социальных сетей?

Мы разрабатываем машины и технологии для того, чтобы облегчить себе жизнь. Однако, если ИИ начнет создавать свой язык без помощи человека, у нас возникнут сложности в понимании. Машины, которые общаются между собой на собственном, непонятном нам языке, окажутся бесполезны для нас. И мы не сможем ими управлять.

Возможность самостоятельного обучения, появившаяся недавно у компьютеров, позволяет им стать гораздо умнее человека. Если ИИ разработает собственный язык, машины смогут создать свою сеть, которую человек не в состоянии будет отключить. Это значит, что они смогут писать программы, инструкции и другие семантические коды, чтобы соперничать с людьми.

ИИ сможет развиться до такой степени, что начнет действовать без разрешения, то есть не получая инструкций от человека. В этом случае, машины сами смогут решать, что правильно, а что нет, и начнут управлять нами через виртуальных «помощников».

Если несколько машин сможет общаться на неизвестном нам языке, существует вероятность, что люди не смогут тягаться с машинами. Об этом риске предупреждают Стивен Хокинг, Стив Возняк и Билл Гейтс. Развитие человека ограничивается медленной работой эволюции, но у машин такого ограничения нет. Потенциальные последствия создания «социальной сети ИИ» могут оказаться плачевными для человека.

Читайте также: Искусственный интеллект от Google научат писать новости

К числу тех, кто призывает с осторожностью относиться к развитию ИИ и не пускать это дело на самотек, относится и глава SpaceX и Tesla Илон Маск. Недавно он написал, что от искусственного интеллекта исходит более реальная угроза, чем от Северной Кореи.
Если вы нашли ошибку в тексте, выделите её мышью и нажмите Ctrl+Enter
Загрузка...
загрузка...
23-09-2017, 23:11 » Автор: Павел Сидоренко
     868
     1


Оставьте свой комментарий

Имя:*  
E-Mail:
Полужирный Наклонный текст Подчёркнутый текст Зачёркнутый текст | Выравнивание по левому краю По центру Выравнивание по правому краю | Вставка смайликов Выбор цвета | Скрытый текст Вставка цитаты Преобразовать выбранный текст из транслитерации в кириллицу Вставка спойлера
Введите текст с изображения: *

0
Нестор  
24 сентября 2017 00:40

Хорошо бы, если б эти эксперты втемяшили свое понимание твердолобому Цукербергу. Может это хоть немного отсрочило б гибель нашей цивилизации. Насчет предотвратило - неуверен, поскольку твердолобых "двигателей прогресса" хватает и без Цукерберга.

Гости

наверх