Хокинг и Маск встали на защиту людей от сверхинтеллекта

Физик-теоретик Стивен Хокинг и основатель Tesla Motors Илон Маск поддержали ряд принципов, которые должны гарантировать, что искусственный интеллект (ИИ) не причинит вреда человеку и будет служить лишь на благо.

Данный пакт необходим для того, чтобы обеспечить безопасность людей, а также ответить на многие вопросы, касающиеся ИИ. Маск уверен, что ИИ потенциально может быть более опасным, чем ядерное оружие.

Хокинг также придерживается подобного мнения и утверждает, что ИИ может погубить человечество. Однако оба признают, что благодаря ИИ люди смогут решить многие проблемы — например, излечить рак или же замедлить глобальное потепление.

Следование всем 23 принципам должно гарантировать, что ИИ будет служить лишь благим целям. Они разбиты на три категории: «Исследовательские вопросы», «Вопросы этики и ценностей», а также «Долгосрочные проблемы». К первой категории относятся ответы на вопросы, которые встают перед создателями ИИ, в том числе описание того, как должно происходить финансирование.

Во второй категории затронуты вопросы безопасности и способы нейтрализации угрозы. В третьей описаны возможные риски, с которыми может столкнуться человечество, когда ИИ достигнет пика своего развития и появится так называемый сверхинтеллект.

Данные принципы были разработаны на конференции, посвященной обсуждению ИИ в начале января 2017 года. В написании приняли участие генеральный директор DeepMind Демис Хассабис (Demis Hassabis).

Вся лента новостей - Блоги - Подписаться на Glavpost
новости сети
comments powered by HyperComments
главное
мнения
главное за сутки
последние новости
соцсети
лента блогов
лучшие блоги за сутки
tabloid
фото glavpost
История