Хокинг: супер-умный ИИ будет смотреть на людей, как на муравьев

09.10.2015
от

Британский астрофизик Стивен Хокинг объяснил читателям Reddit, почему он выступает против «гонки ИИ» и создания сверхразумных машин, и рассказал о том, чем грозит замена всех рабочих на роботов.© AFP 2015/ Justin Tallis

МОСКВА, 9 окт – РИА Новости. Известный британский космолог Стивен Хокинг объяснил свое неприятие технологий искусственного интеллекта – по его мнению, сверхразумные машины будут смотреть на людей, как на расходный материал или муравьев, мешающих решению поставленной перед ними задачи.

Общаясь с пользователями портала Reddit, Хокинг подчеркнул, что он не считает подобные машины «злыми» существами, желающими уничтожить человечество из-за интеллектуального превосходства над нами. Скорее, они просто не будут замечать человечество.

«СМИ постоянно искажают мои слова. Главный риск от развития ИИ заключается не в их злобе, а в компетенции. Сверхумный ИИ будет очень хорошо справляться с задачами, и если его и наши цели не будут совпадать, у нас будут огромные проблемы», — объясняет ученый. © AP Photo/ Matt DunhamСтивен Хокинг и Юрий Мильнер объявили о новых поисках внеземной жизни

В качестве примера Хокинг привел гипотетическую ситуацию, в которой мощный искусственный интеллект управляет работой или постройкой новой плотины ГЭС. Для такой машины в первую очередь будет важно то, как много энергии вырабатывает вверенная ей система, а судьбы людей будут иметь для нее никакого значения.

«Среди нас мало людей, кто топчет муравейники и наступает на муравьев со злости, но представьте ситуацию – вы контролируете ГЭС, вырабатывающую электроэнергию. Если вам нужно поднять уровень воды и в результате этого один муравейник будет затоплен, то проблемы утопающих насекомых вас вряд ли будут беспокоить. Давайте не ставить людей на место подобных муравьев», — продолжает космолог. © RuptlyНет вопроса важнее – физик Хокинг о цели проекта по поиску внеземного разума

Другой потенциальной проблемой от дальнейшего развития систем ИИ и роботехники может стать то, что Хокинг называет «тиранией хозяев машин» – стремительный рост разрыва в уровне доходов между богатыми людьми, монополизировавшими производство разумных машин, и остальными слоями населения Земли.

Хокинг предлагает решить эти ситуации двумя путями – замедлив разработку ИИ и переключившись на создание не «универсального», а узкоспециализированного искусственного разума, способного решать крайне ограниченный круг задач.

Комментарии закрыты.