Шумиха вокруг искусственного интеллекта заставит вас поверить в то, что вскоре мы будем порабощены сверхразумными существами или на нас будут охотиться роботы-убийцы. Прежде чем строить бункер советской эпохи, чтобы пережить AI-апокалипсис, рассмотрите более насущные проблемы, которые уже сегодня затрагивают общество.
По мнению 23 экспертов по ИИ, у которых Мартин Форд взял интервью для своей новой книги «Архитекторы интеллекта», настоящие неминуемые угрозы ИИ связаны с политикой, безопасностью, конфиденциальностью и использованием ИИ в качестве оружия.
Чтобы понять, как эти проблемы влияют на общество сегодня, полезно взглянуть на них с точки зрения лидеров, которые помогли сформировать нынешнюю революцию в области искусственного интеллекта.
Уильям Фалькон: Почему вы решили написать «Архитекторы интеллекта»?
Мартин Форд: Когда в 90-е годы я основал компанию по разработке программного обеспечения, я заметил влияние технологий на рабочие места. Именно тогда я начал задумываться о влиянии искусственного интеллекта и робототехники на рынок труда. Это привело к появлению двух книг: «Огни в туннеле» и «Восстание роботов».
Цель Architects Of Intelligence — привлечь всех, а не только исследователей ИИ, к обсуждению непосредственных последствий ИИ, которые уже сегодня влияют на наше общество. Цель книги — осветить некоторые из этих проблем и рассказать немного больше об этой технологии.
Уильям Фалькон: Кто является аудиторией этой книги?
Мартин Форд: Кто угодно! Особенно люди с сильным интересом к ИИ. Книга предназначена для более широкой аудитории, а не только для исследователей и инженеров, работающих или интересующихся ИИ. Я также включил в начало раздел, посвященный техническим терминам, которые могут подразумеваться в некоторых обсуждениях.
Каждый должен быть обеспокоен ИИ, его развитием и его влиянием на экономику и общество. Это немного похоже на чтение книги об теории относительности, написанной Эйнштейном: некоторые из этих людей изобрели ключевые концепции искусственного интеллекта, используемые сегодня.
Уильям Фалькон: Каков главный вывод для тех читателей, которые непосредственно не занимаются исследованиями в области ИИ?
Мартин Форд: Самым большим выводом для них является то, что все согласны с тем, что ИИ будет разрушительным. Они не пришли к единому мнению относительно того, как именно это выглядит, но эта технология окажет огромное влияние на общество.
Уильям Фалькон: Каковы ваши взгляды на общий искусственный интеллект после бесед с этими исследователями?
Мартин Форд: Главный вывод заключается в том, что у всех, с кем я брал интервью, разные идеи. В конце книги есть опрос, в котором спрашивается, в каком году может появиться AGI. В среднем через 80 лет. Но главный вывод – по всем вопросам, а не только по ОИИ – заключается в том, что консенсуса не существует.
Уильям Фалькон: О каких более насущных проблемах нам следует задуматься?
Мартин Форд: Влияние на конфиденциальность, нашу политическую систему и безопасность. Мы уже видели некоторое влияние этого на нашу политическую систему на примере таких мероприятий, как Cambridge Analytica. Нам также необходимо подумать о безопасности, поскольку мы больше полагаемся на автономные системы на базе искусственного интеллекта, которые могут стать более уязвимыми для взлома, когда люди выходят из строя. Больше всего всех беспокоит превращение ИИ в оружие.
Недавно мы также начали видеть новости об алгоритмах искусственного интеллекта, которые привели к предвзятым решениям в зависимости от пола и расы при приеме на работу и в других областях. Все эти проблемы уже происходят сегодня и станут намного серьезнее в ближайшие годы. Это должно беспокоить всех, а не только исследователей ИИ.
Уильям Фалькон: Теперь, когда мы определили некоторые из этих основных проблем, каковы осязаемые следующие шаги на пути к их решению?
Мартин Форд: Частично это должно будет войти в политическую сферу. Нам нужно будет разработать некоторые формы регулирования в некоторых областях. Люди, с которыми я разговаривал, не согласны с тем, что нам необходимо регулировать исследования в области ИИ, а вместо этого предлагают регулировать приложения.
Беспилотные автомобили – один из очевидных примеров. Другой вопрос, как следует использовать распознавание лиц. Даже чтение эмоций можно использовать всевозможными гнусными способами для манипулирования покупателями или во время переговоров.
Кто такие исследователи?
- Йошуа Бенджио ( лаборатория MILA , Университет Монреаля).
- Стюарт Рассел ( лаборатория BAIR , Калифорнийский университет в Беркли).
- Джеффри Хинтон ( Google Brain , Университет Торонто).
- Ник Бостром ( Институт будущего человечества , Оксфордский университет).
- Янн Лекун ( лаборатория CILVR , главный научный сотрудник Facebook AI , Нью-Йоркский университет).
- Фей-Фей Ли ( лаборатория SAIL , Google, Стэнфордский университет).
- Демис Хассабис (сооснователь Google Deepmind ).
- Эндрю Нг ( лаборатория SAIL , AI Fund . Стэнфордский университет).
- Рана Эль Калиуби (соучредитель Affectiva ).
- Рэй Курцвейл (Google).
- Даниэла Рус ( лаборатория CSAIL , Массачусетский технологический институт).
- Джеймс Маньика ( Глобальный институт McKinsey ).
- Гэри Маркус (основатель Geometric Intelligence . Нью-Йоркский университет).
- Барбара Гросс (Гарвардский университет).
- Джудея Перл (Калифорнийский университет в Лос-Анджелесе).
- Джеффри Дин (руководитель Google Brain ).
- Дафна Коллер (соучредитель Insitro . Стэнфордский университет).
- Дэвид Ферруччи (основатель Elemental Cognition . Bridgewater Associates).
- Родни Брукс (председатель Rethink Robotics ).
- Синтия Бризил (основатель Jibo. Лаборатория СМИ Массачусетского технологического института).
- Орен Эциони (генеральный директор Института искусственного интеллекта Аллена ).
- Джош Тененбаум ( факультет мозговых и когнитивных наук , Массачусетский технологический институт).
- Брайан Джонсон (генеральный директор Kernel ).