Распространенное и постоянно повторяющееся мнение о последних достижениях в исследованиях искусственного интеллекта состоит в том, что разумные и интеллектуальные машины уже не за горами. Машины понимают словесные команды, различают картинки, водят машины и играют в игры лучше, чем мы. Сколько времени пройдет, прежде чем они начнут ходить среди нас?
В новом докладе Белого дома об искусственном интеллекте эта мечта воспринимается достаточно скептически. В нем говорится, что в ближайшие 20 лет машины, скорее всего, не будут «демонстрировать широко применимый интеллект, сравнимый с интеллектом человека или превосходящий его», хотя далее говорится, что в ближайшие годы «машины достигнут и превзойдут человеческие способности во многих отношениях». и другие задачи». Но его предположения о том, как будут развиваться эти возможности, упускают из виду некоторые важные моменты.

Как исследователь ИИ, я признаю, что было приятно, что моя собственная область деятельности была освещена на самом высоком уровне американского правительства, но доклад был сосредоточен почти исключительно на том, что я называю «скучным видом ИИ». В полупредложении он отверг мою область исследований ИИ о том, как эволюция может помочь в разработке постоянно совершенствующихся систем ИИ и как вычислительные модели могут помочь нам понять, как развивался наш человеческий интеллект.
В докладе основное внимание уделяется тому, что можно было бы назвать основными инструментами искусственного интеллекта: машинному обучению и глубокому обучению. Именно такие технологии смогли сыграть в «Jeopardy!» ну , и победить человеческих мастеров го в самой сложной игре, когда-либо изобретенной. Современные интеллектуальные системы способны обрабатывать огромные объемы данных и очень быстро выполнять сложные вычисления. Но им не хватает элемента, который будет иметь ключевое значение для создания разумных машин, которые, как мы представляем, появятся в будущем.
Нам нужно сделать больше, чем просто научить машины учиться. Нам необходимо преодолеть границы, которые определяют четыре различных типа искусственного интеллекта, барьеры, отделяющие машины от нас – и нас от них.
Тип I AI: Реактивные машины
Самые базовые типы систем ИИ являются чисто реактивными и не способны ни формировать воспоминания, ни использовать прошлый опыт для обоснования текущих решений. Deep Blue, шахматный суперкомпьютер IBM , победивший в конце 1990-х годов международного гроссмейстера Гарри Каспарова, является прекрасным примером машины такого типа.
Deep Blue может идентифицировать фигуры на шахматной доске и знать, как каждая из них ходит. Он может делать прогнозы о том, какие действия могут быть следующими для него и его противника. И он может выбирать наиболее оптимальные ходы из числа возможных.
Но у него нет ни концепции прошлого, ни воспоминаний о том, что произошло раньше. За исключением редко используемого шахматного правила, запрещающего повторение одного и того же хода три раза, Deep Blue игнорирует все, что происходит до настоящего момента. Все, что он делает, это смотрит на фигуры на шахматной доске в ее нынешнем виде и выбирает возможные следующие ходы.
Этот тип интеллекта предполагает, что компьютер напрямую воспринимает мир и действует в соответствии с тем, что видит. Оно не опирается на внутреннюю концепцию мира. В своей основополагающей статье исследователь искусственного интеллекта Родни Брукс утверждал, что нам следует создавать только такие машины. Его основная причина заключалась в том, что люди не очень хорошо умеют программировать точные моделируемые миры для использования компьютерами, то, что в науке об искусственном интеллекте называется «представлением» мира.
Нынешние интеллектуальные машины, которыми мы восхищаемся, либо не имеют такой концепции мира, либо имеют очень ограниченную и специализированную концепцию для своих конкретных задач. Инновация в конструкции Deep Blue не заключалась в расширении диапазона возможных фильмов, рассматриваемых компьютером. Скорее, разработчики нашли способ сузить свою точку зрения, чтобы прекратить реализацию некоторых потенциальных будущих шагов , основываясь на том, как они оценили их результат. Без этой способности Deep Blue пришлось бы стать еще более мощным компьютером, чтобы победить Каспарова.
Точно так же AlphaGo от Google, которая обошла лучших экспертов по го среди людей, также не может оценить все потенциальные будущие шаги. Ее метод анализа более сложен, чем у Deep Blue, и использует нейронную сеть для оценки развития игр.
Эти методы действительно улучшают способность систем ИИ лучше играть в определенные игры, но их нелегко изменить или применить к другим ситуациям. Это компьютеризированное воображение не имеет представления о более широком мире – это означает, что они не могут функционировать за пределами конкретных задач, которые им поручены, и их легко обмануть .
Они не могут интерактивно участвовать в жизни мира, как мы представляем, когда-нибудь это сделают системы искусственного интеллекта. Вместо этого эти машины будут вести себя одинаково каждый раз, когда сталкиваются с одной и той же ситуацией. Это может быть очень полезно для обеспечения надежности системы искусственного интеллекта: вы хотите, чтобы ваш автономный автомобиль был надежным водителем. Но это плохо, если мы хотим, чтобы машины действительно взаимодействовали с миром и реагировали на него. Этим простейшим системам искусственного интеллекта никогда не будет скучно, интересно или грустно.
ИИ типа II: ограниченная память.
Этот класс Типа II содержит машины, способные заглянуть в прошлое. Беспилотные автомобили уже кое-что из этого делают. Например, они наблюдают за скоростью и направлением других автомобилей. Это невозможно сделать за один момент, а требует идентификации конкретных объектов и их постоянного мониторинга.
Эти наблюдения добавляются к заранее запрограммированным представлениям мира беспилотных автомобилей, которые также включают разметку полос, светофоры и другие важные элементы, такие как повороты дороги. Они включаются, когда автомобиль решает, когда сменить полосу движения, чтобы не подрезать другого водителя или не быть сбитым соседней машиной.
Но эти простые кусочки информации о прошлом преходящи. Они не сохраняются как часть библиотеки опыта автомобиля, на которой он может учиться, подобно тому, как водители-люди накапливают опыт, накопленный годами за рулем.
Так как же мы можем создать системы искусственного интеллекта, которые создают полные представления, запоминают свой опыт и учатся справляться с новыми ситуациями? Брукс был прав в том, что сделать это очень сложно. Мои собственные исследования методов, вдохновленных дарвиновской эволюцией, могут начать компенсировать человеческие недостатки , позволяя машинам создавать свои собственные представления.
ИИ типа III: теория разума
Мы могли бы остановиться на этом и назвать эту точку важным разрывом между машинами, которые у нас есть, и машинами, которые мы построим в будущем. Однако лучше более подробно обсудить типы представлений, которые должны формировать машины, и их содержание.
Машины следующего, более продвинутого класса формируют представления не только о мире, но и о других агентах или сущностях в мире. В психологии это называется «теорией разума» — понимание того, что люди, существа и объекты в мире могут иметь мысли и эмоции, влияющие на их собственное поведение.
Это имеет решающее значение для того, как мы, люди, формируем общества , потому что они позволяют нам осуществлять социальные взаимодействия. Без понимания мотивов и намерений друг друга и без учета того, что кто-то еще знает обо мне или об окружении, работать вместе в лучшем случае сложно, в худшем – невозможно.
Если системы искусственного интеллекта действительно когда-нибудь появятся среди нас, они должны будут понять, что у каждого из нас есть мысли, чувства и ожидания относительно того, как с нами будут обращаться. И им придется соответствующим образом скорректировать свое поведение.
ИИ типа IV: Самосознание
Последним шагом разработки ИИ является создание систем, которые могут формировать представления о себе. В конечном итоге нам, исследователям ИИ, придется не только понять сознание, но и построить машины, обладающие им.
В некотором смысле это расширение «теории разума», которой обладают искусственные интеллекты III типа. Сознание не зря еще называют «самосознанием». («Я хочу этот предмет» — это совершенно другое утверждение, чем «Я знаю, что хочу этот предмет».) Сознательные существа осознают себя, знают о своем внутреннем состоянии и способны предсказывать чувства других. Мы предполагаем, что кто-то, сигналящий позади нас в пробке, злится или нетерпелив, потому что именно это мы чувствуем, когда сигналим другим. Без теории разума мы не смогли бы делать такого рода выводы.
Хотя мы, вероятно, далеки от создания машин, обладающих самосознанием, нам следует сосредоточить наши усилия на понимании памяти, обучения и способности принимать решения на основе прошлого опыта. Это важный шаг к пониманию человеческого интеллекта как такового. И это крайне важно, если мы хотим проектировать или развивать машины, которые более чем исключительны в классификации того, что они видят перед собой.