Шрифт:
Интервал:
Закладка:
Затем мы стали задумываться над тем, откуда берутся ментальные модели, и стали изучать интеллект младенцев и детей. К концу 2000-х гг. мы добились большого прогресса, строя на основе байесовских моделей такие аспекты интеллекта, как восприятие, причинно-следственные связи, а также обнаружение сходства, изучение значений слов, планирование, принятие собственных решений и понимание чужих.
Еще 10 лет назад было построено множество удовлетворительных моделей индивидуальных когнитивных способностей, но объединяющей их теории так и не появилось. Нет у нас и модели здравого смысла.
Если посмотреть, как технологии научились делать вещи, ранее доступные только людям, то можно сказать, что у нас есть настоящий ИИ, просто не такой, каким его задумывали основатели отрасли.
М. Ф.: Это основная цель ваших исследований?
Дж. Т.: Да, в последние годы я действительно заинтересовался универсальным ИИ. И пытаюсь понять, как подобное реализуется с инженерной точки зрения. Сильное влияние на меня оказали исследования моих коллег из Гарварда Сьюзан Кэри и Элизабет Спелке. Они изучали интеллект младенцев и маленьких детей. Я уверен, что на ранней стадии развития работают самые глубокие формы обучения.
С работами Элизабет Спелке должен познакомиться любой, кто собирается заниматься ИИ уровня человека. Она убедительно показала, что уже в возрасте от двух до трех месяцев дети понимают определенные базовые вещи, например, что мир состоит из трехмерных физических объектов, которые не могут просто взять и исчезнуть. Мы называем это свойство постоянством объекта. Раньше считалось, что дети осознают это примерно к году, но Спелке и другие показали, что во многих отношениях наш мозг с самого рождения уже подготовлен к пониманию мира с точки зрения физических объектов и интенциональных агентов.
М. Ф.: Вопрос важности предустановленных структур в ИИ породил множество дискуссий. Показывают ли исследования Спелке, что такие структуры нужны и важны?
Дж. Т.: Идея создания машины, которая изначально обладает интеллектом ребенка и постепенно обучается, была высказана Аланом Тьюрингом в той же статье, где он описал свой тест. Я допускаю, что это одна из самых старых идей в сфере ИИ. Еще в 1950 г. Тьюринг предположил, как построить машину, умеющую проходить его тест, – не стремиться повторить мозг взрослого человека, а начать с детского мозга и постепенно научить его всему. Он сравнил детский мозг с только что купленным блокнотом: маленький механизм и множество чистых листов.
Работы Элизабет Спелке, Рене Байаржон, Лоры Шульц, Элисон Гопник и Сьюзан Кэри показали, что врожденные механизмы обучения невероятно сложны. Сложнее обучения без учителя: дети учатся на гораздо меньшем количестве данных и глубже понимают изучаемые явления.
Меня вдохновляют разработки когнитивистов и психологов о том, как мы воображаем вещи, которых никогда не видели, строим планы и осуществляем их, решая всё новые задачи. Эти разработки показывают, каким образом при обучении применяются ментальные модели: строятся, уточняются и отлаживаются. Наш интеллект годится не только на обнаружение шаблонов в больших данных, он позволяет намного больше.
М. Ф.: Это то, чем вы в последнее время занимались, работая с детьми?
Дж. Т.: Да. Я не считаю свой способ единственно подходящим для построения ИИ-системы, подобной человеку. Но на данный момент это единственный известный нам работающий способ, заодно решающий ряд величайших научных вопросов всех времен о нашей идентичности и понятии «человек».
М. Ф.: Нейронные сети изменили сферу ИИ, но в последнее время часто критикуется ажиотаж вокруг глубокого обучения. Высказываются даже предположения о возможности новой «зимы ИИ». Рассматриваете ли вы глубокое обучение как основной инструмент для продвижения вперед?
Дж. Т.: То, что большинство людей считает глубоким обучением, это один из инструментов в целом наборе. Многие специалисты по глубокому обучению это прекрасно понимают. Но этот термин уже вышел за рамки своего первоначального определения.
М. Ф.: Вместо технического определения, включающего конкретные алгоритмы, такие как метод обратного распространения или градиентный спуск, я бы охарактеризовал глубокое обучение в широком смысле как любой подход, использующий сложные нейронные сети с большим количеством слоев.
Дж. Т.: Для меня использование нейронных сетей с большим количеством слоев тоже всего лишь один инструмент из большого набора. Этот вид глубокого обучения прекрасно подходит для задач распознавания образов, речи, объектов, а также для решения задач, которые можно свести к распознаванию.
Например, исследователи ИИ долгое время не понимали, что задачу воспроизведения игры го можно решить, используя подходы к распознаванию образов. Методы глубокого обучения находят в структуре игрового процесса шаблоны, которые невозможно обнаружить человеку. Но задачу создания сильного ИИ невозможно свести к распознаванию образов.
М. Ф.: Вы пытаетесь преодолеть ограничения?
Дж. Т.: Да, я ищу другие виды инженерных инструментов: графические модели и байесовские сети. Эти вещи имели большое значение, когда я начал работу в сфере ИИ. Одним из самых важных ученых эпохи «символического ИИ» был Джуда Перл. Тогда, разочаровавшись в символическом интеллекте, вместо статистического подхода все занялись нейронными сетями. Но мне это кажется некорректным, потому что формальные системы подчеркивали силу символических рассуждений и абстрактных языков. К счастью, сейчас начались попытки собрать воедино лучшие идеи из различных парадигм.
Исследования в сфере ИИ можно разделить на три периода – символический, вероятностно-причинный и период нейронных сетей. Это три варианта представлений интеллекта в цифровом виде. У каждого из них были взлеты и падения, просто самый большой успех обеспечили нейронные сети.
М. Ф.: Вы стремитесь к гибриду из нейронных сетей и других, более традиционных подходов?
Дж. Т.: Такие гибриды уже существуют, например, вероятностное программирование. Пока этот инструмент не ассоциируется с ИИ настолько же плотно, как нейронные сети.
В сфере ИИ термины постоянно переопределяются, и хочется сказать, что вероятностные программы примерно так же связаны с вероятностью, как нейронные сети с нейронами. Способы, которыми сейчас используют нейронные сети, выходят далеко за рамки любого нейробиологического процесса. Фактически они давно уже работают с идеями из вероятностных и символических программ. Более того, вероятностные программы приближаются к такому же виду синтеза, только с другой стороны. Потому что для представления здравого смысла нужны не только вероятностные рассуждения, но и абстрактные символические компоненты. Ведь предметные знания – это не просто обмен числами, как в теории вероятностей. Их нужно выражать символами, будь то математика, программирование или логика.
М. Ф.: И вы сконцентрировались на этом подходе?
Дж. Т.: Да, в середине 2000-х гг. мне очень повезло со студентами и аспирантами. Вместе с Ноа Гудманом, Викашем Мансингхкой и Дэном Роем мы создали язык Church, названный в честь математика Алонзо Черча, в котором объединили логические языки высшего порядка, основанные на лямбда-исчислении, что стало основой для универсальных вычислений. Это формальная основа языков программирования, таких как Lisp и его диалект Scheme, которую мы использовали для представления абстрактного знания и обобщения моделей вероятностного и причинного мышления, а затем для построения наивной модели психического состояния человека (способности понять действия других людей на базе их убеждений и желаний). За 10 лет работы с этими вероятностными программами мы впервые смогли построить разумные, количественные, прогнозирующие и концептуально правильные модели понимания чужих действий. Рассмотрели мы и обратный процесс, когда из наблюдений за другими людьми делались выводы об их желаниях и убеждениях. Это пример базовых логических рассуждений, которые присутствуют даже у маленьких детей. И мы получили убедительные результаты.