Шрифт:
Интервал:
Закладка:
Сара Демерс
Адъюнкт-профессор физики Йельского университета
Давайте будем великодушны и дадим машинам возможность мыслить, по крайней мере в нашем воображении. Поскольку мы сами — мыслители, у нас должно получиться. Какая бы новая категория мыслителей ни появилась, меня больше всего интересует одна вещь: какие вопросы они будут ставить?
Машины обычно быстрее и лучше людей справляются с использованием алгоритмов и отысканием корреляции в данных. Компьютеры применяются для решения задач во всех областях точных и общественных наук. Машины упрочняют свое положение в гуманитарных науках такими способами, которые далеко не ограничиваются подсчетами, сколько раз писатель X использовал слово Y и какие слова обычно находились вблизи него. Но ограничения в производстве нового знания связаны с постановкой правильных вопросов не меньше, чем с эффективным решением тех, что уже сформулированы.
Научная проблематика в моей области — физике частиц — это смесь физики и философии. Доступные нам сейчас инструменты измерения дают настолько неправдоподобные результаты, что некоторые начали воображать, будто мы живем в одной из множества вселенных и среди них обязательно есть те, где существуют такие же неправдоподобные физические константы. Философия просачивается в физику вместе со словом «неправдоподобные». Несмотря на все, чего мы достигли в области решения научных проблем, темная энергия и темная материя все еще остаются для нас тайнами, таким образом, 96 % материи/энергии во Вселенной не укладываются в наши нынешние представления. Есть ли теоретические основания, находящиеся за пределами квантовой теории поля, для того чтобы описать законы природы в экстремумах малых частиц и больших скоростей? Может ли наше понимание элементарной частицы оказаться попросту необоснованным?
Машины уже помогают нам лучше формулировать вопросы. Их информационные аппетиты позволяют нам мечтать о том, чтобы по-новому взаимодействовать с нашим окружением. Но если бы машины могли мыслить, какие вопросы о Вселенной интересовали бы их в первую очередь? Как бы они подходили к их разрешению? Готова поспорить, у людей было бы что добавить к ответам на их вопросы. Все-таки наш мозг — удивительная машина.
Барт Коско
Преподаватель электромеханики; преподаватель инженерного дела и правоведения в Университете Южной Калифорнии; автор книги «Шум» (Noise)
Машины не думают. Они аппроксимируют функции. Они превращают входные данные в выходные данные. Кнопка карманного калькулятора «корень квадратный» превращает число 9 в число 3. Хорошо тренированная сверточная нейронная сеть превращает изображение вашего лица в результат «1». Она также превращает изображение, на котором вашего лица нет, в результат «0».
Многослойная или «глубинная» нейронная сеть сводит оценку любого изображения к оценке вероятности того, что на нем есть ваше лицо. Таким образом, тренированная сеть аппроксимирует вероятностную функцию. Этому процессу, чтобы хоть иногда получать правильные результаты, требуется ошеломительное количество вычислений. Но в конечном итоге он все равно преобразует входные данные в выходные. Он всего лишь аппроксимирует функцию, даже если результат походит на человеческое восприятие или мышление. Для этого просто нужно много вычислительной мощности.
«Разумные» машины аппроксимируют комплексные функции, которые работают с паттернами, такими как речь, изображения или любые другие сигналы. Паттерны изображений обычно состоят из множества пикселей или вокселей и часто имеют большую размерность. Связанные с ними паттерны вполне могут выходить за пределы того, что в состоянии охватить человеческий разум. В этом вопросе преимущество компьютеров будет усиливаться по мере их совершенствования.
В решении числовых задач большого объема нам удалось добиться действительно серьезных успехов. Это стало следствием постоянного удвоения плотности монтажа схем, которое происходит примерно раз в два года в соответствии с законом Мура, а не появления каких-то принципиально новых алгоритмов. Такой экспоненциальный рост вычислительной мощности позволяет обычным с виду компьютерам решать более сложные задачи, связанные с большими данными и распознаванием паттернов.
Рассмотрим наиболее популярные алгоритмы больших данных и машинного обучения. Один алгоритм неконтролируемый (ему не требуется учитель, чтобы присваивать данным метки), другой — контролируемый (ему требуется учитель), именно с ними связана значительная часть работ в области прикладного ИИ.
Неконтролируемый алгоритм называется кластеризацией методом k-средних, и, возможно, это самый популярный способ работы с большими данными. Он объединяет подобное с подобным и лежит в основе Google News. Начнем с миллиона измерительных точек. Сгруппируем их в 10, 50 или 100 кластеров или паттернов. Это вычислительно сложная задача. Но кластеризация методом k-средних является итеративным способом формирования кластеров по меньшей мере с 1960-х годов. Что изменилось, так это размерность задач, с которыми могут справляться современные компьютеры. Сам алгоритм называли разными именами, так или иначе намекающими на ИИ, например «самоорганизующаяся карта» или «адаптивная квантизация векторов». Но это все тот же старый двухступенчатый итеративный алгоритм из 1960-х.
Контролируемый алгоритм — это алгоритм нейронной сети, который называется обратным распространением. Именно он чаще всего используется в машинном обучении. Обратное распространение получило свое название в 1980-х годах. Появилось оно по меньшей мере десятью годами ранее. Алгоритм обучается на основе образцов, которые ему дает пользователь или супервизор. Например, вы показываете изображения с вашим лицом и без него. Они проходят через несколько слоев похожих на коммутаторы нейронов, пока те не эмитируют окончательный результат, который может быть представлен одним числом. Вам нужно получить число «1», если на входном изображении есть ваше лицо, и «0» в противном случае. Сеть изучает паттерны вашего лица, пока перебирает их в ходе тысяч и миллионов итераций. Ни на одном из этих шагов или переборов не возникает никакого интеллекта или мышления. И ни одно из уточнений любого из сотен или тысяч параметров сети не отражает того, как настоящие синапсы узнают новые паттерны нервной стимуляции. Скорее это как если бы люди выбирали, что им делать дальше, на основании ничтожного отрицательного воздействия, которое их действия окажут на процентную ставку по десятилетним облигациям государственного займа США.
Вывод: оба популярных алгоритма ИИ — это отдельные случаи одного и того же стандартного алгоритма современной статистики, алгоритма ожидания и максимизации (EM-алгоритма). Поэтому любой предположительно связанный с ними интеллект — просто заурядная статистика. EM — это двухступенчатая итеративная схема подъема на холм вероятности. Он не всегда попадает на вершину самого высокого холма — как правило, это оказывается вершина ближайшего холма. Возможно, ни один алгоритм обучения на большее и неспособен. Аккуратно добавленный шум и другие поправки могут ускорить восхождение. Но все пути так или иначе сходятся к вершине холма, к области наиболее правдоподобного равновесия. Все они заканчиваются в своеобразной нирване машинного обучения с локально-оптимальным распознаванием образа или аппроксимацией функции. Эти точки равновесия на вершинах холмов будут выглядеть все более впечатляюще по мере увеличения скорости компьютеров. Но с мышлением они связаны не больше, чем вычисление некоторых сумм и выбор наибольшей из них.