Шрифт:
Интервал:
Закладка:
Джон Мак-Карти. Первым начал исследования в области искусственного интеллекта и разработал язык Лисп, широко используемый в исследованиях искусственного интеллекта
С момента конференции в Дортмуте развитие ИИ происходило в геометрической прогрессии. Сегодня ИИ так или иначе затрагивает жизнь большинства людей во всем мире, им интересуются студенты, на нем сосредоточены усилия тысяч ученых. Различные теории и практики ИИ невозможно описать в единственной главе или книге и даже во многих книгах, но мы тем не менее приведем несколько примеров работ в области изучения ИИ в их связи с когнитивной психологией.
Самый распространенный тип компьютера из используемых сегодня копирует схему («архитектуру», на компьютерном жаргоне), разработанную венгерским математиком Джоном фон Нейманном (von Neumann, 1958), в 1930 году эмигрировавшем в Соединенные Штаты. Такого рода компьютер иногда называют Johniac, или последовательный процессор, так как электрические импульсы обрабатываются последовательно, или один за другим. Эти цепные последовательности работают очень быстро, каждый шаг требует лишь несколько наносекунд, но для решения сложных задач последовательным способом (таких, как решения с использованием математических функций или трансформация данных или файлов) компьютеру может потребоваться нескольких минут, часов или еще больше времени. Все пользователи компьютеров знают, как невыносимо «много» времени требуется персональным компьютерам, чтобы «обдумать», или «переварить», проблему. Основная причина, по которой компьютеры неймановского типа работают так медленно, состоит в том, что одно действие должно быть закончено прежде, чем начато другое. Последовательные процессоры решают проблемы пошаговым способом.
Джон фон Нейманн (1903-1957). Разработал общепринятую компьютерную архитектуру
В самом начале разработки технологии компьютеров специалисты в области искусственного интеллекта (и авторы научной фантастики) лелеяли грандиозные мечты о мыслящих машинах и роботах. В начале 1940-х годов чикагский психиатр В. С. Мак-Калох и его студент В. Питтс написали оригинальную статью. В ней они ввели понятие, которому суждено было оказать существенное влияние на ученых-компьютерщиков, включая фон Неймана, а позже и сторонников модели PDP. Основываясь на идее о том, что разум определяется как работа мозга, а более точно — основных единиц мозга, нейронов, они утверждали, что нейроны можно рассматривать как «логические устройства» и что «нервные явления и отношения между ними можно объяснить с помощью пропозициональной логики». Когда нейроны взаимодействуют друг с другом, они делают это электрохимически. Небольшой силы электрический ток проходит по аксону клетки к синапсу, где химический медиатор передает импульс другим нейронам. Процессом нейротрансмиссии управляют определенные правила: нейроны генерируют разряд, только когда достигается порог возбуждения, у всех нейронов есть пороги; нейроны генерируют разряд, только когда ток положительный, отрицательный ток тормозит активность нейрона и т. д. Очень важно, что каждый нейрон, по-видимому, суммирует все возбуждающие и тормозящие сигналы от тысяч его связей. В зависимости от своего порога нейрон будет или не будет генерировать разряд, то есть он будет «включен» или «выключен»[104]. (Нейроны такого типа называются нейронами Мак-Калоха-Питтса.) Мак-Калох и Питтс отметили, что этот нейрон в состоянии «включено» или «выключено» можно рассматривать как логическое устройство. Как известно, компьютер работает с помощью схем «включено-выключено». Когда тысячи таких схем соединяются вместе в экспоненциальной последовательности, возможности обработки неизмеримо возрастают. Точно так же основная единица нервной обработки — нейрон и его связи — обладает впечатляющими возможностями.
Вскоре после публикации статьи Мак-Калоха и Питтса фон Нейманн обнаружил связь между логичным поведением нейронов при их взаимодействии между собой и способом работы цифровых компьютеров. «Легко заметить, что эти упрощенные функции нейрона можно имитировать с помощью телеграфного реле или радиоламп». (Транзисторы еще не были изобретены, иначе он, вероятно, назвал бы и их.) Фон Нейманн, который к этому моменту уже разработал наиболее практичную компьютерную архитектуру, предположил, что можно спроектировать компьютер, который бы копировал человеческий мозг — не только по функции, но и по структуре, — а радиолампы, реле, соединяющие провода и аппаратные средства ЭВМ заменяли бы нейроны, аксоны, синапсы и остальную «телесную начинку». Вслед за фон Нейманном попытку создания компьютера предпринял Ф. Розенблатт. Его цель состояла в том, чтобы создать компьютер, способный классифицировать фигуры. Результат его работы получил название «перцептрон», он грубо копировал организацию мозга (см. главы 1 и 2). Машина Розенблатта включала иерархию с тремя уровнями. Каждый уровень был связан с определенной функцией, которые в общих чертах имитировали сенсорный, ассоциативный и моторный паттерны людей. Фундаментальная проблема ранних машин типа перцептрона состояла в том, что они не могли учиться. Они просто обрабатывали узкий диапазон стимулов и выдавали столь же простые реакции.
Люди способны к научению, потому что у них есть поддающиеся изменению синапсы. Вспомните правило Хебба (приведенное в главе 2), согласно которому сила связи между двумя нейронами возрастает, когда они одновременно активизированы. Могло ли это правило использоваться для описания связи между суррогатными нейронами? Обучение такой машины могло бы потребовать встраивания в искусственный мозг соответствующим образом запрограммированного резистора (устройства, которое определяет силу электрического импульса, передающегося от одного транзистора к другому). Резистор действовал бы как регулятор, позволяя передавать одни биты информации и отвергать другие. При этом способные к «научению» перцептроны (научение здесь определяется как «изменение силы связи между единицами, которые моделируют нейроны») действуют подобном нейронам Мак-Калоха- Питтса и в соответствии с теорией Хебба. Сконструированному таким образом компьютеру можно было бы показать простую геометрическую фигуру, например круг, чтобы он мог классифицировать его. Если машина отреагирует, назвав его квадратом, ее можно «научить» реагировать правильно, увеличив сопротивление между определенными единицами и понизив сопротивление между другими. Если реакция правильна, то есть если перцептрон называет круг кругом, величина сопротивления остается той же. В этом смысле перцептроны наказывают за ошибки и не реагируют на успех. Эти первые шаги были важны для проектирования машин, способных к обобщениям и научению, — важным факторам в конструировании «мыслящей машины», которая функционирует подобно человеческому мозгу.