Шрифт:
Интервал:
Закладка:
Наиболее близка к практической реализации NLP была компания Artificial Intelligence Corporation, разрабатывавшая с 1975 года вопросно-ответную систему INTELLECT.
Однако идею создания вопросно-ответных систем на основе правил, задаваемых человеком (handwritten rules), в конечном счете постигла та же участь, что и первые попытки создания систем MT. Окончательно же судьбу вопросно-ответных систем не в их пользу решил Даг Энгельбарт, разработавший NLS (On-Line System), создатель манипулятора мышки и того, что мы сегодня называем презентациями, без чего не обходится ни одна лекция, ни одно публичное выступление. Энгельбарт смотрел на жизнь совершенно иначе, чем создатели вопросно-ответных систем, он не пытался заменить человека компьютером, уже тогда прекрасно понимая значение разделения функций между машиной и человеком. NLS строилась на принципе ETLANTU (Easy To Learn And Natural To Use), т. е. «легко изучить и просто использовать», и главное в ней – идея создания интегрированной интерактивной визуальной среды, адаптированной к нуждам пользователя.
Публике NLS была впервые представлена в 1968 г. на Осенней объединенной компьютерной конференции (Fall Joint Computer Conference). Именно там состоялся дебют основных составляющих системы, включая мышь. Отметим, что все это происходило в режиме телеконференции между залом и лабораторией в SRI. Появление современных человеко-машинных интерфейсов окончательно похоронило первое поколение вопросно-ответных систем, однако ему было суждено возродиться через полвека в образе разнообразных чат-ботов.
NLP на основе статистического подхода
В 90-х изменилась парадигма NLP – вместо превращения компьютера в инструмент для перевода или оперирования заложенными в память человеческими знаниями возникла идея использования его в качестве инструмента для автоматизации работы с текстами и извлечения информации из текстовых данных. Это направление получило название NLU. Один из известных подходов к извлечению скрытой в тексте информации основывается на статистике, достаточно вспомнить «Пляшущих человечков» Конан Дойла.
Математическую структуру текста начал изучать Андрей Андреевич Марков (1856–1922), использовав для этого первые 20 000 букв из «Евгения Онегина». В качестве эксперимента он поместил их в 200 таблиц 10х10, исключив из текста знаки препинания и пробелы, чтобы потом определить вероятность появления гласных и согласных. Он хотел убедиться в том, что появление буквы в том или ином месте не совсем случайно и подчиняется какой-то закономерности. Эта работа привела его к тому, что теперь называют цепью Маркова. Речь идет об анализе последовательности случайных событий с конечным исходом, где вероятность каждого события зависит от состояния, достигнутого в предыдущем событии, увязывая таким образом настоящее с будущим независимо от прошлого.
Основными импульсами к развитию статистического подхода стали, с одной стороны, возможность работы с большими объемами текстовых данных, доступными через интернет, а с другой – применение статистических методов для разбора с использованием алгоритмов динамического программирования. Успеху статистического подхода способствовал постоянный рост производительности, обычно связываемой с законом Мура и постепенная утрата доминантного положения лингвистической теории Хомского.
NLP на основе коннекционстского подхода
О коннекционистском подходе Connectionist Natural Language Processing (CNLP) начали говорить с конца 90-х и он активно обсуждается сейчас. Из названия следует, что это комплексный подход, уходящий корнями в физику психологию, физиологию, лингвистику биологию и инженерию. Стоящие на этом пути проблемы далеки от решения, поэтому иногда этот подход упрощенно сводят к сочетанию символического и статистического подходов.
Заключение
За короткий срок представление о том, что такое AI радикально изменилось, еще лет 10–15 назад под AI понимали область отвлеченных академических изысканий, а в общественном сознании доминировало навязанное авторами научной фантастики и футурологами представление о чем-то враждебном и опасном для человека или даже человечества в целом. Еще совсем недавно, в 2006 году к 50-ой годовщине Дартмутского семинара автором была написана статья с названием «Весна придет, когда не знаю», адресующим к зимам AI и с надеждой на благоприятные изменения. Предположить столь скорое наступление весны было совершенно невозможно. Наконец все стало на свои места – забыты мечты о Сильном AI, полный отказ от мыслей о конкуренции AI с человеком (competition) в сторону сотрудничества (coopetition). Апокалиптические прогнозы остались в прошлом, сейчас на самых разных уровнях об AI говорят как об одной из важнейших составляющих мирового рынка высоких технологий со всеми вытекающими из этого последствиями – рост производительности, улучшение условий и безопасности труда, возможность автоматизации в новых сферах и т. д.
AI освободился от приписываемой ему способности делать что-то самостоятельно. Анализ известных внедрений AI показывает, что только чатботы являются примером в некоторой степени автономного AI, скорее всего потому что это приложение не отличается большой сложностью. Во всех остальных случаях AI играет сугубо вспомогательную роль, ему отведено место умного помощника человека или, точнее, как говорили прежде, соработника. Именно так следует перевести принятый английский термин AI-coworker. Такому AI-коллеге можно передать ряд рутинных функций, освободив от них человека, оставив за ним более сложные, с элементами творчества. На редкость точно по этому поводу недавно написала Миранда Кац, автор журнала Wired: «Мы живем не в золотой век AI, а в золотой век повышения производительности труда человека средствами AI (AI-enhanced productivity)». AI-технологии становятся органичной частью современной производственной среды и даже среды обитания, где AI-коллеги в большинстве случаев материализованы как программные продукты и гораздо реже – как какие-то физические устройства. Нынешние экономические сдвиги связаны с качественно новым способом взаимодействия человека с машиной, прежде всего, в области анализа данных, применение AI-коллег освобождает человека функций, не требующих обладания серьезными когнитивными способностями. В такой области, как управлении бизнесом, это может быть реферирование, то есть чтение стандартных документов, выделение тех или иных показателей, перенос этих данных в электронные таблицы или базы данных. Основанное же на этих данных стратегическое и тактическое планирование, выбор и приятие решений остаются за человеком. Нечто подобное может иметь место и в других областях, от медицины до разработки ПО.
Как на этом прозаичном фоне отнестись к прошлому, к сложному пути, по которому исследователи AI шли путем метода проб и ошибок? К сожалению приходится признать, что из знаний в области AI, накопленных за первые 70 лет его истории, не осталось почти ничего полезного для нашего времени. Для объяснения этого явления возможно подойдет эмпирический закон полураспада знаний (half-life of knowledge), сформулированный австрийским экономистом Фрицем Махлупом (Fritz Machlup, 1902–1983), эмигрировавшим в Америку. Закон получил широкую известность благодаря книге популярного писателя и ученого Самюэля Арбесмана «Период полураспада фактов.