Шрифт:
Интервал:
Закладка:
Существует разрыв между использованием технологий искусственного интеллекта, с одной стороны, и их широким принятием — с другой. Именно для устранения этого разрыва необходим такой навык, как ответственная стандартизация, то есть ответственное формирование представлений людей о взаимодействии человека и машины, а также общего восприятия целей подобного сотрудничества. Особую ценность это качество приобретает при использовании роботов в общественном пространстве (на дорогах, в больницах, кафе, учебных заведениях, домах престарелых и хосписах). Ответственная стандартизация требует множества других навыков, таких как компетенции в гуманитарных дисциплинах и в области STEM (наука, технологии, инженерия, математика), предпринимательский дух, умение поддерживать связи с общественностью, а также понимание социальных проблем и проблем местных сообществ.
С некоторых пор беспилотные автомобили попадают в наши зеркала заднего вида. В начале 2000-х управление перспективных исследовательских проектов Министерства обороны США (DARPA) провело серию испытаний Grand Challenge, чтобы повысить интерес исследователей к разработке роботизированных транспортных средств, способных принимать участие в гонках. Эта инициатива DARPA стала одним из первых шагов по популяризации беспилотных автомобилей. Сегодня автомобилями Tesla управляет система Autopilot, а компания Audi вывела на рынок автомобиль A7 Sportback, прозванный «Джеком», который запрограммирован на движение, учитывающее особенности вождения человека: торможение или набор скорости, чтобы пропустить перестраивающийся автомобиль. Audi организовала рекламную кампанию, способствующую принятию концепции систем «пилотируемого вождения». Этот автоконцерн представляет пилотируемое вождение как взаимодействие человека и машины, признавая, что в настоящее время ни один автомобиль не готов передвигаться самостоятельно во всех без исключения случаях. И все же система всегда готова помочь водителю. «Представляя свою деятельность в области пилотируемого вождения, в прошлом мы всегда уделяли основное внимание технологии и эффективности, — говорит Михаэль Финке, руководитель международного креативного подразделения Audi. — В настоящее время мы рассматриваем эту тему с совершенно другой эмоциональной точки зрения»[158].
Руководителям компаний предстоит сыграть важную роль в деле популяризации ответственной стандартизации. В настоящее время искусственный интеллект воспринимается нейтрально, хотя многие люди еще находятся во власти суждений, основанных на противопоставлении человека и машины. По этой причине любое резонансное событие (например, гибель ребенка под колесами беспилотного автомобиля или забастовка дальнобойщиков, выступающих против беспилотных грузовиков) может породить кризис доверия к технологиям в целом. Топ-менеджеры должны предвидеть подобное сопротивление, понимая потребности и опасения тех сообществ, которых затрагивают вызванные искусственным интеллектом перемены, и найти способ его смягчить.
Не менее важна ответственная стандартизация и для работников, переживающих этап внедрения искусственного интеллекта. Одно из его следствий — руководители должны изложить четкое понимание сути работы для персонала в будущем. Сотрудники, будучи важнейшим активом любой организации, могут стать активными сторонниками перемен, если их опасения услышат и учтут. Глава одной телекоммуникационной компании рассказал нам, что, когда они начали внедрять технологии искусственного интеллекта, всему персоналу было очевидно, что это затеяно прежде всего с целью сделать их успешнее, а не сократить. «Руководство представляет сотрудникам искусственный интеллект как инструмент увеличения доходов и сокращения издержек для обеспечения роста компании и повышения ее конкурентоспособности, — говорит он. — …Увеличение “пирога” означает, что люди, которых вытеснила система искусственного интеллекта, смогут освоить новые навыки и перейти в другие отделы и сферы деятельности компании по мере ее роста».
Интегрированный навык № 3. Вынесение совместных решений
Определение. Основанная на суждении способность выбирать последовательность действий в условиях машинной неопределенности.
Когда машина не понимает, что ей делать дальше, или когда в ее модели умозаключений не хватает делового или этического контекста, люди должны уметь определить, где, как и когда следует вмешаться. «В действительности машинное обучение исключает человеческое суждение и ошибки человека из процесса принятия решений, — говорит Адам Уэнчел, вице-президент компании Capital One по инновациям в области данных. — Они все больше и больше выводятся из процесса, и, на мой взгляд, это часть глобального сдвига, который происходит уже какое-то время»[159].
Для того чтобы снова включить человека в процесс, команда Уэнчела применяет и развивает как навыки статистического анализа, так и мягкие навыки[160]. По мере развития, изучения, переобучения и повторного использования моделей машинного обучения для других направлений бизнеса компании члены команды анализируют, «чем эти модели отличаются от простых систем, основанных на правилах, или предыдущих версий соответствующей модели». Базирующаяся на анализе данных оценка предоставляет сотрудникам информацию о том, где следует установить границы, изучить отклонения или предотвратить использование такой модели при работе с клиентами.
Что касается интуиции, сотрудникам предлагают определять и называть свои опасения, когда что-то кажется им спорным с этической точки зрения или не соответствует выбранному курсу. Уэнчел рассуждает следующим образом: «Даже если ваша модель обеспечивает очень хорошие результаты и очень высокую точность, люди должны чувствовать, что могут спокойно вмешаться и сказать: “Послушайте, может, мы действительно получаем высокую точность, но меня беспокоит то, как именно мы добиваемся этого”»[161].
Несмотря на поразительные успехи в области искусственного интеллекта, о которых мы говорили на протяжении всей книги, ему до сих пор трудно формулировать проблему[162]. Искусственный интеллект может правильно выполнять многие задачи, но он еще не умеет правильно оценивать ситуацию и понимать людей. А значит, человеческое суждение и эффектуация (рациональная постановка целей) всегда будут ключевым элементом любого переосмысленного процесса. Например, когда компания Royal Dutch Shell использует роботов для мониторинга оборудования и проверки систем безопасности на своем удаленном объекте в Казахстане, ей по-прежнему требуются компетенции сотрудников-людей, отслеживающих риски. Робот Sensabot — первый в своем роде робот, который нефтегазовые компании могут использовать в потенциально опасной среде. Удаленный оператор управляет его действиями, отсматривая видео и оценивая риски[163]. Точно так же опыт и знания человека остаются важнейшим элементом переосмысленных процессов в компании Caterpillar. На этапе проектирования новой сборочной линии и генерирования ее цифровой модели (с помощью системы искусственного интеллекта) требуется участие инженеров-программистов. Такая виртуальная пошаговая отладка позволяет на раннем этапе проанализировать сборку, обслуживание и эргономику, обнаруживая проблемы до того, как сборочная линия будет построена. Это позволяет экспертам еще на старте устранить любую неоднозначность или другие проблемы, опираясь на свои суждения.