-
Название:Конец индивидуума. Путешествие философа в страну искусственного интеллекта
-
Автор:Гаспар Кёниг
-
Жанр:Разная литература
-
Страниц:86
Краткое описание книги
Шрифт:
Интервал:
Закладка:
Гаспар Кёниг
Конец индивидуума. Путешествие философа в страну искусственного интеллекта
Gaspard Kœnig
La Fin de l’individu Voyage d’un philosophe au pays de l’intelligence artificielle
L’OBSERVATOIRE
© Editions de L’Observatoire/Humensis, 2019
© Инна Кушнарёва, перевод, 2023
© ООО «Индивидуум Принт», 2023
Предисловие
То, что моя книга выходит на русском языке в столь трагичный период европейской истории, кажется мне особенно важным. Я считаю, что вопреки глупости правящих элит мы должны поддерживать прямую связь между автором и читателем, связь человека с человеком, чтобы не утратить тонкую нить, соединяющую наши культуры и наши мысли.
Полевой этап моего исследования искусственного интеллекта стартовал в 2018 году. В такой динамичной области, где одна инновация стремительно сменяет другую, книга устаревает на следующий день после публикации. Преимущество философского подхода – в его аналитичности, и мои размышления пятилетней давности по-прежнему кажутся мне актуальными.
В качестве иллюстрации я предлагаю обратиться к ChatGPT, хотя это и означает несколько забежать вперед.
Появлению этого чрезвычайно успешного чат-бота (вероятно, первого прошедшего тест Тьюринга) сопутствуют две хорошо знакомые нам фобии, излюбленные прессой, падкой на сенсации.
Во-первых, страх, что так называемый сильный искусственный интеллект выработает самостоятельное сознание. Здесь следует вспомнить мысленный эксперимент философа Джона Серла с «китайской комнатой»: робота можно научить делать вид, что он говорит по-китайски, обучив его реагировать на стимулы, связанные с теми или иными иероглифами. Но это лишь симуляция – он не будет говорить по-китайски. Другими словами, он не сможет понять смысл китайских слов. То же относится и к текстам ChatGPT – это лишь простая имитация человеческой мысли.
Вторая фобия – страх «конца работы». Однако ChatGPT, как и все ИИ, для выработки своих ответов опирается на результаты колоссального интеллектуального труда многих людей. Без этого сырья, без данных, собранных или проверенных реальными людьми (часто теми, чей труд плохо оплачивается и бывает временным), нет топлива для машины! Проблема заключается не в «конце работы», а в ее справедливой оплате, поэтому нам определенно придется заставить создателей ChatGPT выплачивать нам авторские гонорары.
Какими же вопросами тогда стоит задаваться?
В первую очередь теми, что угрожают нашим либеральным представлениям о науке и о свободе.
ChatGPT усиливает искушение доверить нашу свободу выбора машине. Мы уже можем положиться на алгоритмы, чтобы найти нужное жилье или даже партнера для отношений. Неужели теперь мы отдадим ей и самое сокровенное – наши мысли? Вопрос не в том, «разумен» ли ChatGPT, а в том, кто вообще имеет право на разум. На карту поставлено наше человеческое достоинство.
С технологической стороны ChatGPT бросает вызов механизму производства знаний, который диктует современная наука. Основанные на бесчисленных корреляциях, рассуждения ChatGPT невоспроизводимы, неопровержимы, необъяснимы и, что особенно важно, не имеют источников. Сегодня впервые за 2500 лет прозвучала идея о том, что можно освободиться от концепта значимости источника. Уже в диалогах Платона появляется первый источник – Сократ. У античных историков источники, может быть, и не всегда надежны, но они есть: Тит Ливий тщательно цитирует других античных авторов, например Полибия, и приводит устные свидетельства. Сегодня академическая наука полагается, пусть иногда и чрезмерно, на качество справочного аппарата. В школе учителя стараются научить учеников правильно пользоваться интернетом – указывать сайты, на которые они ссылаются.
Конечно, если вы попросите ChatGPT предоставить свои источники, он сделает это. Но это не истинные источники, затерявшиеся в магме глубокого обучения, это всего лишь вероятные источники. Разница фундаментальна: неопределенность больше не считается дефектом, который нужно устранить, а воспринимается как структурная характеристика.
Такое пренебрежение источниками не относится к техническим ошибкам. Ответы ChatGPT основаны на корреляциях, которые по своей природе не поддаются аналитическому разложению. Они вдохновлены всеми правдами, неправдами и квазиправдами, выплеснутыми в сеть. В этом смысле ChatGPT – полная противоположность «Википедии», которая при всех своих недостатках известна маниакальным пристрастием к источникам и пытается вывести объективную истину из дебатов между людьми-составителями.
Когда я писал эту книгу, мне встретилась статья Генри Киссинджера «Как заканчивается Просвещение» (How the Enlightenment Ends), которая, мне кажется, подтверждает мой анализ. Такие же чувства вызывает у меня и книга Киссинджера на эту тему, написанная в соавторстве с Эриком Шмидтом и Дэниелом Хаттенлокером, специалистом по ИИ из Массачусетского технологического института. Его позиция, высказанная в этой работе, представляется мне совершенно ясной.
Об автономии субъекта:
По мере того как люди все меньше используют свой мозг и больше – машины, они могут утратить собственные способности. Наши навыки критического мышления, письма и дизайна могут атрофироваться.
О знаниях:
Каким образом обучающаяся машина хранит свои знания, перерабатывает их и извлекает, по-прежнему остается неизвестным. <…> Наука эпохи Просвещения накапливала определенности; новый ИИ аккумулирует двусмысленности.
Таким образом, ChatGPT поднимает вопрос о просвещении. Как мы видим человека? Как автономного субъекта, способного выявить причинно-следственную связь? Или как индивида, порабощенного игрой корреляций?
В технологиях нет ничего неизбежного. Это инструмент, который должен быть адаптирован к нашему представлению об истине, к нашим политическим и социальным принципам. Но не наоборот…
Прогресс не равен инновации. Прогресс заключается не в слепом принятии всего нового, а в том, чтобы учиться на сделанных ошибках.
Именно это предлагает моя книга, и я надеюсь, что сегодня она актуальна как никогда.
Гаспар Кёниг
апрель 2023
Homo deus
Sorry, I can’t help you. «Извините, ничем не могу вам помочь», – вот так лаконично ответил на мою просьбу об интервью Элиезер Юдковский, один из передовых исследователей искусственного интеллекта в Кремниевой долине. Едва ли можно лучше показать пропасть, отделяющую властителей технологий от широкой публики; тех, кто создает алгоритмы, – от тех, кто живет под их властью; и, наконец, тех, кто пишет строки кода, – от тех, кто пытается их понять.
Sorry, I can’t help you. Иначе говоря: я хотел бы, но правда не могу. Как варвар, который никогда не занимался программированием, профан, который с трудом справляется с PowerPoint, может понять все тонкости «глубокого обучения»? Цель здесь одна: «Мы делаем мир лучше», make the world better. Мы не задаемся вопросами, мы решаем проблемы. Философская болтовня, роскошь праздного рассудка, – не наша забота. Так Горгий ответил Сократу: все это ребячество надо немедленно прекратить.
Sorry, I can’t help you. Не удивлюсь, если это сообщение было автоматически сгенерировано Gmail: Юдковский, должно быть, получает кучу подобных запросов. Алгоритм должен научиться распознавать их и выдавать подходящий ответ. Что может быть естественнее искусственного интеллекта, отвечающего на вопросы об искусственном интеллекте?
Однако сегодня нам