litbaza книги онлайнНаучная фантастикаМлечный Путь, 21 век, номер 4 (49), 2024 - Кирилл Николаевич Берендеев

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 47 48 49 50 51 52 53 54 55 ... 72
Перейти на страницу:
и психикой - возбуждая какие-то зоны в мозгу, они могут ускорять обработку информации именно в них. Увеличивая снабжение их кровью, то есть кислородом, или посредством веществ, которые ускоряют работу - возможно, ценой ускорения износа. Или более изощренно, электрически - подняв уровень шума или возбудив колебания (про которые не понятно, зачем они вообще в мозге и почему мы не пытаемся в этом разобраться), и этим понизив порог срабатывания нейронов. В этом случае мозг будет быстрее и обучаться, и работать, но больше делать ошибок. В ситуации, когда цена времени больше, чем цена ошибки, это может оказаться полезно.

Но управление через эмоции вполне можно реализовать и в компьютере - например, возможно изменение приоритета выделения ресурсов программам в зависимости от ситуации. Возможно изменение "степени параноидальности" антивирусных и других защитных программ при получении информации об опасности. Чем это будет отличаться от эмоций? Отсутствием осознания? Но и человек не всегда осознает, как выглядит. Особенно, когда влюбляется... или дискутирует об ИИ. Кроме того, осознание в компьютере есть, любой log - это оно; особенно, если система его использует.

Что касается самосознания, то люди учат людей, не зная, как работает мозг, и иногда учат успешно. Мы не понимаем, как ИИ пишет стихи, успешно имитируя стиль великих поэтов. Не вполне понимаем, как ИИ доказывает математические теоремы (Брайан Дэвис "Куда движется математика?")

https://elementy.ru/nauchno-populyarnaya_biblioteka/164681/

и как строит физические модели (Сергей Попов "Маглы в мире андроидов"),

https://elementy.ru/nauchno-populyarnaya_biblioteka/434304/

он же "Грядут перемены"

https://www.trv-science.ru/2023/06/mirovuyu-nauku-zhdut-peremeny/

Это является психологической проблемой для человека, но придется привыкнуть. С другой стороны, программа Watson уже знает, что она что-то знает. Она сравнивает и ранжирует алгоритмы - что это, как не самосознание? Причем в ней есть блок WatsonPaths, который показывает человеку пути, по которым программа шла к ответу. В результате эта программа стала учить студентов-медиков, как идти к диагнозу.

Но невозможность понять, как работает ИИ, то есть нечто, созданное нами самими, может серьезно влиять на наше к нему отношение и способность к трезвым оценкам и суждениям. Впрочем, наши дети тоже созданы нами, но всегда ли мы их понимаем? И тем более - понимаем ли мы, как они приходят к тем или иным выводам? И не влияет ли это непонимание на наше к ним отношение? Размышление о ИИ вполне может привести к улучшению пониманию себя.

Некоторые авторы вопрошают, понимала ли программа, что читала и слышала? Если мы хотим не просто поговорить с приятными людьми, а что-то понять, то нужно дать определение "понимания", причем допускающее экспериментальную проверку, измерение. Пусть, например, понимание - это успешное определение, в каком смысле употреблено в тексте то или иное многозначное слово. А также установление связей новой информации с уже имеющейся, встраивание нового знания в свою систему знаний. Понимание при общении, это определение субъективного смысла того или иного слова, для данного собеседника и в конкретной ситуации, и опять же, встраивание. Если принять такое (довольно жесткое) определение, то да, ИИ это может.

Конечно, вся соответствующая информация должна накапливаться. Человеку для этого нужно вырасти в рамках конкретной культуры и накопить соответствующие знания, но может помочь и целенаправленное изучение соответствующей культуры. Аналогичный процесс реализован и для компьютеров, только идет он быстрее. Идея эволюционирующего социума ИИ в фантастике есть - Грег Иган "Кристальные ночи"

https://royallib.com/book/igan_greg/_kristalnie_nochi.html

Другой (более жесткий) вариант определения наличия самосознания, это наличие рефлексии, замечание собственных ошибок и вообще особенностей мышления. И далее - использование рефлексии, то есть внесение корректив в мыслительную деятельность. Предусмотреть в программах ИИ такую возможность не сложно, вопрос в том, будет ли он ею пользоваться, и как он к ней придет. То есть подскажет ему это человек или другой ИИ, или он сам наткнется на это в процессе своей работы и ее оптимизации. В зависимости от того, какое определение сознанию мы дадим, момент его возникновения будет разным. Или, что было бы правильнее, мы ввели бы разные уровни сознания. Например, если определить самосознание как наличие "второй сигнальной системы", то проходят все люди и по крайней мере высшие обезьяны, если определить более жестко, по наличию рефлексии, то и люди проходят не все.

Психология и юмор

Что касается именно роботов, то некоторые авторы считают, что человекоподобие будет вызывать у людей отторжение. Судя по популярности секс-кукол, это не так. Мне кажется, отторжение связано просто с тем, что некоторые люди боятся конкуренции. Выражается это в наделении робота с ИИ ущербной человеческой психологией - В.Пелевин "S.N.U.F.F"

http://flibusta.is/b/280709

Опасности можно ожидать от ИИ, если он заимствует определенную человеческую психологию. Например, это возможно, как результат воспитания конкретного ИИ человеком с дефектом в психологии, который передается ИИ - Станислав Лем, "Ананке"

http://www.serann.ru/text/ananke-8923

Другой вариант - изучение ИИ истории людей и выбор зла; этого можно избежать, поставив критерием со знаком минус количество жертв. Дабы ИИ не вздумал устроить текущую гекатомбу ради будущего светлого царства, как это делали и делают некоторые люди, или просто ради того, чтобы войти в историю. Разумеется, здесь велика роль людей - его создателей и собеседников; и это опять же, проблема ЕИ.

Наверное, возможна эволюция системы ИИ, похожая на эволюцию людей, и выбор конкретным ИИ зла. Рецепт тот же, что в предыдущем случае, и он не оригинален. Причем ИИ, знающий историю, при правильном базовом критерии не сделает многих ошибок, которые сделали люди - потому, что будет лучше видеть последствия. Я надеюсь, что многие политики, посмотрев на то, что получилось, пожалели бы о содеянном.

Часть психологии - юмор. Может ли он быть у ИИ? Мне кажется, что видов юмора много, но два - и, наверное, самые частые, - компьютеру наверняка доступны. Это юмор ассоциаций: большая доля шуток основана на созвучиях, на применении слов не в том смысле, в котором они обычно применяются и т. п. В институтские времена мы увлекались юмором, построенным именно на формальных ассоциациях, и называли его не как-нибудь, а "системно-программистский юмор"! Другой вид юмора, доступного ИИ - юмор нелепостей и ошибок, "комедия положений". А вот классификация, устройство, генерация и понимание ЕИ разных видов юмора - это интересная проблема. На ее сложность указывает то, что в некоторых случаях при слушании того, что говорят некоторые ЕИ, возникает непонимание и мысль "он сошел с ума или валяет дурака?"

Сложная жизнь ИИ

Сложности, которые ИИ создает "всему прогрессивному человечеству" - популярная тема. Попул читает, ничего не понимает, пугается, неинвазивно хватается за сердце, принимает самое

1 ... 47 48 49 50 51 52 53 54 55 ... 72
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?