litbaza книги онлайнРазная литератураПрикладные проблемы внедрения этики искусственного интеллекта в России. Отраслевой анализ и судебная система - Евгений Михайлович Стырин

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 11 12 13 14 15 16 17 18 19 ... 26
Перейти на страницу:
квалификации людей-медиков, а также потере знаний, поскольку программы ИИ могут продолжительное время существовать на самообучении и автоматизированном поддержании своих рабочих навыков. Специалисты отмечают, что данная проблема серьезней традиционной проблемы о вытеснении людей роботами. Потеря высокотехнологичных знаний и навыков вдвойне опасна, поскольку человечество может разучиться создавать и контролировать ИИ, фактически уже инициировав его производство.

3.1. ИИ в области здравоохранения

1. Ключевой и относительно широко внедряемой технологией ИИ в сферу здравоохранения является автоматизированный сбор данных о состоянии здоровья и расчет вероятности возникновения заболеваний у пациентов. Предполагается ввести прогнозы, формируемые ИИ, в электронные медицинские карты. Согласно идее создателей данной технологии, доступ к автоматизированному расчету вероятностей заболевания должен облегчить работу лечащего врача. Также при реализации подобной технологии должна возрасти эффективность решений о назначении того или иного лечения. Считается, что с расчетом прогностических рисков заболеваний автоматизированные системы справляются намного лучше. Такой успех объясняется тем, что разрабатываемый для сферы здравоохранения ИИ формирует эмпирическую базу случаев несоизмеримо большую, чем любой врач за всю свою практику. В данных разработках также сведена к минимуму погрешность человеческой психологии. Врачи-люди, как правило, ориентируются на наиболее типовые случаи лечения (поскольку они легки и понятны в применении), они также лучше помнят случаи из недавней практики и те экстраординарные случаи, которые увенчались успешным лечением. Напротив, необычные и неудачные случаи лечения люди-врачи реже принимают во внимание. В отличие от избирательной памяти врачей-людей, программы ИИ «помнят» все случаи и не отдают психологического предпочтения одним или другим.

Кейс. Система AI Clinician, разработанная британскими учеными, на основании анализа ста тысяч историй болезней сепсисом, определила стратегию лечения пациентов с сепсисом лучше, чем врачи-люди [Strickland, 2018]. Программа работала примерно с пятьюдесятью переменными, включая детали анамнеза иных заболеваний, которыми болели пациенты в течение всей жизни, возраст, общие показатели здоровья, вредные привычки и рацион питания. Выводы по результатам использования системы были опубликованы в журнале «Nature Medicine» и вызвали большой прилив энтузиазма у врачей. Результаты исследования отчетливо показали, что искусственный интеллект предложил более достоверный прогноз, чем врачи-люди. Авторы-создатели данной программы утверждают, что подобные технологии должны стать рутиной при поиске наилучших стратегий лечения пациентов. Практикующим врачам следует включать данные автоматизированного прогноза в личные медицинские карты, чтобы оценка рисков заболеваний стала неотъемлемой частью диагностики и терапии.

В России в 2016 году советник Президента РФ Герман Клименко анонсировал, что в области медицины началась разработка первого проекта фонда Института развития интернета (URL: https://thirdopinion.ai/ru). Система ИИ «Третье мнение» должна стать аналогом наиболее крупной ИИ разработки в области здравоохранения на Западе IBM Watson. Она будет распознавать отклонения и патологии организма, анализируя данные рентгена, УЗИ, КТ, МРТ.

Кейс. В 2016 году в связи с внедрением программ ИИ, разработанных корпорацией DeepMind Health, разразился громкий скандал. Программы, разработанные данной корпорацией, были внедрены в Лондонской Королевской больнице, однако вскоре сотрудничество было прекращено. Как оказалось, практически сразу после начала работы автоматизированных систем, один отдел корпорации Google получил доступ ко всей цифровой информации больницы за последние несколько лет: записям болезней, вызовам скорой медицинской помощи, данных радиологиии т. д. Информация об этой утечке попала в прессу, и на корпорацию DeepMind Health был подан судебный иск. Согласно законодательству, данные пациентов подпадают под конфиденциальную информацию и всегда передаются в зашифрованном виде без указания имен. Однако DeepMind Health получил доступ к именам, которые при передаче данных оказались не зашифрованы. На сегодняшний день разбирательство до конца не прекращено, однако возникновение подобных инцидентов может стать кейсом, который даст толчок для разработки специальных нормативных актов, направленных на защиту персональных медицинских данных от систем ИИ.

Данная технология вызывает ряд опасений этического характера. Скептики высказываются за то, чтобы ограничить доступ к медицинской карте. Если данные оценки ИИ-рисков будут доступны потенциальным работодателям, страховым компаниям, кредитным и заемным организациям и даже будущим супругам, то они могут быть использованы не в интересах человека. Например, если прогнозы о снижении когнитивных функций сотрудника станут доступными работодателю, то человек может лишиться выгодного контракта. Также информация о возникшей частичной толерантности к опиоидам может всерьез повредить репутации человека. Любые сведения о перенесенных ранее инфекционных заболеваниях, выкидышах, абортах или то, что человек является носителем генетических мутаций, могут послужить источником нежелательных последствий. В процессе лечения личные карточки пациентов попадают в руки не только врачей, но также администраторов и многих клиницистов. В ряде случаев доступ к медицинским данным требуется по условиям сотрудничества при найме на работу или оформлении страховых контрактов [McDougall, 2019]. Утечка данных возможна в самых разных случаях, несмотря на меры предосторожности и политику конфиденциальности, которой придерживаются медицинские учреждения. Наконец, сами пациенты могут передавать сведения о себе третьим лицам или доверять им доступ к результатам анализов или обследований. Вся эта информация может попадать в открытый доступ или передаваться по месту работы, в кредитные организации, страховые компании, судебные органы, иные инстанции. Если при этом данные о здоровье будут содержать высокоточные сведения о долгосрочных прогнозах по здоровью граждан, то этическая сторона дела будет выглядеть весьма тревожной. Представим, что деловые партнеры оказываются информированными о 70 %-й вероятности смерти от инфаркта в ближайшие 5 лет у одного из потенциальных агентов сделки. Данные сведения могут быть использованы как в пользу отклонения сделки, что может расцениваться как дискриминация, или, напротив, поспешного заключения на условиях, предполагающих их невыполнение по причине смерти агента, что будет откровенным злоупотреблением. Так или иначе, высокоточные прогнозы ИИ в отношении весьма деликатных ситуаций приводят к серьезным этическим дилеммам. Также информация о 60 %-й вероятности развития заболеваний, вызывающих временную или пожизненную нетрудоспособность в ближайшие 10 лет, могут побуждать работодателей к немотивированным увольнениям сотрудников, входящих в группу риска. Долгосрочные и точные прогнозы могут всерьез влиять на решения людей в отношении друг друга. Информированность о вероятностях развития различных патологий беременности могут сказаться на решении на решения людей о замужестве и рождении детей. Очевидно, что любое раскрытие врачебной тайны или данных о состоянии здоровья граждан может приводить к дискриминации и злоупотреблениям. Работодатели, заинтересованные в эффективности своих сотрудников, будут нанимать кандидатов с минимальным риском развития болезней. Напротив, потенциальные кандидаты с определенными хроническими или врожденными заболеваниями, вероятнее всего, будут отклоняться. Также кредитные агенты или страховые компании могут принимать неблагоприятные решения в отношении лиц с ослабленным здоровьем. Такое положение дел не зависит напрямую от технологий ИИ, однако многократно усиливает эти риски, а также создает новые прецеденты и сферы распространения. Высокая тонкость прогнозов ИИ в отношении здоровья, более всесторонний мониторинг и анализ данных, а также долгосрочность

1 ... 11 12 13 14 15 16 17 18 19 ... 26
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?