Шрифт:
Интервал:
Закладка:
98
В частности, если говорить о субсидиях, в США некоторые субсидированные поставщики должны применять СППКР для проверки взаимодействий лекарств или вероятности аллергии. См., например: Health Information Technology for Clinical and Economic Health Act, 42 U.S.C. § 30033(13) (2009), где утверждается, что «квалифицированные электронные медицинские записи» должны быть наделены способностью «предоставлять помощь в принятии клинических решений»; см. также: 45 C.F.R. § 170.314 (2015); Medicare and Medicaid Programs; Electronic Health Record Incentive Program – Stage 3 and Modifications to Meaningful Use in 2015 through 2017, 80 Fed. Reg. 62761, 62838 (October 16, 2015)-
99
M. Susan Ridgely and Michael D. Greenberg, “Too Many Alerts, Too Much Liability: Sorting through the Malpractice Implications of Drug-Drug Interaction Clinical Decision Support,” St. Louis University Journal of Health Law & Policy 5, no. 2 (2012): 257, 274. Регулирующие ведомства co временем обратят внимание на «врачей с высокой степенью игнорирования предложенных рекомендаций», чтобы выяснить, в чем проблема: в СППКР или в суждении самого врача? См.: Karen С. Nanji, Sarah Р. Slight, Diane L. Seger, In-sook Cho, Julie M. Fiskio, Lisa M. Redden, Lynn A. Volk, and David W. Bates, “Overrides Of Medication-Related Clinical Decision Support Alerts in Outpatients, "Journal of American Medical Informatics Association 21, no. 3 (2014): 487–491.
100
A. Michael Froomkin, Ian Kerr, and Joelle Pineau, “When AIs Outperform Doctors: Confronting the Challenges of a Tort-Induced OverReliance on Machine Learning,” Arizona Law Review 61 (2019): 33-100.
101
В случае распознания лиц есть хорошо описанный сбой систем ИИ, которые плохо распознают лица цветных людей. См.: Joy Buolamwini, “Actionable Auditing: Coordinated Bias Disclosure Study,” MIT Civic Media Project, https://www.media.mit.edu/pro-jects/actionable-auditing-coordinated-bias-disclosure-study/over-view/. Эти сбои служат параллелью к расовым неравенствам в американском здравоохранении. См.: Dayna Bowen Matthew, Just Medicine: A Cure for Racial Inequality in American Health Care (New York: New York University Press, 2015).
102
Ziad Obermeyer, Brian Powers, Christine Vogeli, and Sendhil Mul-lainathan, “Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations,” Science 366 no. 6464 (2019): 447–453; Ruha Benjamin, “Assessing Risk, Automating Racism,” Science 366, no. 6464 (2019): 421–422. Существует много способов сократить подобные формы неравенства. См.: Frank Pasquale and Danielle Keats Citron, “Promoting Innovation while Preventing Discrimination: Policy Goals for the Scored Society,” Washington Law Review 89 (2014): 1413–1424.
103
Adewole S. Adamson and Avery Smith, “Machine Learning and Health Care Disparities in Dermatology,” JAMA Dermatology 154, no. 11 (2018): 1247. Подобная нехватка вариантов вредит также и генетическим исследованиям. См.: Alice В. Popejoy, Deborah I. Ritter, Kristy Crooks, Erin Currey, Stephanie M. Fullerton, Lucia A. Hin-dorff, Barbara Koenig, et al., “The Clinical Imperative for Inclusivity: Race, Ethnicity, and Ancestry (REA) in Genomics,” Human Mutation 39, no. 11 (2018): 1713–1720.
104
Tom Baker, The Medical Malpractice Myth (Chicago: University of Chicago Press, 2005); Alex Stein, “Toward a Theory of Medical Malpractice,” Iowa Law Review 97 (2012): 1201–1258.
105
Мередит Бруссард, Искусственный интеллект: пределы возможного (Москва: Альпина нон-фикшн, 2020), 53.
106
LeighAnne Olsen, J. Michael McGuinnis, and Dara Alsner, eds., Learning Healthcare System: Workshop Summary (Washington, DC: Institute of Medicine, 2007).
107
См., например: Eric Topol, Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again (New York: Basic Books, 2019), где выражается озабоченность «недобросовестным отбором результатов и недостаточной воспроизводимостью»; Matthew Zook, Solon Barocas, danah boyd, Kate Crawford, Emily Keller, Seeta Pena Gangadharan, Alyssa Goodman et al., “10 Simple Rules for Responsible Big Data Research,” PLoS Computational Biology 13, no. 3 (2017): Ш005399, где формулируются подобные ограничения; Danah Boyd and Kate Crawford, “Critical Questions for Big Data,” Journal of Information, Communication and Society 15 (2012): 662–679.
108
Кэролайн Криадо Перес, Невидимые женщины: почему мы живем в мире, удобном только для мужчин. Неравноправие, основанное на данных (Москва: Альпина нон-фикшн, 2020).
109
Там же, 314.
110
Jack Balkin, “The Three Laws of Robotics in the Age of Big Data,” Ohio State Law Journal 78 (2017): 1, 40.
111
Nathan Cortez, “The Mobile Health Revolution?” University of California at Davis Law Review 47 (2013): 1173–1230.
112
Wendy Wagner, “When All Else Fails: Regulating Risky Products through Tort Regulation,” Georgetown Law Journal 95 (2007): 693, 694.
113
Ibid.
114
John Villasenor, Products Liability and Driverless Cars: Issues and Guiding Principles for Legislation (Brookings Institution, 2014), https://www. brookings.edu/wp-content/uploads/2016/o6/Products_Liability_ and_Driverless_Cars.pdf.
115
Martha Т. McCluskey, “Defining the Economic Pie, Not Dividing or Maximizing It,” Critical Analysis of Law 5, no. 1 (2018): 77–98; Mariana Mazzucato, “The Value of Everything: Making and Taking in the Global Economy (New York: Hachette, 2018).
116
См., например: Tunkl v. Regents of the University of California, 383 P. 2d 441 (Cal. 1963), а также последующие судебные процессы в том же ряду.
117
Margaret Jane Radin, Boilerplate: The Fine Print, Vanishing Rights, and the Rule of Law (Princeton: Princeton University Press, 2012).
118
О переносе расходов на страховщиков писали многие комментаторы. См., например: Jacob Turner, Robot Rules: Regulating Artificial Intelligence (Cham, Switzerland: Palgrave MacMillan, 2019), 115.
119
National Academy of Sciences, Best Care at Lower Cost: The Path to Continuously Learning Health Care in America (Washington, DC: National Academies Press, 2013).
120
Frank Pasquale, “Health Information Law,” in The Oxford Handbook ofU. S.