Шрифт:
Интервал:
Закладка:
Некоторые ученые предрекали кризис контроля качества в науке еще несколько десятилетий назад, многие из них связывали возможное наступление кризиса с резким ростом объема данных и исследований. В 1960-е годы Дерек де Солла Прайс, изучавший плотные Сети, образованные связанными между собой работами, учеными и областями научного поиска, нарисовал кривую научного роста. Использованные им данные отражали широкий круг факторов от материального производства до энергии ускорителей частиц, от основания университетов до открытия новых элементов. Как и по закону Мура, в целом развитие идет вверх и вправо. Де Соллу Прайса тревожило то, что если методы научного воспроизводства не претерпят существенных изменений, то наука насытится, не сможет усваивать доступные объемы информации и совершать осмысленные действия, начнет распадаться и впадет в «маразм»(18). Спойлер: научные методы так и не изменились.
В последнее время эти опасения нашли отражение в концепции «информационного переполнения»(19). По-простому, переполнение противоположно нехватке, это бесконечный поток информации. Более того, в отличие от изобилия этот поток настолько избыточен, что мы не справляемся с его обработкой. В исследованиях экономики «переполнение» касается того, как люди расставляют приоритеты, если у них слишком мало времени, а информации слишком много. Как отмечали авторы одного из исследований, переполнение «напоминает разбор завалов или мусорной свалки»(20).
Переполнение присутствует во многих областях, и когда оно становится заметным, разрабатываются стратегии по его преодолению. Традиционно роль сортировщиков, отбирающих материалы для публикации, выполняют журналисты и редакторы, которые, как подразумевается, являются опытными специалистами, несут определенную ответственность и обладают достаточной властью. В науке переполнение проявляется в быстром росте числа журналов и статей, заявок на гранты и замещение академических должностей, объема доступной информации и исследований. Растет даже средний объем статей, поскольку исследователи перегружают свои научные работы множеством ссылок, чтобы охватить обилие данных и подкрепить полученные результаты, которые просто обязаны быть впечатляющими. В итоге теряется контроль качества: даже золотой стандарт взаимного рецензирования уже не считается достаточно объективным или отвечающим цели, так как количество статей растет, а институты увязли в гонке авторитетов. Все громче становятся призывы сделать научные публикации открытыми и доступными, что, в свою очередь, может привести к тому, что появится еще больше научных исследований(21).
Но что, если проблема переполнения не ограничивается результатами научной деятельности, а касается, в том числе, исходной информации? Как опасался де Солла Прайс, наука не поменяла намеченной траектории и продолжила составлять все более обширные и сложные базы данных. Когда в 1990 году был запущен проект по расшифровке генома человека, он считался самым большим в истории по сбору данных. Теперь же резкое снижение стоимости секвенирования ДНК привело к тому, что ежегодно появляются огромные объемы новой информации. Эти данные все быстрее растут и все шире распространяются, так что их полноценное изучение не представляется возможным(22). Большой адронный коллайдер производит слишком много данных, чтобы их даже просто сохранить, следовательно, оставляется только избранная информация. После того, как был открыт бозон Хиггса, проект критиковали за то, что вся собранная за время проекта информация оказалась больше ни на что не годной(23). Любая наука становится наукой больших данных.
Понимание этого возвращает нас к закону Мура и закону Рума. Несмотря на развитие исследовательских институтов, научных журналов и академических должностей (а также на огромные деньги, вложенные в решение проблемы), на практике результаты только ухудшаются. В 1980-е и 90-е годы комбинаторная химия в 800 раз увеличила скорость, с которой возможно синтезировать молекулы, подобные молекулам лекарств. Секвенирование ДНК ускорилось в миллиард раз по сравнению с тем, как оно проходило изначально. Базы данных последовательностей белков за двадцать пять лет выросли в 300 раз. И хотя стоимость поиска новых лекарств упала, а финансирование исследований увеличивается, количество открытий в сфере фармацевтики падает в геометрической прогрессии.
Что могло обратить закон постоянного прогресса? На этот счет существует несколько гипотез. Первая, которую принято считать наименее значимой, гласит, что все легкодоступные открытия уже сделаны, все приметные и очевидные предметы уже изучены. Только дело не в этом. Есть новые вещества, которые появились в поле зрения науки всего несколько десятилетий назад и еще не были исследованы, а их изучение могло бы расширить область научных изысканий.
Существует проблема «лучше некуда» или «лучше, чем The Beatles»: хотя новые лекарства могли бы появиться, уже существующие справляются со своими задачами так хорошо, что фактически препятствуют дальнейшим исследованиям. Действительно, зачем создавать новую группу, если The Beatles все стоˊящее уже написали? Это вариация на тему легкодоступных открытий, но с одним важным отличием. Если первая гипотеза предполагает, что больше не осталось «легкой добычи», то согласно второй – каждая достигнутая цель снижает ценность еще недостигнутой цели. Для большинства отраслей дело обстоит наоборот: относительно дешевый процесс открытой добычи или сжигания угля делает более ценным то, что осталось в недрах, следовательно, привлекает финансирование на разработку залежей. В фармацевтике, напротив, попытка превзойти существующие дженерики только повышает стоимость клинических испытаний, и становится все труднее убедить врачей выписывать новые препараты, поскольку они уже знакомы со старыми.
Прочие проблемы разработки новых лекарств более системные и менее понятные. Некоторые считают, что бездумные траты фармацевтических компаний, опьяненных законом Мура, привели в действие закон Рума. Но большинство исследовательских институтов, как и в других отраслях, вложили свои средства в новейшие технологии и методы. Если это не решило проблему, значит, дело в чем-то еще.
Теория «осторожного регулятора», учитывающая более долгосрочную перспективу, видит проблему в том, что общество все менее терпимо к рискованным клиническим исходам. С 1950-х годов, времен золотого века открытия лекарств, количество нормативных актов, регулирующих испытания и выпуск препаратов, увеличилось, и небезосновательно. В прошлом клинические испытания часто сопровождались сильнейшими побочными эффектами, и когда на рынок поступали плохо протестированные лекарства, происходило ужасное. Лучшим – или, вернее, наихудшим – примером этого является препарат талидомид, разработанный в 1950-х годах для лечения тревожности и тошноты, но, как выяснилось, оказавший ужасающие последствия на младенцев, чьим матерям его прописывали для борьбы с утренним недомоганием. Впоследствии правила в отношении лекарств были ужесточены, что сделало клинические испытания более строгими и на самом деле улучшило результаты. Согласно принятой в США в 1962 году поправке в отношении эффективности лекарственных средств, необходимо было доказать, что новые лекарства не только безопасны, но и действенны, то есть оказывают заявленный производителем эффект, – ранее законом это не регламентировалось. Мало