Шрифт:
Интервал:
Закладка:
Несколько упрощая, можно утверждать следующее.
Индустриальная практика исходила из того, что система должна выполнять свои функции эффективно. Поэтому любые человеческие действия, направленные на повышение эффективности системы, считались допустимыми, если они не противоречили профессиональному здравому смыслу. В спорных случаях учитывалось мнение «старших братьев» – опытных моряков, летчиков, диспетчеров и т. д.
Современная постиндустриальная практика полагает, что система должна выполнять свои функции безопасно. Любые человеческие действия, которые содержат в себе риск развития аварийной ситуации, считаются недопустимыми, даже если альтернатива противоречит логике, здравому смыслу и соображениям пользы. В спорных случаях действует принцип: опасно все, безопасность чего не доказана.
Этот подход, применяющийся на всех стадиях создания и функционирования системы, является одним из механизмов технологического барьерного торможения.
Начнем с простого примера. Понятно, что компьютер и Интернет позволяют бухгалтерам, экономистам, налоговикам, чиновникам экономить массу времени. Но в постиндустриальной действительности внедрение в делопроизводство компьютеров непременно сопровождается резким возрастанием требуемых объемов отчетности. В результате, несмотря на создание высокоэффективной системы информационного оборота, скорость этого оборота уменьшилась, а уровень загрузки специалистов возрос. Это и есть «парадокс бухгалтера».
В технике – все то же самое, только гораздо хуже. Современный самолет создается в шесть – десять раз медленнее, нежели его прототип в 1960-е годы и, как уже говорилось, адекватного роста эксплутационных характеристик при этом не наблюдается, в том числе – ив отношении реальной безопасности. Но требований к безопасности стало неизмеримо больше, и всем этим требованиям проектируемый самолет должен удовлетворять. То есть современный «долгострой» возникает вследствие необходимости учитывать все большее и большее число виртуальных обременений.
В теории постиндустриальная техническая система способна противостоять самым невероятным вызовам[14]. Слово «невероятный» здесь ключевое: система проектируется безопасной в отношении угроз, которые в реальной жизни не встречаются и встретиться не могут. Понятно, что таких угроз можно придумать сколько угодно. Необходимость парировать их «съедает» все возможности, предоставляемые современными компьютерами, информационными сетями, практикой международного аутсорсинга, автоматическими системами проектирования, математическим моделированием.
Фантаст: Это исследовалось у 77. Вале в «Гибели 31-го отдела». Тут дело не в гнусных компьютерах, добавивших нам возможностей по производству отчетов, а в том, что людей надо чем-то занимать, а в период прогрессирующей автоматизации они не нужны…
Романтик: Отлично, и пусть, значится, друг друга контролируют, проверяют и т. д. Все деятельность?
Фантаст: Ну, примерно так… имитация деятельности налицо, и все заняты.
Романтик: А занять их развитием?
Фантаст: Фантастика у нас в другом отделе…
Романтик: Но есть же сферы мышления, философии, изменения в принципах, подходах и пределах, по мне, так пусть будет много автоматов, много ответственных инженеров, которые этими автоматами командуют, зная законы больших систем, и, в общем, те, кто могут в крайнем случае взять ручное управление… ну и люди, которым открыта дорога к вершинам человеческого знания и культуры…
Фантаст: Тебя не нашли санитары, я понял, я не выдам… пойди, предложи менеджеру отстать от инженера, лишиться статуса в финансовом пузыре и заняться философией за пайку…
Различный подход к безопасности порождает совершенно разные механизмы развития катастрофических ситуаций в индустриальном и постиндустриальном (барьерном) мире.
Основной причиной индустриальных катастроф является «человеческая ошибка», причем речь идет о грубых, непростительных, недопустимых промахах. На уровне:
– Где рядовой Джонс?
– Последний раз я его видел, когда он закурил на посту у порохового склада, сэр.
– Но это же последнее, что он мог сделать!
– Так и случилось, сэр.
На втором месте стоят всевозможные «отказы техники». На третьем – погодные условия и другие «непреодолимые силы природы». Достаточно велика доля «невыясненных причин». На последнем месте – «преступный умысел». Индустриальная техническая система считалась тем лучше, чем больше было отношение «человеческой ошибки» к «отказам техники».
Понятно, что со временем доля «непреодолимых сил природы» и «невыясненных причин» падала – это и называется техническим прогрессом в обеспечении безопасности.
С середины 1970-х годов профили катастрофы начали ощутимо меняться. Во-первых, стала ощутимо расти доля катастроф, вызванных наличием «преступного умысла». Речь шла о терроризме, военных действиях, убийствах и самоубийствах – иногда в довольно странных сочетаниях:
9 февраля 1982 года «DC-8» авиакомпании JAL влетел на мелководье после борьбы с психически ненормальным пилотом. Командир, у которого были проблемы с психикой, включил реверс двигателей, в то время как второй пилот и бортинженер пытались ему помешать.
7 декабря 1987 года уволенный сотрудник компании USAir Дэвид Берк, оставив друзьям предсмертную записку, застрелил обоих пилотов самолета British Aerospace «ВАе-146-200». Самолет вошел в пике и разбился, похоронив под обломками 43 человека.
19 декабря 1997 года «Boeing В-737-300» исчез с экранов радаров и вскоре после этого упал в реку Муси. Почти новый самолет, летевший в крейсерском полете при хорошей погоде с опытным экипажем, внезапно сошел с курса и на большой скорости врезался в землю. Перед столкновением с поверхностью от самолета отделилось правое крыло и части руля поворота. Наиболее вероятной считается версия самоубийства командира экипажа; последний испытывал финансовые трудности и при этом должен был быть вскоре уволен.