Какие уроки мы должны извлечь из трагедии с двумя авиакатастрофами Boeing?

Какие уроки мы должны извлечь из трагедии с двумя авиакатастрофами Boeing?

Случай с двумя авиакатастрофами самолетов Boeing 737 MAX с разницей менее шести месяцев в 2018 и 2019 годах связан с тремя крупными ошибками руководства, которые заслуживают того, чтобы их усвоить. Все менеджеры могут вынести из них эффективный урок. Эта история была представлена в недавнем выпуске документального фильма Netflix «Падение: Дело против Боинга».

Все люди требуют 100% безопасности от авиакомпаний, а также практически от каждой организации. Поэтому никогда не позволяйте своей фокусировке на зарабатывании денег стать фатальной ошибкой!

Однако любые обещания 100%-й безопасности — утопия. Мы можем приблизиться к 100%, но нет способа гарантировать, что несчастных случаев со смертельным исходом никогда не произойдет. На практике ответственность заключается в двух разных действиях:

1. Инвестируйте время и усилия в создание защитных механизмов. Мы в Теории ограничений (ТОС) называем их «буферами», поэтому, даже если что-то пойдет не так, катастрофы не произойдет. Все производители самолетов и все авиакомпании полностью осознают такую необходимость. Они включают механизмы защиты и очень подробные процедуры безопасности в повседневную жизнь своих организаций. Из-за множества процедур безопасности любое крушение самолета является результатом сочетания нескольких событий, которые идут не так, как надо, и поэтому происходит очень редко. Тем не менее, иногда случаются сбои.

2. Если есть сигнал о том, что произошло что-то, чего не должно было произойти, то должен быть проведен полный процесс обучения, чтобы определить действующую причину и, исходя из этого, определить ошибочную парадигму, которая позволила действующей причине произойти. Это только первая часть обучения. Далее следует вывод о том, как исправить ошибочную парадигму, не вызывая серьезных негативных последствий. Авиакомпании усвоили культуру расследования каждого сигнала о том, что что-то пошло не так. Тем не менее, такой процесс можно и нужно усовершенствовать.

Я разработал структурированный процесс обучения на одном событии, который теперь называется «Систематическое обучение на важных неожиданных событиях».

Вернемся к Boeing. Я, по крайней мере, не считаю правильным обвинять Boeing в том, что привело к крушению индонезийского самолета 29 октября 2018 года. Кажется, все ошибочные парадигмы легко распознать, но это не так. Люди не могут избавиться от всех своих ошибочных убеждений. Но наш долг — выявить порочную парадигму, как только мы увидим сигнал, указывающий на нее. Затем нам нужно исправить ошибочное убеждение, чтобы та же ошибка не повторилась в будущем.

Общая цель фильма, как и всегда в большинстве общественных и медийных расследований, состоит в том, чтобы найти «виновную сторону, которая несет ответственность за определенное количество смертей и прочий ущерб». Высшее руководство Boeing в то время было легкой мишенью, учитывая огромное количество (189) жертв. Однако обвинение высшего руководства в «жадности» не предотвратит никаких проблем с безопасностью в будущем. Я ожидаю, что руководство компаний всегда будет стремиться зарабатывать больше денег сейчас, а также в будущем. Однако такая цель должна включать в себя несколько необходимых условий, и отказ от риска крупной катастрофы является одним из них. Стремление к очень амбициозным коротким срокам разработки и запуска нового самолета без обязательного переобучения пилотов, которые работают с текущими моделями, являются законными управленческими целями. Недостаток не в жадности, а в неспособности увидеть, что давление может привести к срезанию углов и не позволит сотрудникам заявить о наличии проблемы. Разрешение конфликта между амбициозными бизнес-целями и решением всех вопросов безопасности — это достойная задача, которую необходимо решить.

Обвинение — естественное следствие того, что что-то пошло не так. Это результат широко распространенной ошибочной парадигмы, подталкивающей хороших людей к сокрытию фактов, которые могут привести к их причастности к крайне нежелательным событиям. Страх состоит в том, что их объявят виновными, и их карьере придет конец. Поэтому они делают все возможное, чтобы не допустить раскрытия ошибочности своей парадигмы. То есть проблема заключается в том, что из-за их страха и молчания другие люди продолжают использовать эту ошибочную парадигму!

Давайте посмотрим, какие критически ошибочные парадигмы вызвали крах самолета в Индонезии. В общем, к крушению индонезийского самолета привела комбинация двух разных проблем. Во-первых, поврежденный датчик отправлял неверные данные в критически важный новый автоматический программный модуль под названием MCAS (система предупреждения сваливания, разработанная для решения проблемы сваливания при низкой скорости и слишком задранном носе, которая автоматически «подруливала», опуская нос самолета вниз). Имел место серьезный технический просчет: разработчики не учли вариант, что поврежденный датчик MCAS может привести к аварии. Датчики находятся на корпусе самолета, поэтому удар какого-либо предмета или птицы может повредить датчик, а это делает систему MCAS смертельно опасной.

Вторая причина, на этот раз управленческая, — Boeing решил не информировать пилотов о новой автоматической системе. В результате индонезийские пилоты не могли понять, почему самолет не слушается руля и падает. Поскольку датчик вышел из строя, появилось множество сигналов тревоги, сопровождаемых непонятной информацией. Чтобы исправить эту ситуацию, пилотам достаточно было отключить MCAS, но они ничего не знали о ней и о том, как она работает.

Причиной не сообщать пилотам о модуле MCAS было опасение, что это приведет к обязательному переобучению пилотов, что ограничит продажи нового самолета. Основной управленческой ошибкой было непонимание того, что отсутствие этих знаний может привести к катастрофе. Мне кажется разумным, что руководство постаралось придумать новый самолет с улучшенными характеристиками и без необходимости специальной подготовки пилотов. Проблема заключалась в том, что незнание о существовании модуля MCAS могло привести к катастрофе.

Как только произошла первая авария и выявилась технико-эксплуатационная причина, произошла вторая управленческая ошибка. Почти естественно после такой катастрофы придумать вполне возможную причину, которая наносит наименьший ущерб руководству. На первый раз было легко заявить, что индонезийский пилот был некомпетентен. Это уродливая, но широко распространенная парадигма перекладывания вины на кого-то другого. Однако факты, исходящие из черного ящика, в конечном итоге рассказали правду. Роль MCAS в причине крушения была четко определена, так же, как и роль пилотов, не имевших никакой информации о ней.

Безопасный ответ на аварию должен был заключаться в отказе от эксплуатации всех самолетов 737 MAX до тех пор, пока не будет готово исправление для MCAS и не будет доказана его безопасность. Моя гипотеза заключается в том, что руководство Boeing испугалось быть обвиненным в огромных убытках из-за простоя всех самолетов 737 MAX. Публичное заявление высшего руководства Boeing прозвучало так: «Все под контролем», исправление программного обеспечения будет реализовано через шесть недель, поэтому нет необходимости приземлять все самолеты 737 MAX. Вероятность того, что тот же недостаток MCAS приведет к еще одной катастрофе, была проигнорирована. Это можно было объяснить только тем, что высшее руководство испытывало огромный страх за свою карьеру. Вряд ли причина заключалась в том, чтобы попробовать уменьшить расходы на компенсацию пострадавшим, по-прежнему возлагая ответственность на пилотов. Я предполагаю, что топ-менеджеры Боинга не были идиотами. Значит, что-то еще подтолкнуло их рискнуть еще одной аварией.

Обнаружение технической проблемы вынудило Boeing раскрыть функциональность MCAS всем авиакомпаниям и профсоюзам пилотов. Они включили в инструкцию информацию: когда MCAS выходит из строя, система должна быть отключена. В то же время они сообщили, что программное решение проблемы будет готово через шесть недель. Это было воспринято с большим скептицизмом. Однако Boeing посчитал, что этих двух действий будет достаточно, и официально отказался от приземления самолетов 737 Max. На прямой вопрос члена Allied Pilot Association во время визита группы менеджеров (и лоббистов) Boeing в профсоюз был получен невероятный ответ: не было официально установлено, что MCAS была единственной причиной крушения! Другими словами, пока нет полных формальных доказательств, мы будем вести дела как обычно.

На самом деле, FAA, Федеральное авиационное управление, уже тогда выпустило отчет, в котором оценивалось, что без исправления MCAS подобная авария будет происходить каждые два года! Это означает, вероятность того, что вторая катастрофа может произойти в течение текущего месяца, составляет 2-4%! Как вышло, что FAA разрешило летать всем Боингам? Сделали ли они анализ своего поведения, когда через пять месяцев произошла вторая авария, а система MCAS так и не была исправлена?

Еще один факт, упомянутый в фильме, заключается в том, что как только датчики выходят из строя и MCAS направляет самолет вниз, пилоты должны отключить систему в течение 10 секунд, иначе самолет обречен! Интересно, обсуждалось ли это признание в ходе расследования первой катастрофы?
Когда произошла вторая катастрофа, высшее руководство Boeing впало в панику, не понимая, почему доверие авиакомпаний и общественности к Boeing было утрачено. Короче говоря, главные уроки катастрофы не были усвоены! Они по-прежнему не хотели приземлять самолеты, но теперь авиакомпании сделали это по своей инициативе одна за другой. Было начато публичное расследование, и с точки зрения руководства Boeing разразился ад.

Ключевой момент для всех управленческих команд:

Ошибки неизбежны, даже если вы прилагаете немало усилий, чтобы свести их к минимуму. Но недопустимо не исправлять ошибочные парадигмы, вызывающие ошибки.

Если этот вывод будет принят, то должен применяться систематический метод обучения на неожиданных событиях с целью «никогда не повторять одну и ту же ошибку». Я не могу гарантировать, что повторений никогда не случится, но большинства повторений можно избежать. На самом деле можно избежать гораздо большего, поскольку после того как текущая ошибочная парадигма будет признана и исправлена, последствия могут быть очень широкими. Если ошибочная парадигма обнаруживается благодаря сигналу, который, по счастливой случайности, не является катастрофическим, но достаточно неожиданным, чтобы инициировать обучение, то огромные катастрофические последствия предотвращаются, и организация становится намного более безопасной.

Всем важно определять и исправить ошибочные парадигмы, основываясь на неожиданных сигналах. Также возможно учиться на ошибках других людей или организаций. Я надеюсь, что опасность парадигмы «отказываться признать уже очевидную проблему и пытаться ее скрыть» теперь хорошо понимается не только Boeing, но и высшем руководством любой организации. Я надеюсь, что моя статья поможет разработать надлежащие процедуры для извлечения правильных уроков из таких событий.

Блог Эли Шрагенхайма

Высказать свое мнение можно в нашем Telegram-канале.

Прорыв

Книга в подарок

Опубликована наша книга «Прорыв. Единственный путь развития бизнеса». Это бизнес-роман о производственном предприятии, столкнувшимся с «потолком» в своем развитии. Для прорыва в развитии руководству и персоналу приходится преодолеть собственные, выстраданные на опыте, но устаревшие убеждения. Читателю предлагается пройти через этот прорыв вместе с героями. Вы увидите трудности такой трансформации, осознаете природу сопротивления изменениям и реальный путь к таким изменениям.
Подпишитесь на наш Telegram-канал и получите книгу в подарок!

Виктор Вальчук
Лидер трансформации

Уникальный онлайн-курс для руководителей, желающих понять суть управления трансформацией бизнеса, осознанно принимать точные и прорывные решения, касающиеся развития предприятия в целом, без риска неудачного завершения и потери авторитета, получить навык руководства такими революционными изменениями. Выпускники курса получат диплом о профпереподготовке.

Тренеры: В.В. Вальчук, В.Е. Краснов. Старт: 5 августа 2024 (273 часа).

ПОДРОБНЕЕ

Лучшие статьи каждую среду в нашей рассылке. Присоединяйтесь к TOCpeople!

Нажимая на кнопку «Подписаться», я принимаю условия Политики конфиденциальности.

Фото аватара

Eli Schragenheim,
CEO of Elyakim Management Systems (1992) Ltd

Давайте обсудим...