
Право на ошибку — 2. Оговорки
После публикации первой части я получил вот такой комментарий. Привожу его почти целиком, потому что он точен и важен:
Дурак из статьи уяснит только одно: ошибаться не страшно. И вновь и вновь будет повторять любимую отговорку безответственных раздолбаев: «не ошибается тот, кто ничего не делает». Ошибки допустимы в инженерных изысканиях, поиске решения, но не допустимы в тех областях, которые требуют простого внимания и ответственности за свои действия. Я 14 марта лечу в отпуск, не хочу, чтобы авиадиспетчер сделал неправильные выводы из этой статьи.
Он прав. Не во всём, но в главном — прав. И я обязан это разобрать.
Ошибка ошибке рознь
В первой части я говорил о страхе ошибки как о тормозе обучения. Это правда, но не вся. Дело в том что слово «ошибка» может описывать принципиально разные вещи, и сваливать их в одну кучу — само по себе ошибка.
Эми Эдмондсон, профессор Гарвардской школы бизнеса и автор книги Right Kind of Wrong (2023), делит ошибки на три категории:
- Простые ошибки — результат невнимательности в знакомой ситуации. Сотрудник Citibank случайно перевёл 900 миллионов долларов вместо 8 миллионов. Оператор Therac-25 ввёл команду слишком быстро, и пациент получил смертельную дозу радиации. Тут нечему учиться. Тут нужно было просто не ошибаться.
- Сложные ошибки — результат совпадения нескольких факторов, каждый из которых по отдельности безобиден. Катастрофа «Челленджера». Аварии Boeing 737 MAX. Чернобыль. Ни один человек не виноват целиком, но каждый внёс свой вклад.
- Умные ошибки — результат осознанного эксперимента на новой территории. Эдисон и лампочка. Дайсон и пылесос. WD-40 и тридцать девять неработающих формул.
Эдмондсон говорит прямо: «Я не согласна с мантрой „fail fast, fail often". Вместо этого нужно ошибаться умно». Только третья категория — умные ошибки — ведёт к обучению. Первые две нужно предотвращать.
Люди не учатся на провалах
В 2019 году Лорен Эскрейс-Уинклер и Айелет Фишбах из Чикагского университета опубликовали исследование с красноречивым названием: «Неспособность учиться на неудачах — величайшая из неудач». Пять экспериментов, 1 674 участника. Результат: люди, получившие обратную связь о провале, усвоили меньше, чем те, кому сообщили об успехе.
Почему? Потому что неудача бьёт по эго. Человек не анализирует ошибку, он защищается от неё. Отворачивается. Вытесняет. Находит виноватых. При этом участники прекрасно учились на чужих провалах. Когда эго не задействовано, механизм работает нормально. Проблема не в информации, а в том, что она ранит, делает больно.
Это перекликается с тем, что обнаружила Кэрол Двек: людям с установкой на данность показывали их ошибки, и мозг не проявлял активности обработки. Они буквально отказывались смотреть на свои промахи. Не из упрямства, а из самозащиты.
А в 2015 году Двек забила тревогу по поводу того, как исказили её же теорию. Концепцию «установки на рост» превратили в пустую мантру: «Молодец, ты старался!» — говорили ребёнку, который ничему не научился. Двек назвала это «ложной установкой на рост» и написала: «Похвала за усилия стала утешительным призом для детей, которые не учились. То есть именно те ученики, которым больше всего нужно было развивать способности, вместо этого получали похвалу за неэффективные усилия». Хуже того — учителя стали обвинять детей в неправильном мышлении, вместо того чтобы менять свои методы.
Выученная беспомощность: когда ошибки ломают
В 1967 году Мартин Селигман провёл в Пенсильванском университете эксперимент, который стал классикой психологии. В первой фазе три группы собак помещали в упряжь. Первая группа — контрольная, с ней ничего не делали. Вторая получала удары током, но могла прекратить их, нажав на панель. Третья получала точно такие же удары, но их панель не работала — что бы собака ни делала, ток не прекращался.
Во второй фазе собак помещали в ящик с двумя отсеками, разделёнными невысокой перегородкой. Пол в одном отсеке бил током. Чтобы спастись, достаточно было перепрыгнуть на другую сторону. Собаки из первой и второй групп быстро это понимали и прыгали. Собаки из третьей группы — нет. Они ложились на пол и скулили, даже не пытаясь убежать.
Селигман назвал это «выученной беспомощностью»: если организм раз за разом сталкивается с неконтролируемым провалом, он перестаёт пытаться даже когда ситуация меняется. Современная нейронаука уточнила механизм: пассивность — это не приобретённая реакция, а реакция по умолчанию. Контроль — вот что нужно учиться ощущать. А повторяющийся неконтролируемый провал эту способность разрушает.
Это именно то, о чём говорил автор комментатория. Есть люди, для которых цепочка неудач — не лестница наверх, а яма. Чем больше ошибок, тем глубже яма. И никакие мотивационные цитаты про Эдисона из неё не вытащат.
«Fail fast» — красивая ложь
Силиконовая долина превратила провал в добродетель. «Fail fast, fail often» — звучит дерзко и свободолюбиво. Проблема в том, что это не подтверждается данными.
Фрэнсис Грин, профессор предпринимательства Эдинбургского университета, изучил 8 400 новых предприятий и обнаружил: предприниматели, которые ранее провалились, с большей вероятностью провалятся снова и с большей вероятностью обанкротятся. Они не становятся мудрее. Исследование Гарвардской школы бизнеса подтвердило: ранее провалившиеся предприниматели имели не больше шансов на успех, чем новички.
Марк Сустер, управляющий партнёр Upfront Ventures, написал об этом без экивоков: «Скажите это человеку, который вложил в вас 50 000 долларов из своих честно заработанных денег и доверил вам попытаться сделать лучшее, на что вы способны. „Быстро провалиться" значит проявить неуважение к клиентам, которые вам доверились».
Нормализация отклонений: как мелкие ошибки становятся катастрофами
28 января 1986 года шаттл «Челленджер» взорвался через 73 секунды после старта. Погибли семь человек. Инженеры компании Morton Thiokol предупреждали: при низких температурах уплотнительные кольца теряют герметичность. Руководство NASA проигнорировало предупреждение.
Но это не было разовым решением. Социолог Дайан Воэн из Колумбийского университета, изучив катастрофу для книги The Challenger Launch Decision (1996), ввела термин «нормализация отклонений»: процесс, при котором отступление от нормы постепенно становится нормой — потому что каждый раз обходилось без последствий. Признаки износа колец фиксировались в предыдущих полётах. Каждый раз их переинтерпретировали как допустимый риск. Воэн пишет: «Наблюдая проблему раз за разом без последствий, они пришли к тому, что полёт с этим дефектом стал нормальным и приемлемым».
В 2003 году, через 17 лет, шаттл «Колумбия» разрушился при входе в атмосферу. Снова семь погибших. Снова проигнорированные предупреждения. Воэн вошла в комиссию по расследованию — и обнаружила тот же механизм.
Джеймс Ризон, профессор Манчестерского университета, описал это через модель швейцарского сыра: система безопасности — это стопка «ломтиков», каждый с дырками. Авария происходит, когда дырки совпадают. Мелкие ошибки — это дырки. Терпимость к ним — это гарантия того, что однажды они выстроятся в линию.
250 000 смертей в год
В 2016 году исследователи из Университета Джонса Хопкинса Мартин Макари и Майкл Дэниел подсчитали: более 250 000 человек в год умирают в США от медицинских ошибок. Это третья по значимости причина смерти после болезней сердца и рака. Десять процентов всех смертей — врачебные ошибки.
Хирург Атул Гаванде из Гарварда разделил эти ошибки на две категории: ошибки незнания (мы не знали, как правильно) и ошибки небрежности (мы знали, но не сделали). Исследования показывают: как минимум половина смертей и серьёзных осложнений предотвратима. Знания есть. Шаги пропускаются.
Решение оказалось унизительно простым. В 2009 году Гаванде и его коллеги внедрили в восьми больницах мира хирургический чек-лист из 19 пунктов — три проверки: перед наркозом, перед разрезом, перед выходом из операционной. Результат: смертность упала на 47 %, осложнения — на 36 %. Не новая технология. Не новое лекарство. Бумажка с галочками, которая не давала пропустить очевидное.
Тут не нужна философия «учись на ошибках». Тут нужен чек-лист и дисциплина.
Therac-25: шесть жертв терпимости к сбоям
Между 1985 и 1987 годами аппарат лучевой терапии Therac-25 облучил шестерых пациентов дозами, в сотни раз превышающими допустимые. Это самая страшная серия радиационных аварий в 35-летней истории медицинских ускорителей.
В июне 1985 года пациентка Кэти Ярбро получила 15 000–20 000 рад вместо 200 (1 000 рад может быть смертельной дозой). В марте 1986 года в Тайлере, штат Техас, пациент скончался через пять месяцев после облучения. В апреле 1986 года Вердон Кидд стал первым человеком, погибшим от передозировки радиации при лечении.
Что произошло? Предыдущие модели — Therac-6 и Therac-20 — имели аппаратные блокировки безопасности. В Therac-25 их убрали, заменив программными. Когда операторы сообщали о сбоях, производитель (AECL) уверял: передозировка невозможна. Компания «настаивала, что продукт безопасен, не проводила тщательного расследования и не делилась информацией о проблемах с операторами и регуляторами».
Каждый отдельный сбой выглядел мелочью. Вместе они убили людей. Это не история про обучение на ошибках. Это история про то, как терпимость к «мелким» ошибкам превращается в преступную халатность.
Boeing 737 MAX: 346 жизней
29 октября 2018 года — крушение Lion Air, 189 погибших. 10 марта 2019 года — крушение Ethiopian Airlines, 157 погибших. 346 человек за пять месяцев.
Система MCAS, призванная компенсировать нестабильность из-за увеличенных двигателей, опиралась на один датчик вместо дублирующих. Инженеры Boeing знали о проблеме до катастроф. В 2016 году FAA по запросу Boeing убрало упоминание MCAS из руководства для пилотов. В декабре 2018 года — между двумя катастрофами — FAA внутренне спрогнозировало, что без доработки системы возможны ещё 15 аварий.
Boeing заплатил 243,6 миллиона долларов штрафов, 1,77 миллиарда — авиакомпаниям, 500 миллионов — семьям погибших. Но 346 человек уже не вернуть.
Чернобыль: цена молчания
Тест, который привёл к аварии 26 апреля 1986 года, проваливался трижды — в 1982, 1984 и 1985 годах. В 1986-м его провели снова, с наспех изменённой процедурой, не согласованной ни с главным конструктором реактора, ни с научным руководителем. Операторы вывели большинство управляющих стержней в нарушение регламента. Отключили системы аварийной защиты.
Но ключевой фактор — не действия операторов в ту ночь, а система, в которой они работали. Авторитарная культура советского управления порождала страх, подчинение и наказание за ошибки. Открытое обсуждение проблем подавлялось. Информация о дефектах реактора не распространялась. Люди не сообщали о нарушениях, потому что за нарушения карали. В итоге нарушения копились невидимо, пока не взорвались — в буквальном смысле.
Парадокс: культура, в которой ошибки карались, не предотвратила катастрофу. Она сделала катастрофу неизбежной, потому что лишила систему честной обратной связи.
Эффект Даннинга — Крюгера: те, кому больше всего нужно учиться, не способны это понять
В 1999 году Джастин Крюгер и Дэвид Даннинг провели серию экспериментов в Корнеллском университете. Участники проходили тесты на логику, грамматику и чувство юмора. Те, кто показал худшие результаты (12-й перцентиль), оценивали себя на уровне 62-го перцентиля.
Проблема не в самоуверенности. Проблема глубже: навыки, необходимые для правильного ответа, — это те же навыки, которые нужны для оценки качества ответа. Некомпетентный человек не просто ошибается. Он не способен распознать, что ошибся. А значит, не способен и извлечь из ошибки урок.
Это и есть ответ на вопрос моего комментатора. «Дурак, наступивший на грабли, сделает вывод, что нельзя наступать на грабли, и завтра наступит на мотыгу», потому что ему не хватает абстрактного мышления, чтобы обобщить принцип: не наступай на предметы с длинной ручкой, лежащие на земле. Каждая ошибка для него — отдельный случай, не связанный с предыдущим. Не потому что он упрямый, а потому что у него нет когнитивного аппарата для обобщения.
Талеб: не все системы выигрывают от ошибок
Нассим Талеб в «Антихрупкости» проводит границу, которую я недостаточно чётко провёл в первой части. Есть системы, которые усиливаются от стресса, — антихрупкие. И есть системы, которые от него разрушаются, — хрупкие.
Ключевая фраза: «Если каждая авиакатастрофа делает следующую менее вероятной, то каждый банковский крах делает следующий более вероятным». Авиация антихрупка: ошибки изолированы, расследованы, учтены. Финансовые системы хрупки: ошибки распространяются, заражают, накапливаются.
Человек — не авиационная отрасль. Человек может быть антихрупким (учиться на ошибках и становиться сильнее), а может быть хрупким (ломаться от провалов). Зависит от контекста, от ресурсов, от окружения, от самого человека. Призывать всех ошибаться без разбору всё равно что рекомендовать всем прыгать с трамплина: кто-то научится нырять, а кто-то сломает шею.
Так что делать?
Первая часть этого текста была про право на ошибку. Вторая — про ответственность за неё. Это не противоречие, это дополнение.
Различайте типы ошибок. Ошибка исследователя, который пробует новый подход, и ошибка хирурга, который забыл проверить аллергию пациента, — это разные вселенные. Первая заслуживает терпимости. Вторая — чек-листа и, если чек-лист не помог, разбирательства.
Не романтизируйте провал. «Fail fast» — лозунг, а не стратегия. За каждым Дайсоном с 5 127 прототипами стоят тысячи предпринимателей, которые провалились, не извлекли уроков и потеряли деньги — свои и чужие.
Создавайте системы, а не полагайтесь на внимательность. Человек забывчив, рассеян, устал. Это не моральный дефект — это биология. Чек-листы, дублирующие системы, принцип четырёх глаз, автоматические проверки — всё это работает лучше, чем призыв «будь внимательнее».
Учитывайте, кому вы говорите «ошибаться полезно». Человеку с развитой рефлексией и внутренним локусом контроля — да, ошибка станет уроком. Человеку в состоянии выученной беспомощности — нет, она станет ещё одним подтверждением, что пытаться бессмысленно. Контекст решает всё.
Вывод
Я написал первую часть, потому что слишком много людей боятся ошибаться, и этот страх парализует их. Это правда, и я от неё не отказываюсь.
Но мой комментатор увидел то, чего я не договорил. Право на ошибку — это не индульгенция. Это не «ошибайся сколько хочешь, всё равно научишься». Потому что научатся не все и не всегда. Исследования Эскрейс-Уинклер показывают, что провал чаще отталкивает, чем учит. Эффект Даннинга — Крюгера показывает, что некомпетентные не способны оценить свою некомпетентность. Селигман показывает, что повторяющийся провал ломает волю. А Воэн, Ризон и 346 погибших пассажиров Boeing показывают, что терпимость к «мелким» ошибкам убивает.
Право на ошибку существует, но оно не безусловно. Оно ограничено контекстом, ставками и последствиями. Ошибаться в поиске решения нормально. Ошибаться по невнимательности там, где на кону чужая жизнь, — нет. И разница между этими двумя ситуациями — это разница между обучением и катастрофой.
Авиадиспетчер, который вас ведёт, не должен «учиться на ошибках» в процессе. Он должен быть обучен до того, как сел за пульт. А система вокруг него должна быть построена так, чтобы его единичная ошибка не стала последней для кого-то из пассажиров.
Ошибайтесь там, где это уместно. И будьте безупречны там, где это необходимо. Мудрость состоит в умении отличить одно от другого.