判断を誤る経営者を想定したフェール・セーフ運用思想のすすめ

先般、福島第一原発の事故は人災であるとの報告書が出ました。なぜ、”人災”が起こってしまうのか。最近のベストセラー「失敗の本質」が示しているように(といっても、まだ読んでませんが)、旧日本軍がそうであったように日本人の“エリート”の特性なのか、考えさせられることが多いテーマですけれど、今回それはちょっと置いておいてというか、そこを逆手に取って、判断を失敗することを前提にした技術を作るというのも、一つの考え方としてあり得るかもしれないと思いました。初めは、ブラックジョークだなあと思ったのですが、ふーん、意外とまじめに考える価値があるかもしれないと。半々の気持ちで書いています。

航空機を設計している方々は、フェールセーフ設計思想ということをよくご存じです。航空機事故が起こるたびに出てくる用語ですから、結構一般にもなじみのある技術用語になりました。その昔は、壊れないように作るというのが当たり前でした。ところが、壊れないようにと考えると頑丈に作る必要があり、重くなります。また、壊れないという前提で作るので、万が一壊れた場合にフォローするしくみを設計に取り入れなくなってしまいます。航空機はたくさんの事故を経験した結果、逆説的ですが、一部の部品が壊れたとしても全体としては壊れず動作する方策を取る方が、安全であることに気が付いたのです。大規模で複雑なシステムやプラントほど、いつどこが壊れるかわからない要素が増えてくるので、このフェール・セーフ設計思想が生きてくるわけです。さて、ここまでは技術の中に閉じた話としてのおさらいでした。

いま、問題になっているのは、技術に対して誠実でも謙虚でもない原発管理者や経営者が、判断を誤るか恣意的な判断をする可能性が非常に高いので、そのフェール・リスクを予め組み込んだ運用設計ができないだろうか、ということです。日本固有の現実だからこそニーズの高いユニークな技術になるんじゃないでしょうか。もしかすると、将来原発をたくさん立ててしまった途上国へも輸出できる、極めて高度な付加価値にも成りえます。米国の航空宇宙産業がフェール・セーフ設計思想を生みだしたように、日本は、原発事故を契機として、フェール・セーフ運用思想を開発するというのは、あながちジョークにはならないような気がするのですけれど。

例えばですが、地震や津波への対策というのは、さまざまな仮想的なシナリオを”想定”して、仮想的な対策を立てるということです。東電は、学会や自らの調査結果をたくさん無視してきたことが明らかにされていますが、そのようなデータが出てきたら、まずはシステムに入力することを、恣意的な判断ではなく、運用思想の原理として義務付けるのです。入力されると公開もされ、そのデータなり想定シナリオに対してどういう判断根拠でどういう対策を立てるのかを、システムが期限付きで、運用管理者に指示します。

システムは、自らを守るために、リスクを最小限にするように自律的に動くのです。リスクを最小限に自律的判断をするということは、常に停止を念頭に運用されるということです。現在の原発運用管理者が常に、稼働を前提にして運用しているのとは全く逆のポリシーで動くのです。もちろん、現在も何か異常が起こると報告する・止めるということが形式上はなされていますが、大事なときに限って、情報が隠されたり、稼働第一の原則にいつの間にか変わったりするので、悲しいかな、人間判断の運用はむしろ信頼できないわけですね。

誰か、同じようなこと考えてますよね、きっと。悲しいかな、表に出来ないだけで。