2011年10月2日日曜日

NHK 福島の原発事故とブラックスワンについて (ナシム・タレブ氏へのインタビュー)

http://www.nhk.or.jp/bizspo-blog/200/95287.html
 原文のニュースはNHKで放送されたNassim Talebのインタビューの概要です。

 
9/14/2011 Nassim Taleb
■福島の原発事故は、ブラック・スワン的な事象ですか?
I’d like to leave the notion of Black Swan, because it’s often misused. A Black Swan for me is extremely dependent on the observer. What’s a Black Swan for the turkey is not a Black Swan for the butcher. The true message of the Black Swan is that there are some classes of probability that are not easily computable -- in which we tend to make a mistake by underestimating them. And Fukushima is part of it. Fukushima actually has exactly the two central points of my message. The first one is, of course, miscomputation of small probabilities. We humans cannot compute small probabilities -- nature can. In three billion years, you know what’s fragile and what’s not, what breaks and what doesn’t break and what has some equilibrium and what’s not. Fukushima is part of that world we created, like finance, in which we have human error deciding on this, rather than tradition and evolution deciding on risk. When evolution deals with things, it breaks the weak all the time. So, Fukushima relies on the computation of possibilities.
The classic mistake is when you compute probabilities, you tend to underestimate them for the very simple reason that if you’re uncertain about the method you’re using you tend to underestimate it.


■それって福島の原発事故に照らすとどういう意味ですか?
Fukushima ... The power company has cost savings and profits as a corporation. And the capitalistic system works beautifully when those who make the money have liabilities, because if you don't have liabilities then your incentive is to say “OK, we’re not going to make the wall big enough -- it costs money, we don't need it too big.” But if your neck is on the line you make a much stronger wall. You think of possibilities other than the ones you thought about before. It makes you a lot more careful because you have more liability.


■リスクは測ることはできますか?
No - that’s a problem; you cannot measure risk with any precision. The more remote the event, the less you can measure it. You have to be not paranoid -- think “paranoid,” multiply by two, multiply by two again when you’re talking about these remote risks.


■もう少し噛み砕いてください。
When it comes to things that we haven’t had for two billion years, you have to be extremely careful. Because no simulation will take into account all possible risks. A lot of things will come outside your model. You cannot endanger others with your models, so this model-based risk doesn’t work. There’s something I call heuristic risk -- heuristic is rules of thumb, vastly more powerful than models. The other thing is the mathematical establishment of risk management is extremely backward. They’re not good at managing risks, not good at estimating risks.
If you look at the numbers in finance, they’re horrible. People show you computations showing it’s Triple-A, it turns out to be junk. You have that. I don't want to have “expert error” killing people, so therefore you have to be extremely robust to what I call expert error, so you have to take the models, use them and be robust, saying “what if the model is wrong?” If you did this very simple mental exercise, you would have had a lot more robust buildings than you had in Fukushima, perhaps even abandoned the idea of nuclear altogether. Because, an error can be monstrous and we’re not good with these things.
But maybe if you keep the nuclear but are vastly more paranoid -- people may say an earthquake never happened before -- it’s now excused. Large, consequential events do not have a predecessor. The First World War did not have a predecessor. You had an earthquake in Kobe, saying it never happened before. The magnitude of the earthquake you had in Fukushima can be exceeded by another one -- take that into account; don't say it never happened before!


■だったら、どうしたら良いのでしょうか?
I’m not in that business. When people ask what they should do, I say this. A system that is robust. Work on building a system that is robust and don't rely on small probabilities. And make sure that you have the right incentives. Remove that bonus compensation without liability. Have liabilities -- people who deal with risk management should have liabilities.


■著書の中で“in Japanese culture, which is ill-adapted to randomness, people hate volatility, thus engaging strategies exposed to blow-ups.”どういう意味でしょうか?
You can see this with Fukushima -- I noticed the Japanese culture penalizes you for making a mistake, so if I’m ashamed for losing money or making a small mistake, my incentive would be to go into strategies in which mistakes are rare, but big. Like they happen every ten years, but are large, rather than happening every day, but small. Because you’re ashamed of it. It really hurts your entrepreneurship not to make mistakes, so I like cultures that allow you to make small mistakes, not large ones.
America is very tolerant to very small mistakes and to large mistakes. I am intolerant to large mistakes and favorable to small mistakes. And because a process of innovation goes from small mistake to small mistake. The British Industrial Revolution came from people who love to tinker and make mistakes. It’s called “bricolage” -- you play, you play, you play; it’s a process of iterative, heuristic search and you discover something simply by making small mistakes and you learn from them.


■そして?
You need to let people know that small mistakes are ok. There’s something called “fail fast” in California. That’s why you have the high-tech culture -- you know how to fail. You cannot make an omelet without breaking eggs -- if you try to, you’re cheating somewhere and one day it’s going to blow up in your face. So, it’s the same thing everywhere -- lose some money. The good thing about the Japanese culture if you describe things in the right frame then they accept it. If you have to reformulate the way you express your profits and losses -- just say “it’s ok, I made a mistake, but it’s part of the process,” taking into account a bucket of mistakes, people accept it once you frame it that way. But you cannot operate with people ashamed of making small losses.
In my book I have two kinds of payoffs -- some where you make small profits all the time and once in a while have huge blow ups, and that’s Fukushima, where it looks like it’s working fine, but you’re pushing the risks to the rear. And then another strategy where you have swings and volatility, but you don't have large blow ups.
I explain that in the new version of the Black Swan that the fear of volatility is what’s making the world fragile. Mother Nature has volatility.
To give you an example where this happens, US policy in the Middle East, Saudi Arabia, they stabilize regimes, we don't want volatility -- it’s causing risks to accumulate under the radar. I say Lebanon has a very volatile political system but no more problems because everything is in the open. In Italy, where they’ve had 60 governments since World War 1, the country is stable in spite of that volatility. Syria and Saudi Arabia, as I wrote in the Black Swan, had no political volatility. It doesn’t make them stable -- it just pushes the risks under the radar screen. Some things are more stable because they ARE volatile.


■そうしますと、日本は想定外の出来事にどう対応するべきなのでしょうか?
Do not fear volatility, fear risk of blow ups. You should learn to have some volatility.  The Romans say “fluctuate doesn’t sink.”  A little fluctuation is better than something completely artificially stabilized because many things that are artificially stabilized collapse.  So, rear of volatility in a way, is pushing us to make huge mistakes by hiding randomness under the rock.


 以下和訳です。ご笑覧ください。
 なお、タレブ氏をご存じない方の為に補足しておきますと、ブラックスワンというのは(例えばブラックマンデーのような)予測不可能でかつ影響を測る事のできなく、定期的にやって来る大きな出来事を意味する比喩表現です。(いつ来るか予測できないため、それを利用して成功するのはとても困難です。)
 彼の著作で「まぐれ」「ブラックスワン」などに出てくる用語です。

■福島の原発事故は、ブラック・スワン的な事象ですか? 
 それからいったん離れたい。みんな誤解している。
 ブラックスワンは人によってちがう。ターキーと肉屋のそれは違う。ブラックスワンというものは、容易に計算できない可能性ということだ。
だいたいみんな(ブラックスワンの可能性を)過小評価している。福島もそうだ。
福島の事で2点大事なことを言う。
1つ目は、もちろん、
可能性が低いというとこで想定してなかったという事だ。人間はめったに起きないことは考えないが、自然はそうじゃない。30億年の間に、我々は、何が弱く何がそうでないか、何が壊れ何がそうでないか、何が平穏で何がそうでないか知っている。福島は金融と同じく人間が作った。この決定について、伝統とかリスク管理が進化していなかったとかではないヒューマンエラーがあった。ゆえに福島は事故の可能性を考えていないということによる事故である。
 昔からよくあるのはこういう事だ。あなた方は、自分が安心したいから、可能性を過小評価しているということを分かっていないという事だ。
 
■それって福島の原発事故に照らすとどういう意味ですか?
福島。。。。大企業は、企業である以上費用削減と利益追求を求める。資本主義のシステムは、資金が負債を伴う時、最善である。
 なぜなら、もしあなたに負債がなければ、あなたは、「OK!我々は金がないからそんな大きな壁は作らなくていい。」というからだ。
 たが、あなたの首に紐がかかっていれば、あなたはもっと大きく耐久性のある壁を作るだろう。あなたは、もともと考えていたより酷い事態を予想するだろう。あなたに負債があるから、あなたは更に慎重に予想するのだ。
  ■リスクは測ることはできますか?
 No!それが問題なんだ。あなた方は、決してリスクを正確に計量できない。事故から時間が立つにつれ、リスクを計量できなくなる。それに拘る必要はない。自分とあまり関係ないリスクについて拘り始めると、それは等比級数的にに増殖する。

■もう少し噛み砕いてください。
 20億年の間に出会ったことが無い事にあたるとき、我々は特に注意しなくてはいけない。起こりうるすべてのリスクを想定することは不可能だからだ。
 あなた方が考えるモデルの外からそれはやってくる。あなたは、モデルの外にあるものを危険にさらすことは考えない。それゆえ、そのモデルはリスクがないモデルなのだ。私が発見的問題解決リスクと呼ぶものがある。これは、経験則のことであり、モデルと比べても非常に有意義である。
また、さらにいえることとして、数学的なリスク解析というのはとても後進的であるということだ。このやり方は、リスク管理やリスクを限定するのに役に立たない。もしあなたが金融で、これらの数字を見かけたら、
危険だから近寄らないほうがいい。
例えば、AAAの債券。これはジャンク債になる。私は、専門家のエラーによる殺人は好まない。それゆえ、あなた方には私が「エキスパートエラー」
と呼ぶものに対して敏感になってほしい。あなた方が専門家のモデルを採用する時に、(経験則を)使い、まともな神経をもって「このモデルがもし間違っていたら」と自問することだ。あなた方が、とても簡単なこの精神修練を採用したなら、福島にあったものよりももっと堅牢なものを作ったことだろう。もしかすると、原発自体をすっかり廃止したかもしれない。
なぜなら、原発はいったん事故になると、
とんでもない被害が出るため、使用する側からしてもとても不都合なリスクであるからだ。
しかし、原発を使用することに固執してしまうと、人々は、「
地震は今まで起きなかった」と言い始める。それはすでに起きてしまっているが。
巨大な、重大な出来事は、通常前例がない。第一次世界大戦は、前例がなかった。阪神大震災も前例はなかった。東北で起きた今回の地震も過去例のない規模だった。
このような、前例のない出来事を考慮するようにするべきである。決して、「今までなかったから大丈夫」
と言わないようにしなくてはいけない。
 
■だったら、どうしたら良いのでしょうか?
 私は、そのビジネスに関わっていないため、わかりません。他の人に、どうすれば良いか聞かれた時、私はそう答えるようにしています。
 システムというのは、堅固なものです。それがシステムの中にある限りは、それは多少の不確定性に左右されずに動くものです。
あなたはそれに対し正当な報酬を受け取っているということを思い
出して下さい。特に責任のないボーナスも含めてです。負担があることにより、リスク管理をする人は負担を考慮するのです。

■著書の中で“in Japanese culture, which is ill-adapted to randomness, people hate volatility, thus engaging strategies exposed to blow-ups.”どういう意味でしょうか?
それは、福島でも見ることができる。私は、
日本文化はミスをすると咎められる文化だと常々言っている。
 もし私が、お金を失う事や、小さなミスを恥じていれば、私は、大金を得ることはできず、ミスがめったに起こらないやり方をするだろう。10年に1度起きる、大きな出来事ではなく、毎日起きる小さな出来事に対応するということだ。そうなるのは、あなた方が小さな失敗を恐れているからなのだ。失敗を恐れるということは、企業家精神を損なう考え方だ。それゆえ、私は、大きなものでない小さなミスを許容する文化を好む。
 アメリカは小さなものから大きなものまで失敗に対し寛容だ。私は、大きなものは好まないが、小さなものは許す。なぜなら、革新は小さな失敗が積み重なって生まれるからだ。イギリスの産業革命は、なんでもやりたがる人々が失敗を重ねて生み出したものだ。最初は、日曜大工と呼ばれるようなものを積み重ね、積み重ねてその繰り返しにより出来上がったものだ。経験を積むことにより、容易になにかを発見することができる。そこに至るには、小さな失敗を繰りかえし、その失敗から学ぶことができるからだ。

■そして?
 あなた方は、小さな失敗に対してOKと言っておくべきだ。
カリフォルニアで、「フェイルファスト」と呼ばれるものがある。ハイテク文化があるゆえに、我々はどう失敗したのかは分かる。オムレツを作るときには卵を割らないといけない。もし卵を割らずにオムレツを作ろうとしたなら、いろんなところでごまかしごまかしし、その果てに必ず失敗してしまうだろう。そういうことは、どの世界でも同じように起こり、
金を失うことになっている。
 日本文化の良いところは、ちゃんとした姿勢で説明すれば、それが受け入れられるというところだ。あなたが、利害を説明するやり方を考え直すとすれば、こう言えばよい。「イッツオーケー。私は失敗するが、それは過程の一部だ」そして、バケツ一杯の失敗を考慮に入れるといい。そうすれば、人々は、あなたがそういったことを受け入れるだろう。しかし、あなたは、人々が小さな失敗を隠そうとするのをやめさせる事はできない。
 私は著書で二種類のペイオフについて書いている。  
 あるところではいつも小さな利益を得ることができるが、福島の事件のように、一度のほんの少しの時間のロスで全てふっとんでしまう。そこでは、すべてがうまくいっているように見えるが、実は尻に火が付いている状態なのだ。
別のところでは、上下の変化、振れ幅の変化がある。しかし、そこでは死ぬような目に合うことはない。
 わたしは、新しいバージョンのブラックスワンでこう説明している。不確定性に対する恐怖により、世界はもろくなる。大自然には、不確定性がある
 それは、例えばこういう事である。アメリカの政策で、中東のサウジアラビアに政権を確立した。アメリカは、不確定性を好まなかった。その結果、探知することのできないリスクが積もっていった。
レバノンは、とても不確定な政権であるが、
すべてが明らかになっているため、大問題は起きなかった。イタリアでは、第一次世界大戦後60もの政権が入れ替わり立ち代わりした。にもかかわらず、イタリアはまだある。シリア、サウジは、ブラックスワンで書いたが、政権の入れ替わりはない。政権が同じであるということは、決して安泰という事ではないのだ。逆に、水面下のリスクを後押しすることになる。
不確定であるということが、堅固であるということなのだ。あなた方は、小さな失敗に対してOKと言っておくべきだ。 

■そうしますと、日本は想定外の出来事にどう対応するべきなのでしょうか?
 不確定性を恐れずに、全てを失うリスクを恐れるべきである。不確定性からは学べることが大いにある。古代ローマ人は、「変動し続けることにより維持する」といっていた。多少の不確定性は、人為的に固定させたものより具合がいい。なぜなら、人為的に固定させたものは往々にして崩壊しているからだ。
 つまるところ、ある意味において、不確定性というものは、隠そうとすればするほど、重大事故に繋がるものであるということだ。

0 件のコメント:

コメントを投稿