Why the FT is talking nonsense (again)

Yesterday, I read this article: Why the BoE is talking nonsense (Google). It’s all about a graph from the Bank of England and how the axes are defined. According to the author, the graph is complete bullshit because the observations are graphed in terms of the number of standard deviations from the mean.

BoE-Nov-labour-market-slackSay you have time-series for three variables. All these variables could have different means and all these variables could have different degrees of variability. One variable might go up and down all over the place, while another may vary just a small amount. You can put them all in one graph, but you’ll have the risk that the graph will look like shit. If one variable has a mean of 100 and another a mean of 0, you can imagine you need a very large graph to show both variables. Or one variable might vary in such a way that another variable with smaller variability will look like a straight line.

A handy way to overcome this issue is to standardize all observations. For each variable, you first substract the mean from all observations. This way, all observations will be centered around zero and all variables will have the same mean: zero. But now there is still the issue of variability. To overcome this issue, we divide all the demeaned observations by the standard deviation of the variable. Now, each observation is expressed in the number of standard deviations from their mean. Standardizing data does not change the information content of the data. It is still the same data, with the same meaning.

So, what’s wrong with this article? The author’s claim is that some observations on the graph are six standard deviations away from the mean, which would make such events extremely unlikely (once in 254 million years). Therefore, the BoE is talking nonsense. So what’s wrong here? It’s really quite simple. In order to express observations in terms of probabilities, you need a probability distribution. The author implicitly assumed a normal distribution for the underlying data. I don’t know why, but he did. Different probability distributions have different parameters. For example, a normal distribution has two parameters: mean and standard deviation. So, if you know the mean and the standard deviation of a normal distribution, you can make statements about probabilities for normally distributed variables. But let’s take a look at other distributions. For example, a Beta distribution has four parameters and a Poisson distribution has only one. They also have a mean and a standard deviation, but they don’t necessarily tell you anything about the probabilities. Just remember that you need to know the distribution and its parameters in order to calculate probabilities. In the rare case of the normal distribution, the parameters just happen to be the mean and the standard deviation. But don’t think you can calculate a mean and a standard deviation from any kind of dataset and think you now have magical powers to infer probabilities. You don’t.

I could show you a graph of standardized daily stock returns through history, and you would see a huge drop somewhere around October 1987, on Black Monday. An observation about 22 standard deviations below the mean. Would that graph be silly? Of course not. If you assume a normal distribution, you wouldn’t expect a 22 standard deviation observation anywhere in the history of the universe. But we know daily returns do not follow a normal distribution. In fact, they follow a distribution with much heavier tails (i.e. higher probability of extreme events). This distribution still has a mean and a standard deviation and you can still standardize observations, but you cannot use the mean and the standard deviation to infer probabilities. If you’d like to talk about probabilities, first find out which distribution describes the random process (this is not always easy!), then estimate the parameters (this is not always easy!) and then talk about probabilities (okay, this is pretty easy).

It disturbs me a bit that a quality newspaper publishes these kinds of harsh articles. Don’t they have somebody over there that has elementary knowledge of statistics? By the way, I’ve seen this kind of stuff before at the FT. They claimed that markets are not efficient because the Capital Asset Pricing Model (CAPM) does not hold in reality. They even proclaimed Gene Fama is crazy because of this. But market efficiency doesn’t require the CAPM to hold. So they’re really quite funny, those harsh articles. Personally, I don’t write about stuff if I don’t understand it. Criticizing others for making errors when you don’t really know what you are talking about is just horrible. It’s too bad that some journalists can get away with this stuff, because surely some people out there will read their articles, believe them, and move on. And that’s just a shame.

Advertenties

Meerwaardebelasting op aandelen: een bescheiden poging.

In dit artikel ga ik proberen een beetje na te denken over de belasting op meerwaarde van aandelen. Je moet dit artikel bekijken los van alle andere belastingen. In België zijn bepaalde belastingen inderdaad veel te hoog, maar laat dat hier buiten beschouwing. Ik wil puur focussen op de wenselijkheid van een meerwaardebelasting voor aandelen. Welke andere belastingen moeten of kunnen sneuvelen, dat is een andere discussie.

Voor wie niet weet wat het is: in principe kan je als aandeelhouder op twee manieren winst maken. Onderliggend is er altijd een bedrijf dat winst of verlies maakt. Is er verlies, dan krijgen de aandeelhouders niets, meer zelfs, hun aandelen worden minder waard. Is er winst, dan kan het bedrijf dat ofwel bijhouden, ofwel uitkeren. Als men het bijhoudt, dan zullen de aandelen meer waard worden (de zogenaamde “meerwaarde” dus). Als men het uitkeert, dan zullen de aandeelhouders dividenden ontvangen. In België betaal je momenteel 25% roerende voorheffing op dividenden, maar 0% op meerwaarde. Als belegger ben je, everything else constant, dus beter af door te beleggen in bedrijven die geen dividenden uitkeren. Je maakt dan identieke winsten, maar moet er geen belasting op betalen.

Uiteraard moet je niet per se in aandelen beleggen. Je kan ook gewoon kasbons kopen, of iets gelijkaardigs met weinig risico. Op de coupon of rente die je daarop ontvangt, zal je in België ook 25% belasting moeten betalen (er is wel, hoe kan het ook anders in België, een uitzondering voor de eerste 1900 euro op spaarboekjes in 2014). Hier valt mij dus meteen een soort van ongelijkheid op. Stel je hebt twee mensen, eentje belegt in kasbons en de andere in aandelen, beide 1 miljoen euro (we houden het simpel hier…). Degene die in kasbons belegt krijgt een rentevoet van 1% en moet op zijn 10.000 euro winst 2.500 euro belasting betalen. Degene die in aandelen belegt, tja, daar zal het afhankelijk zijn van wat het bedrijf beslist. Laten we veronderstellen dat het bedrijf geen dividenden uitkeert. Dan zal het aandeel in waarde stijgen, bijvoorbeeld een stijging van 6%. De belegger maakt 60.000 euro winst en moet daarop geen belasting betalen. Uiteraard heeft hij nog altijd geen cash in handen. Maar als hij bijv. in Apple aandelen had belegd, kan hij er een paar verkopen en de 60.000 euro cash opstrijken. Zonder belastingen te betalen, want meerwaarde wordt niet belast. Dit vind ik onrechtvaardig.

Risico

Maar hola Kurt!“, hoor ik ze van ver al roepen: “…aandelen hebben véél meer risico dan zo’n domme kasbon! Aandeelhouders moeten gecompenseerd worden voor dat risico!“. En ik zal hard terugroepen: “ge hebt gelijk, kameraad!“. Bij aandelen weet je nooit of je verlies of winst zal maken, dat is dus risico. En voor dat risico wordt je dan ook zeker en vast gecompenseerd. Hier aan de Universiteit Antwerpen hebben we een unieke database met Belgische aandelen die teruggaat tot 1838 (!!!). Heel wat data dus, waaruit blijkt dat aandelen het praktisch altijd beter doen dan risicovrije beleggingen, zeker op lange termijn. Wie in 1938 één frank zou beleggen in aandelen zou in 2010 al 218 frank hebben. Had je 1 frank in een risicovrije belegging gestoken, dan had je uiteindelijk 3 frank. Dat zegt genoeg, maar die tijdspanne heeft natuurlijk geen enkele belegger ter beschikking. Maar zelfs als je rollende periodes van 10 jaar bekijkt, dan doen aandelen het vaak beter, niet altijd, maar praktisch altijd. En dat is eigenlijk overal ter wereld het geval. Dat toont goed aan dat er risico is, maar dat het ook gecompenseerd wordt, gemiddeld. Dat hoeft niet te verbazen, als beleggingen onaantrekkelijk (lees: te duur) zijn, daalt hun prijs (lees: stijgt hun verwacht rendement) totdat er weer kopers gevonden worden.

Dat is dus mijn argument: aandeelhouders worden vóór belastingen al beloond met een hoger verwacht rendement! Dat is de beloning voor het risico dat ze nemen:

  • Vóór belastingen: extra verwacht rendement voor de belegger
  • Tijdens belastingen: iedereen betaalt een gelijk percentage
  • Na belastingen: extra verwacht rendement voor de belegger

En ik zie dan ook geen enkele reden om hen daarbovenop nog eens een belastingsbeloning te geven, of toch in ieder geval geen beloning van 100% minder belastingen. Een fiscale aanmoediging kan wat mij betreft wel als men een positieve link kan aantonen tussen het maatschappelijk belang en het gewicht dat aandelen krijgen in de geaggregeerde portefeuille van alle mensen in die maatschappij (positieve externaliteiten dus…). Voor zover ik weet is zo’n link op dit moment vrij dubieus.

Verliezen

Een ander argument wat ik vaak hoor: “een aandeelhouder kan verliezen maken!”. Moet de fiscus dan geld terugstorten opeens? Of: “winsten zijn volatiel!”. Ik zie hier allemaal geen probleem in, mits een zeer belangrijke voorwaarde: verliezen moeten overdraagbaar zijn! Net zoals bij vennootschappen, die ook soms verlies maken en ook volatiele resultaten kunnen hebben. Als ik in 2014 een miljoen euro verlies maak, dan betaal ik uiteraard geen belastingen. Maar als ik in 2015 vervolgens 2 miljoen euro winst maak, dan betaal ik slechts belastingen op 1 miljoen euro winst. M.a.w. ik heb het verlies van vorig jaar overgedragen naar de volgende periode, hoe je die periodes ook wil opdelen. Zonder die voorwaarde zal ik altijd een resolute tegenstander zijn van de meerwaardebelasting. Stel je bent een starter en je vennootschap mislukt. Je hebt alleen verliezen en dan stopt het. Moet de fiscus je dan letterlijk geld terugbetalen? Ook hier zie ik niet meteen een probleem. Winsten op aandelen komen uiteindelijk wel ergens in de personenbelasting terecht. Ik zie geen graten als we iemand die geprobeerd heeft om te ondernemen vrijstellen van belastingen, al duurt dat 50 jaar, zolang hij of zij de verliezen uit het verleden niet te boven is gekomen.

Rendement berekenen

Nog een argument dat vaak de kop opsteekt: “hoe moet je dan rendement berekenen?”. Je zit altijd met problemen qua aankooptijdstip, verkooptijdstip, allocaties die wijzigen, enzovoorts. Ik kan hierover kort zijn denk ik. Als een aandelenfonds, of zelfs een hefboomfonds, haar return kan berekenen zodat jij in je Online Banking module een rendement kunt zien, dan moet het vast mogelijk zijn dat jij ook van jouw portefeuille het rendement berekent. Meer moet daar echt niet over gezegd worden, het is louter een technisch kwestie, niet eens zo’n grote, en kan wat mij betreft nooit als tegenargument voor meerwaardebelasting dienen.

Moment van belasten

Het moment van belasten is ook belangrijk. Als mijn aandelen Belgacom stijgen in waarde kan men in principe al belasten, maar dat is niet zo eenvoudig.

Voor niet-beursgenoteerde aandelen (bijv. van de eigenaar van een KMO) is het praktisch onmogelijk de aandelen te waarderen, want er is geen marktprijs, dus daar kan je bijna niet anders dan belasten bij verkoop. Zolang de meerwaarde maar belast wordt, want het is onlogisch om uitkeringen tijdens het leven van de vennootschap (dividenden dus) aan 25% te belasten en uitkeringen na het leven van de vennootschap (meerwaarde dus) te belasten aan 0%. Momenteel hebben we de liquidatiebonus van 25%. Dat is min of meer hetzelfde (ben niet 100% zeker, ben geen boekhouder) als een belasting op meerwaarde en dubbel belasten kan uiteraard niet. Het is dus ofwel meerwaardebelasting, ofwel een liquidatiebonus. Nooit samen.

Voor beursgenoteerde aandelen is het veel makkelijker om de winst te berekenen op eender welk moment. Maar ook hier is belasten bij verkoop wellicht het interessantste. Stel ik maak in jaar 1 50.000 euro winst en in jaar 2 50.000 euro verlies, waarna ik er de brui aan geef. Mijn uiteindelijk bruto rendement is 0 euro, maar door de belastingen (bijv. 12.500 euro) heb ik verlies gemaakt. Uiteraard zou ik het verlies van 50.000 euro kunnen overdragen naar jaar 3 als ik er niet de brui aan zou geven. Als ik dan opnieuw 50.000 euro winst zou maken, zou ik geen belastingen moeten betalen, omdat het verlies van 50.000 euro dat overgedragen werd uit het vorige jaar mijn winst eigenlijk op 0 zet. Maar het is dus wel vrij onhandig als ik na jaar 2 wil stoppen, want dan betaal ik belastingen zonder dat ik winst heb gemaakt. Hier zou het ook beter zijn om de belasting te heffen bij verkoop van de aandelen. Ik zou ze immers aan dezelfde prijs verkopen waaraan ik ze gekocht heb, nul euro winst maken, en dus geen belastingen betalen. Dat lijkt eerlijker, ook als ik vroeger wil stoppen.

Het moment van belasten is dus belangrijk, maar het is geen argument tegen de meerwaardebelasting wat mij betreft.

Ondernemerschap

Een ander goed argument is: meerwaarde gaat ondernemerschap aantasten, o.a. omwille van de reden hierboven aangehaald. Dat zou kunnen, dat zou ook niet kunnen. Er is weinig empirisch onderzoek, ik kan het niet echt vinden. Volgens Gert Peersman bestaat er wel onderzoek naar bedrijfsbelasting in het algemeen en zijn de resultaten vrij uiteenlopend.

Trouwens, in vele landen hebben ze al zo’n meerwaarde belasting. Kijk naar de US, toch wel een baken wat betreft ondernemerschap (misschien niet meer wat het ooit was, maar toch…), daar heeft men de capital gains tax. Of dat nu per se schadelijk is voor de economie, ik weet het niet. Wat denk jij?

Zo, dit was alvast een korte poging om mijn visie te geven om de meerwaardebelasting op aandelen. Uiteraard ben ik bijzonder geïnteresseerd in de argumenten van degenen die een andere visie hebben of die vinden dat ik iets vergeten ben. Ze mogen altijd reageren op deze post.

Arco: where’s the goddamn risk?

Het Arco kaartenhuisje staat weer in lichterlaaie de laatste dagen. De aanleiding was het feit dat de uitspraak van het Grondwettelijk Hof werd uitgesteld tot na de verkiezingen. Politiek is het uiteraard een heel gevoelig dossier want het betreft hier maar liefst 800.000 gedupeerden en het ACW blijft toch onlosmakelijk gelinkt aan CD&V. Dat is althans de perceptie die leeft bij veel kiezers. Over het Arco drama kan je veel vragen stellen. Zijn de coöperanten spaarders of beleggers? Moet er een vergoeding komen? Wie moet die dan betalen? De overheid? Of is het ACW schuldig aan misleiding en moeten zij dat dan maar betalen? Hebben ze eigenlijk wel voldoende geld? Moet de overheid eventueel de rest vergoeden? Allemaal moeilijke maar interessante vragen waar ideologie ongetwijfeld ook een rol bij speelt.

Ik wil hier niet focussen op deze vragen. Ik ben eerder geïnteresseerd in de oorzaak van dit drama. Wanneer men in de media over de oorzaken van het drama spreekt, wordt er bijna altijd gekeken naar de aanbodzijde. Men heeft slechte producten aangeboden of men heeft risico’s verzwegen. De vraagzijde komt zelden in de belangstelling. Dat zijn uiteraard de coöperanten zelf. Hebben zij fouten gemaakt en kunnen we daar iets uit leren?

Eén van de meest cruciale oorzaken van het drama is volgens mij het feit dat risico en onzekerheid niet voldoende begrepen worden in onze hedendaagse maatschappij. Het kansrekenen zit ons niet voorgeprogrammeerd, mensen denken bijna altijd in causale termen en de rol van het toeval wordt daarbij continu onderschat. Nobelprijswinnaars als Daniel Kahneman en Amos Tversky hebben lang geleden al aangetoond dat mensen irrationele beslissingen nemen wanneer er onzekerheid bij komt kijken. De financiële markten zitten natuurlijk vol met onzekerheid en als gevolg kunnen mensen wel eens slechte beslissingen nemen. De Arco coöperanten werd een hoger rendement beloofd, zonder extra risico. In een maatschappij waarbij de rol van onzekerheid niet goed begrepen wordt gaat zoiets er natuurlijk in als zoete pap. Waarom zou ik mijn geld op een spaarrekening parkeren als ik zonder extra risico ergens anders meer kan verdienen? Het klinkt als een gouden kans. Grijpen dus! Toch?

arco.PNG

Deze folder werd indertijd verspreid (zie bv. http://www.standaard.be/cnt/dmf20121128_083)

Je zou het gerust “de eerste wet van de financiële markten” mogen noemen. Het feit dat risico en rendement hand in hand gaan. Producten zonder risico leveren amper rendement op en enkel door het nemen van risico kan je je verwacht rendement opkrikken. Ik spreek van “verwacht” rendement omdat er uiteraard risico’s mee gepaard gaan. Je rendement is onzeker. Van aandelen verwacht je dat ze het beter zullen doen dan een spaarboekje, maar je kan hier onmogelijk zeker van zijn. Je bent nooit zeker. Je weet alleen dat het rendement van aandelen over alle mogelijke toekomstige scenario’s gemiddeld hoger zal zijn dan dat van een spaarboekje. Als je dan toevallig in een slecht scenario terecht komt, is dat brute pech. Onzekerheid dus. Je kan het trouwens ook omgekeerd zien: met een verzekering kan je risico verminderen, maar je moet dan wel een premie betalen. De conclusie is duidelijk: risico heeft een prijs.

Er zijn mensen die niet geloven in deze “eerste wet”. Er zijn mensen die menen dat ze financiële producten kunnen herkennen die veel opbrengen zonder extra risico. Stel dat ze dat inderdaad kunnen: denkt u dat u ook zelf die geweldige opportuniteiten kan ontdekken? Denkt u dat de gemiddelde Arco coöperant die opportuniteiten kan herkennen? Uit onderzoek blijkt dat zelfs de meest professionele fondsbeheerders er zeer slecht in zijn. U en ik zullen er dus helemaal niets van bakken. Het is dus aan ons, als verantwoordelijke huisvaders en –moeders, om onszelf een belangrijke reflex aan te leren. Telkens wanneer iemand ons een hoger rendement belooft zonder extra risico, moeten we dat wantrouwen. Tenzij iemand zo vrijgevig is om zijn winsten gratis en voor niets uit te delen, moet dat rendement wel van extra risico komen. We moeten dus op zoek gaan naar dat risico, ook al zit het soms in kleine hoekjes verstopt.

Als de Arco coöperanten deze reflex hadden gehad indertijd, dan hadden ze zichzelf misschien heel wat problemen kunnen besparen. Dit is geen verwijt, maar een vaststelling. Ons onderwijs moet al vanaf jonge leeftijd mensen leren omgaan met toeval en onzekerheid. Deze concepten zijn té belangrijk geworden om te negeren. Mensen moeten leren dat onze wereld vol toeval zit en dat de toekomst een oneindig aantal paden kan volgen. Het is sowieso vreselijk verkeerd om risicovolle producten als veilig af te schilderen en een overheid moet garanderen dat dit niet kan en sterke straffen opleggen wanneer het toch gebeurt. Maar ik denk dat je als eenvoudige spaarder in een complexe wereld maar best één vraag stelt wanneer iemand u een hoger rendement belooft: where’s the goddamn risk?

Deze blog verscheen eerder al bij Apache.

Wat wil dat eigenlijk zeggen: de markt verslaan (beating the market)?

Beating the market. Je komt die terminologie overal tegen. Ik wou toch even wat duiding geven bij het idee achter “het verslaan van de markt” of “beating the market” in het Engels. Stel je hebt een belegger die zijn eigen ding doet. Hij haalt 20 jaar op rij een hoger rendement dan de markt. Heeft hij de markt verslaan? Veel mensen zullen “ja” zeggen. Het juiste antwoord is dat we het niet kunnen bepalen met die informatie. Om de markt te kunnen verslaan moet je met hoge zekerheid kunnen zeggen dat de belegger, na een correctie voor risico, significant en consistent beter presteert dan de markt. Laten we dat eens op het gemak bekijken.

De markt

Wat is dat eigenlijk, de markt? Wat men vaak bedoelt is een soort van beursindex. Amerikanen zullen zich vaak vergelijken met de S&P500. Warren Buffet zal bijvoorbeeld in zijn jaarlijkse brief aan de aandeelhouders het rendement op de boekwaarde van zijn bedrijf vergelijken met het rendement van de S&P500. In België zal men zich misschien vergelijken met de BEL20. Het is eigenlijk de bedoeling dat je je eigen portefeuille vergelijkt met een soort van goed beschikbare, breed gediversifieerde portefeuille, die dan “de markt” heet. De BEL20 is wat mij betreft daarvoor niet geschikt. Twintig grote aandelen zijn niet heterogeen genoeg om hun gemiddelde “de markt” te kunnen noemen.

Na correctie voor risico

Je mag twee rendement-histories nooit zomaar vergelijken. Rendement hangt samen met risico. Hoger risico brengt meer rendement met zich mee. Iemand die 50 jaar in aandelen belegt zal doorgaans een hoger rendement hebben dan iemand die 50 jaar in een spaarrekening belegt. Dat wil uiteraard niets zeggen, want de persoon met de spaarrekening heeft 50 jaar lang op beide oren kunnen slapen, de aandeelhouder niet. Ook zal iemand die in nutsbedrijven belegt doorgaans minder risico dragen dan iemand die in technologiebedrijven belegt. Dat zou dus geen eerlijke vergelijking zijn. In de wetenschappelijke literatuur zijn er enkele benchmarks beschikbaar waarmee je kan corrigeren voor risico. Je zou als benchmark ook een soort van passief indexfonds kunnen gebruiken waarin je goedkoop kan beleggen. Zolang er maar niemand aan de knoppen zit te draaien. Het probleem met risico is trouwens dat we achteraf slechts één historiek kunnen observeren. Om risico écht te kunnen inschatten zou je in het hoofd van God moeten kruipen om te zien welke mogelijke toekomsten allemaal mogelijk zijn, maar dat kan dus niet. Gelukkig kan volatiliteit nog wel redelijk goed voorspeld worden.

Significant en consistent

De outperformance moet ook consistent zijn. 5 jaar lang een hoger (of lager) rendement dan de markt behalen wil nog niet veel zeggen. Aandelen zijn bijzonder volatiel en het is dus niet moeilijk om geluk (of pech) te hebben. Als je in een casino winst behaalt met het spelen van roulette zal je achteraf wellicht ook niet claimen dat je het casino hebt verslaan. Je hebt gewoon geluk gehad. Gezien de hoge volatiliteit van aandelen heb je eigenlijk een vrij lange tijdreeks nodig om te kunnen claimen dat je consistent de markt verslaat.

Dus…

De markt verslaan is dus niet zo eenvoudig. En om te beoordelen of iemand de markt verslaat heb je heel wat meer gegevens nodig dan je zou denken. Geloof dus niet te snel de kranten wanneer ze een topbelegger aan het woord laten over de 5 beste aandelen van het moment. Kritisch zijn blijft, zoals altijd, belangrijk.

Waarom maakt meer kapitaal een bank veiliger?

Er is de laatste tijd heel wat te doen over de nieuwe bankenwet. België gaat verder dan Europa in haar regelgeving en zou volgens de grootbanken te streng zijn. Koen Schoors legt in Terzake uit dat hij het eens is met de banken in die zin dat de overheid niet zou moeten proberen om banken veilig te maken. Banken moeten risico nemen, dat is immers hun functie. Ze nemen en herverdelen risico. Zelfs eenvoudigweg spaargeld ontvangen en dat uitlenen aan bedrijven houdt risico’s in. Ik ben ook akkoord dat risico’s nemen of herverdelen geen probleem is. Sommige mensen horen het woord “swap” en denken meteen aan exotische zaken die groot risico meebrengen, terwijl swaps in realiteit vaak dienen om risico’s te verlagen.

Wat wél een probleem is, is de hoeveelheid kapitaal die in de bankensector wordt aangehouden. Banken moeten véél en véél meer kapitaal aanhouden. Nu ligt dat gemiddeld ergens rond de 4 à 5% van hun totale waarde. Ik denk dat dat gigantisch omhoog moet om de banksector gezond te maken, niet naar 8 of 9% maar eerder richting 20-30%. Maar waarom moét een bank dan meer kapitaal aanhouden, terwijl we bedrijven zulks nooit zullen verplichten? Wel, bedrijven kunnen rustig failliet gaan zonder teveel weerslag op de economie (tenzij ze allemaal samen failliet gaan natuurlijk). Maar banken hebben soms balansen die groter zijn dan het BBP. Als zo’n instelling failliet gaat kan dat (zo stelt men althans) gigantische schade veroorzaken aan de economie. Daarom moeten banken als een speciaal geval bekenen worden en moet hun kapitaal gereguleerd worden. Waarom een bank veiliger wordt wanneer ze meer kapitaal aanhoudt, leg ik hier uitgebreid uit aan de hand van een eenvoudig economisch model dat in de jaren ’70 werd bedacht door Nobelprijswinnaar Robert Merton.

Laten we ons een eenvoudige bank inbeelden. Deze bank financiert zich op twee manieren: enerzijds met kapitaal (of eigen vermogen: beleggers kopen aandelen van de bank) en anderzijds met schulden (of vreemd vermogen: beleggers kopen obligaties van de bank). Het geld dat de bank hiervoor ontvangt wordt gebruikt om activa (bezittingen) aan te schaffen. Bijvoorbeeld: men koopt overheidsobligaties, men verstrekt leningen zoals hypotheken en investeringskredieten, en dergelijke meer. Onze eenvoudige bank is heel braaf en heeft 100.000 euro opgehaald bij aandeelhouders en 100.000 euro bij obligatiehouders (50% kapitaal dus). De aandeelhouders hoeft de bank niet terug te betalen, maar de obligatiehouders natuurlijk wel. Om het simpel te houden veronderstellen we dat onze bank obligaties heeft uitgegeven die allemaal binnen 5 jaar terugbetaald moeten worden. Indien de bank dat dan niet kan doen, gaat ze failliet. De balans ziet er dus zo uit:

balans

Merk ook op dat kapitaal niet is zoals geld in een sok onder het bed of zoals geld op een spaarrekening. Kapitaal is niet hetzelfde als een potje dat je bijhoudt voor slechte tijden. Kapitaal heeft enkel te maken met de manier waarop de bank zich financiert. Een deel is kapitaal, de rest is schuld. Met dit geld koopt ze activa.

Een bank is natuurlijk een onderneming en elke onderneming heeft een marktwaarde. De marktwaarde van de bank is gelijk aan de marktwaarde van alle activa. De economie gaat op en neer, aandelen gaan op en neer, en dus gaat zo’n marktwaarde op en neer, al zal ze gemiddeld stijgen. In ons eenvoudige model gaan we veronderstellen dat de bank failliet gaat wanneer ze binnen 5 jaar haar obligaties niet kan terugbetalen. En om te beoordelen of ze dat kan, kijken we naar de marktwaarde van de activa. Als de waarde van de activa na vijf jaar hoger is dan de schulden die terugbetaald moet worden dan is er geen probleem. Echter, als de waarde van de activa van de bank op het einde van die vijf jaar lager is dan de schulden, dan gaat de bank failliet. Zelfs als ze alles verkoopt zal ze niet haar schulden kunnen terugbetalen.

We hebben nu dus de structuur van onze bank en de voorwaarde voor een faillissement besproken. Het enige wat nu nog rest is om eens te kijken naar die activa en hoe die schommelen doorheen de tijd. We kunnen daar een statistisch proces op plakken, en dat vergt wat wiskunde. Het komt er gewoon op neer dat de waarde van de assets gemiddeld zal stijgen met ongeveer 0.5% per maand, maar dat er ook grote en onvoorspelbare schokken zullen zijn.

(Voor de nerds: het maandelijks rendement op de activa is gemiddeld 0.5% met een standaardafwijking van 5%.)

Alle ingrediënten zijn nu op zijn plaatst om te zien wat er allemaal met deze bank kan gebeuren. We kunnen bijvoorbeeld makkelijk een mogelijk toekomstig pad van de activa simuleren. Als je meer wil weten over simulatie kan je mijn andere blogpost lezen over simulatie. Als ik drie mogelijk paden simuleer, dan kunnen die er bijvoorbeeld zo uitzien:

driepaden

Zoals jullie zien is de waarde van de activa na vijf jaar in alle drie de gevallen boven 100.000 euro en zal de bank dus niet failliet gaan. In het blauwe geval is het echter wel heel nipt geweest. Het was bijna zover… Laten we dit nu eens niet drie, maar tienduizend keer simuleren! We kunnen dan kijken in hoeveel gevallen de bank failliet gaat en dus de kans op een faillissement berekenen.

De waarde van de activa bij de start is altijd 200.000 euro. Als de bank 50% kapitaal aanhoudt heeft ze dus 100.000 euro kapitaal en 100.000 euro schulden. Uit de simulatie blijkt dat de bank ongeveer 0.80% kans heeft om failliet te gaan na vijf jaar. Die kans is toch zeer klein. Laten we nu eens veronderstellen dat de bank niet 50% maar 25% kapitaal zou aanhouden, m.a.w. 50.000 euro kapitaal en 150.000 euro schuld. Uiteraard moet de bank nu ook meer terugbetalen na vijf jaar. De kans op faillissement is nu al gestegen tot 9%. En als de bank slechts 5% kapitaal zou aanhouden wordt die kans al 24%. We zien dus duidelijk dat minder kapitaal wil zeggen dat de kans op een faillissement stijgt! De intuïtie is heel eenvoudig: hoe minder kapitaal een bank aanhoudt, hoe meer schulden ze heeft uitstaan. De waarde van de activa schommelt op en neer, en hoe hoger die schulden liggen, hoe groter de kans dat de waarde van de activa er ooit wel eens onder zou kunnen liggen. En dan is het zover natuurlijk!

Als we kijken naar de verdeling van de waarde van de activa na vijf jaar, dan bekomen we onderstaand histogram. De rode lijn stelt de 100.000 euro lijn voor, die belangrijk is voor onze bank met 50% kapitaal. Alle gevallen aan de linkerkant van die lijn staan voor een faillissement. En nu kan je nogmaals zien dat wanneer je minder kapitaal hebt, je dus meer schuld hebt en die rode lijn dus naar rechts zal verschuiven. Hoe meer die rode lijn naar rechts zal verschuiven, hoe meer gevallen er links van de rode lijn zullen liggen. Bijgevolg: hoe groter de kans op faillissement!

(Voor de nerds: de waarde van de activa na vijf jaar is in dit model inderdaad lognormaal verdeeld, zoals je kan zien op de grafiek. Dit is natuurlijk omdat het rendement normaal verdeeld is. Analytisch gezien kan je de parameters van de verdeling ook gewoon berekenen in het model en zo de kans op een faillissement 100% correct berekenen.)

histogram

De intuïtie achter “meer kapitaal aanhouden!!!” is dus zeer eenvoudig. Langs de ene kant hebben we de activa van een bank waarvan de waarde niet beïnvloed wordt door de mix tussen kapitaal en schulden, maar door economische schokken en de risico’s die de bank neemt. Langs de andere kant hebben we de financieringsmix van de bank (kapitaal & schulden). Hoe minder kapitaal, hoe hoger de schulden. En hoe hoger de schulden, hoe groter de kans dat de activa onvoldoende zullen blijken om de schulden af te betalen. In dat geval spreken we van een faillissement.

Natuurlijk stelt dit model veel zaken simplistisch voor, maar het was ons hier niet om precisie te doen, maar om intuïtie. Banken moeten MEER kapitaal aanhouden! Bovendien moeten ze ook MEER kapitaal aanhouden wanneer hun activa risicovoller worden. Op die manier verkleint de kans op een faillissement, hetgeen een groot deel van het hele too-big-to-fail probleem oplost. En laat in hemelsnaam nooit nog een belastingbetaler opdraaien voor een onderneming.

Simulation: simulating uncorrelated and correlated random variables

FYI: This is a text about basic simulation, nothing fancy, but you do have to know some basic math and statistics. Nothing special though… they taught me matrices, means, standard deviations and the normal distribution when I was 16 years old. So this stuff is not rocket science at all. It’s useful for people like me but 4 years younger, still looking for the answer to the question I will describe below. It’s useful for people who like finance but don’t have a strong core yet. It’s also useful for people who just want to refresh some things, or for people who want to use some of this stuff in their work. And of course for people who don’t know what simulation means.

Simulation is easy to understand. You just have to recognize that in this world, some things happen by chance. Once you accept that, you can move on and try to understand the process that generates those chances. Once you find that process, you can use simulation to simulate alternative paths. For example: in real life you might toss a coin and get two times heads and three times tails. But on my computer, I can simulate millions of such coin tosses and see what happens each time. I can simulate alternative paths for the coin toisses and many other random things. This is simulation! Simulation is a huge topic, but I’ll focus here on some things that I encountered and for which I believe that the internet does not yet provide an easy peasy lemon squeezie explanation. You’ll find stuff everywhere, but I’ll try to condense it down to the core here. And I’ll try not to be too technical, since technical readers already have a lot of books to rely on anyway.

A while ago I wanted to simulate companies going into default. It’s likely that companies tend to default at the same time. In other words: defaults are correlated. You can ask yourself similar questions when you’re analyzing stock returns, for example. Stocks tend to move up and down together because their returns are correlated. But you can also simulate your pension plan, or even the temperatures in January. You can simulate the numbers of cars that drive past your house or you can simulate the size of different queues in a supermarket. As one of my PhD supervisors always says: “If you are simulating, you are God”. And it’s true, apart from the fact I can’t seem to simulate a higher balance on my bank account. Maybe I can ask my supervisor about that…? Anyway, if you’re in risk management, you want to be able to simulate all kinds of stuff. Why? Because it allows you to look into the future, within the limits of your model, and see the possible scenarios and their probabilities. Banks may want to simulate all the products in their portfolio (bonds, loans, stocks, derivatives, …) and see what can happen within a given period of time, so that they can adequately prepare themselves for some of the worst case scenarios. This is exactly what they do in real life, and this is exactly what I’m studying in my PhD.

1. Simulating random numbers and uncorrelated random variables

If you’re going to simulate, everything starts with random numbers. Simulating random numbers is very easy. For example, in Excel, the RAND() function will return a random number between 0 and 1, which conveniently corresponds to the definition of a probability. A probability, after all, always lies between 0 and 1. Let me just simulate 10 of those numbers right now:

\begin{bmatrix}0.6853&0.0153&0.4608&0.5975&0.9186&0.3949&0.7921&0.5599&0.3168&0.4258\end{bmatrix}

Now, because a probability always lies between 0 and 1, we can use these random numbers to draw random values from ANY well-defined probability distribution. Given such a distribution, you can calculate the probability for some value or range of values. But it also works the other way around: you can input a probability and get a value. This is the idea of simulation. Normally you calculate probabilities for values, but now we calculate values for probabilities. And those probabilities are easy to randomly generate, using e.g. Excel. For example, we can use the random numbers above to draw 10 random values from a normal distribution with mean 100 and standard deviation 15. Just use the =NORMINV() function in Excel. You specify a probability, a mean and a standard deviation, and you get the values that you want:

\begin{bmatrix} 107&68&99&104&121&96&112&102&93&97\end{bmatrix}

I rounded these numbers. So what do we have now? Well, we have the IQ’s of a group of 10 people, since IQ is normally distributed with mean 100 and standard deviation 15. Neat, huh? But we can also use those 10 numbers between 0 and 1 to simulate 10 stock returns. Suppose those are normally distributed with mean 5% and standard deviation 15% (yes, stocks are risky!), we get something like this:

\begin{bmatrix}12.2&-27.4&3.5&8.7&25.9&1.0&17.2&7.3&-2.2&2.2\end{bmatrix}

You can also use other distributions. For example, I can simulate the number of eyes one can throw when playing dice. I just have to multiply the number between 0 and 1 by 6, and then round up. This gives me:

\begin{bmatrix}5&1&3&4&6&3&5&4&2&3\end{bmatrix}

Yes, this is all extremely cool, but also very simple.

2. Simulating correlated random variables (e.g. stock returns)

We just simulated some observations for one variable. We can do this for more variables as well. If we copy the approach above for many variables, we get a set of uncorrelated variables. But what about situations in which we want correlation between the variables? For example: what if we want to simulate correlated returns for three stocks? Now before we start simulating, we have to think about how stock prices move. They tend to go up on average, which means they don’t have a constant mean over time. For modeling purposes, this is rather annoying. So the solution is easy: let’s look at returns instead. Let’s say we model them like this:

R_t = \mu + \varepsilon_t

This just means that returns at time t, R_t, are always an average \mu plus some random error or “shock” \varepsilon_t. Let’s say we let \mu equal 5% per year and we let \varepsilon_t be a normally distributed independent variable with mean zero and a standard deviation of 15%. Given these assumptions, we can easily simulate say 100 years of \varepsilon_t for each stock and use these to generate the returns for those three stocks. It looks like this:

sim1

Of course, this doesn’t look very informative. So let’s take a look at the prices these returns imply, given that all stocks are worth $100 at the start.

sim2

These lines look like stock prices. But of course, they are uncorrelated. Simulating correlated random variables is pretty easy, although it may look hard. The first thing you need is a correlation matrix \textbf{C}, for example:

\textbf{C} = \begin{bmatrix} 1.0 & 0.5 & 0.5 \\ 0.5 & 1.0 & 0.5 \\ 0.5 & 0.5 & 1.0\end{bmatrix}

This matrix just holds the correlations between each pair of stock returns. Before, we had 100 uncorrelated errors \varepsilon_t for each of the three stocks. In order to transform these to correlated errors, we’re going to put them into a 100\times3 matrix denoted \bf U. Next, we need to take our correlation matrix \bf C and calculate it’s Cholesky decomposition \bf L, which is a transformation which you can easily calculate using mathematical software. I’m not going to explain in detail what a Cholesky decomposition is, just know that the following applies: uncorrelated variables x Cholesky decomposition = correlated variables. Simply put, a Cholesky decomposition \bf L is a matrix such that \bf L^{T}L=C. Look at the bottom of this post for some VBA code. We get the following:

\textbf{L} = \begin{bmatrix} 1.0000 & 0.5000 & 0.5000 \\ 0.0000 & 0.8660 & 0.2887 \\ 0.0000 & 0.0000 & 0.8165\end{bmatrix}

Now we just multiply our matrix of uncorrelated errors \bf U with the Cholesky decomposition \bf L, to get a 100\times3 matrix of correlated errors \bf E

\bf E=UL

And indeed, when we use these correlated errors in order to compute returns and prices, we find the following:

sim3

Maybe it’s hard to see that the first graph has uncorrelated returns and the second one has correlated returns. But if we calculate the empirical correlation matrices of the uncorrelated and correlated returns, we get respectively:

\begin{bmatrix} 1.00 & 0.10 & -0.31 \\ 0.10 & 1.00 & -0.01 \\ -0.31 & -0.01 & 1.00 \end{bmatrix} and  \begin{bmatrix} 1.00 & 0.52 & 0.39 \\ 0.52 & 1.00 & 0.56 \\ 0.39 & 0.56 & 1.00 \end{bmatrix}.

The difference is clear. In the first one, all the correlations are close to 0, while in the second one, all the correlations are close to 0.5 (apart from the elements on the diagonal, which are of course all 1). Of course they are not perfectly equal to 0 or 0.5, but that’s because we’ve only simulated a sample. The correlation matrix \bf C is just the one that holds in the population, but in finite samples the correlation matrix will obviously differ from sample to sample. For example, you can see that even if you simulate numbers with zero correlation, you can still find a correlation of -0.31 in a sample of 100 simulations.

3. Simulating autocorrelated random variables (e.g. GDP growth)

In the previous step, we simulated correlated random variables. In fact, we actually simulated cross-correlated random variables, because the correlation holds at each point in time, or cross-sectionally. Define autocorrelation as the correlation between a series and its own past values. It’s the correlation of a variable with earlier versions of itself. You could look at it as some kind of memory. The random variable has a memory, it remembers past values of itself. You can calculate an autocorrelation with 1 lag, 2 lags, and so on.

We can look at the stock returns (not prices!) of one particular stock and see that there’s not much of a memory in there (prices have memory, returns have not). It makes sense that the autocorrelations are zero for our simulated returns above, because we did nothing at all that would induce autocorrelation. But what about growth in GDP, for example? Let’s have a look at quarterly GDP growth in Belgium since 1996.

simulation3

If we look at the graph, we can clearly see there’s some kind of memory in there. We can see that positive growth is likely to be followed by positive growth and negative growth is likely to be followed by negative growth. We also see that over time, this dependence decreases, as booms turn into busts and busts turn into booms. We see that quarterly growth averages around 0.40% and you can calculate that the standard deviation is about 0.60%. You can also make a histogram of the growth numbers, and you’ll see that growth is approximately normally distributed. Does this mean we can reliably simulate GDP growth by drawing random values from a normal distribution with mean 0.40% and standard deviation 0.60%? No! We need some way to let the next observation know that it should take the previous one into account. So if we want to simulate something like this, we need to specify a process for GDP growth over time. Using the data in the graph, I estimated the following model:

Growth_t = 0.19 + 0.82Growth_{t-1} - 0.28Growth_{t-2} + \varepsilon_t

This means that GDP growth in quarter t is a constant 0.19%, plus 82% of growth in the past quarter, minus 28% of growth two quarters ago, plus a normally distributed random shock \varepsilon_t (with mean zero and a standard deviation of about 0.45%). This obviously means that if growth is high this quarter, it will probably also be high next quarter, but also that if growth is high this quarter, it will probably be lower two quarters in the future. Given all this information and assuming naively for a moment that this can be extrapolated into the future, I can easily simulate a new path for GDP growth. The only thing I need to do is simulate the errors \varepsilon_t and fill in the rest. But how can we start simulating if we don’t have starting values for Growth_{t-1} and Growth_{t-2}? It’s not really a problem. I’ll just set them to zero and simulate some extra quarters in order for the effects of these starting values to fade away. The result will look something like this:

simulation4

You can clearly see that most of the time we have a nice growth, but we have some crises in there as well. Normally we would take a look at more complex models and probably also include variables like unemployment, interest rates, and stuff like that. But at least now you know how to simulate autocorrelated processes. The autocorrelation in the above graph is 0.71 for one lag and 0.35 for two lags, which is probably what you would expect. The reason why the autocorrelation over two lags is 0.35 while in the model it is -0.28 is easy to understand. The autocorrelation between Growth_t and Growth_{t-2} does not take into account that there’s also a positive effect of Growth_{t-1} on Growth_t that plays an important role, namely the autocorrelation over one lag. If we take that autocorrelation into account, we find a partial autocorrelation coefficient over two lags of -0.3257, which makes perfect sense.

Also note that you can also just simulate autocorrelated errors \varepsilon_t by simulating the following model:

\varepsilon_t = \rho\varepsilon_{t-1} + \nu_t

where \nu_t is another normally distributed normal variable with mean zero, a standard deviation you choose yourself and zero autocorrelation. This means that although \nu_t has no autocorrelation, \varepsilon_t will have autocorrelation. The reason we need \nu_t in there as well is because we need some kind of shock into the system, otherwise your variable would just converge to zero for |\rho|<1 or explode for |\rho|\geq1. BOOM! Below is a graph of the following process

\varepsilon_t = \rho\varepsilon_{t-1}.

sim1

Just having a shock \nu_t in there, however, is not enough. You also have to think about \rho as well. In the graph below you’ll find the process:

\varepsilon_t = \rho\varepsilon_{t-1}+\nu_t.

sim2

So watch out when you’re simulating autocorrelated variables. Also please note that you can’t have autocorrelated errors in the model for GDP growth above, or for that matter any model in which a variable depends on older versions of itself (autoregressive models). If you’re building an autoregressive time-series model in which y_t is explained by y_{t-1} and some error \varepsilon_{t}, you have to build your model in such a way that the errors are uncorrelated. If you have such an autoregressive model in which \varepsilon_t is autocorrelated, then that means that \varepsilon_t is correlated with \varepsilon_{t-1}. Since \varepsilon_{t-1} determines the value of y_{t-1}, they will also be correlated. It follows that when you’re estimating a model like y_t = \alpha + \beta y_{t-1} + \varepsilon_t, that there will be correlation between y_{t-1} and \varepsilon_{t}, which violates a critical assumption of regression analysis and causes bias in your coefficients. It’s also called endogeneity. If this is all too technical for you, ignore it for now.

4. Simulating random variables with autocorrelation AND cross-correlation

Simulating a bunch of variables that are cross-correlated (see part 2) and where each of those variables also exhibits autocorrelation (see part 3) is nothing more than a combination of 2 and 3, as you might have expected. First, you generate autocorrelated but cross-sectionally uncorrelated random variables using the methods explained in part 3. Now you have a bunch of cross-sectionally uncorrelated variables that exhibit autocorrelation. The graph below shows and example for the following model:

x_{it} = 0.5x_{it-1} + \varepsilon_{it}

where i refers to one of the three series and t refers to time. An example of such a simulation is:

simulation5

As you can see, each series exhibits autocorrelation, but the three series don’t really seem to move in the same directions. So then, I multiply all those random numbers in the graph with the Cholesky decomposition of the correlation matrix. Let’s say that this time we’ll go with higher correlations:

\textbf{C} = \begin{bmatrix} 1.0 & 0.8 & 0.8 \\ 0.8 & 1.0 & 0.8 \\ 0.8 & 0.8 & 1.0\end{bmatrix}

So that the Cholesky decomposition is:

\textbf{L} = \begin{bmatrix} 1.0000 & 0.8000 & 0.8000 \\ 0.0000 & 0.6000 & 0.2667 \\ 0.0000 & 0.0000 & 0.5375\end{bmatrix}

Again we just multiply the cross-sectionally uncorrelated (but autocorrelated!) series with the Cholesky decomposition to get the cross-correlated ánd autocorrelated series, as shown in the graph below:

simulation6

And you’re done. The graph clearly shows both autocorrelaton within the series as cross-correlation between the series.

5. Conclusion

You now already know a lot about simulation. You know how to simulate random numbers between 0 and 1. You know that you can interpret those numbers as probabilities, such that you can translate them into values coming from any probability distribution, for example a normal distribution. You also know what cross-correlation and autocorrelation means, and how to introduce it in your simulations. Excel is pretty good for simulation. I always start in Excel, and move to MATLAB later on, because it’s much faster and has a lot more functions. I use simulation a lot in my job. I use it to simulate defaults of different companies, because those defaults impact bank losses. I use it to estimate the bias in some models. I use it to judge the performance of different statistical techniques, and so on. A long time ago, I used to do it to evaluate different poker strategies. You can do a lot of nice things. Just don’t forget your economic intuition, because you’ll need it, I’m sure.

VBA code for a Cholesky decomposition.

Just put this code in a module in Excel Developer and use the CHOL() function in Excel. Remember to first select the appropriate number of cells (i.e. the same dimensions as your correlation matrix). Then type ‘CHOL(‘, select your entire correlation matrix and then type ‘)’. Now press Ctrl+Shift+Enter to let Excel know you’re dealing with matrices. The Cholesky decomposition will pop up. Always make sure your correlation matrix is positive semi-definite! Also, in MATLAB you can simply calculate the Cholesky decomposition with the chol() function.

The code (most of it is stolen from this website)

Function CHOL(matrix As Range)

Dim i As Integer, j As Integer, k As Integer, N As Integer
Dim a() As Double 'the original matrix
Dim element As Double
Dim L_Lower() As Double

N = matrix.Columns.Count

ReDim a(1 To N, 1 To N)
ReDim L_Lower(1 To N, 1 To N)

For i = 1 To N
    For j = 1 To N
        a(i, j) = matrix(i, j).Value
        L_Lower(i, j) = 0
    Next j
Next i

For i = 1 To N
    For j = 1 To N
        element = a(i, j)
        For k = 1 To i - 1
            element = element - L_Lower(i, k) * L_Lower(j, k)
        Next k
        If i = j Then
            L_Lower(i, i) = Sqr(element)
        ElseIf i < j Then
            L_Lower(j, i) = element / L_Lower(i, i)
        End If
    Next j
Next i

CHOL = Application.WorksheetFunction.Transpose(L_Lower)

End Function

Statistiek en recht

Iets wat ik regelmatig zo eens denk, is dat men in het hele rechtsgebeuren eigenlijk toch niet heel veel bezig is met statistiek (in de zin van probabiliteit, niet in de zin van cijfers bijhouden op een computer). Die mening is uiteraard onderworpen aan mogelijke onwetendheden aan mijn kant. Ik heb zo ooit eens een anekdote gelezen in een boek (ik geloof The Black Swan, maar ben helemaal niet zeker) over een moeder die terecht stond. Ze had twee kinderen gekregen en beide zijn kort na hun geboorte overleden. De openbare aanklager vond dat zoiets altijd wel één keer kan gebeuren, maar als het twee keer gebeurt, dan is er toch stront aan de knikker! De advocaat volgde dezelfde redenering. Ze spraken van een ziekte die maar heel weinig voor kwam bij kleine kinderen maar altijd tot de dood leidt. De kans op die ziekte was heel klein, bijv. 0.01%. Als zoiets je één keer overkomt, heb je dikke pech natuurlijk. Laat staan dat het twee keer gebeurt. En dat was dan ook het argument van de openbare aanklager. De kans dat zoiets twee keer gebeurt is zóóó klein dat de vrouw wel schuldig MOET zijn! 0.01% x 0.01% = 0.000001% of 1 keer per 100 miljoen gevallen. Zoiets kan toch gewoon niet! Ten eerste, zoiets kan natuurlijk wel. De kans om EuroMillions te winnen is zelfs kleiner, en er bestaan genoeg mensen die EuroMillions gewonnen hebben. Maar ik snap hun punt wel, de kans is zo klein dat die hypothese wel heel onwaarschijnlijk lijkt. Al was de openbare aanklager natuurlijk wel vergeten dat als je één baby hebt die overlijdt aan zo’n ziekte, dat de kans dat het nog eens gebeurt véél groter is, vanwege het feit dat het één en dezelfde moeder is die de kinderen baart. De gebeurtenissen zijn niet onafhankelijk en de hele 0.01% x 0.01% berekening klopt dus niet.

(Ondertussen heeft mijn Twitter-kameraad Koenfucius mij een link naar het hele verhaal bezorgd, waarvoor dank, Koen! Hier te vinden: http://en.m.wikipedia.org/wiki/Sally_Clark)

Ook zat ik laatst met mijn vriendin naar De Rechtbank te kijken, een bijzonder interessant programma. En daar komen nogal eens wat dronken chauffeurs langs. En wat ik toch niet kan laten, is opmerken dat degenen die gewoon een verkeersbord omrijden of ergens in een rij geparkeerde auto’s crashen, er altijd zo goed mee wegkomen! Ik zag er zelfs eentje lachen nadat hij zijn straf hoorde. Een paar honderd euro boete, misschien een kleine werkstraf. Naar mijn normen is dat toch vrij goed wegkomen, niet?

In ieder geval, als vakidioot kan ik het niet laten om dan telkens te denken… what if? Stel dat ik op dit moment op café zit. Ik drink 10 pinten. Ik ga naar buiten en stap in de auto. Ik woon 15 minuten verderop. Hoe ziet de kansverdeling van de komende 15 minuten eruit voor mij? Wel, ik geef maar een voorbeeld:

  • 96% => ik kom ongedeerd en zonder problemen thuis aan
  • 2% => ik word gepakt door de politie, moet blazen, en krijg een boete
  • 1% => ik vlieg ergens in de gracht en mijn auto is total loss
  • 1% => ik neem een fietser mee en die sterft aan zijn verwondingen

Uiteraard is dit slechts een voorbeeld. Er zijn honderden, zoniet duizenden dingen die kunnen gebeuren, maar die kan ik natuurlijk allemaal niet opnoemen. Ik denk dat er niet veel mensen zullen beargumenteren dat ik niet gestraft dien te worden. Vanaf het moment dat ik dronken in de auto stap, verdien ik een straf. Waarom? Omdat ik bewust het risico verhoog dat ik schade zal aanrichten aan derden, waarvan zelfs een niet te onderschatten kans om mensen te verwonden of te doden. En natuurlijk verhoog ik ook het risico dat ik zelf zal sterven. Maar helaas, we kunnen niet iedereen pakken. Er worden maar 4 op 100 chauffeurs gepakt in mijn voorbeeld, want die anderen komen zonder veel problemen thuis aan.

Wat is mijn punt dan? Wel, dat die 4 chauffeurs die gepakt worden een andere straf zullen krijgen. Dat we die 96 anderen niet pakken, daar kunnen we weinig aan doen. Maar we kunnen op zijn minst die 4 gepakten op een eerlijke manier bestraffen. Die 2% moet een boete betalen en is mogelijk ook een tijdje het rijbewijs kwijt. Die 1% grachtliggers krijgen wellicht een kleine boete voor dronken rijden, who knows. Maar die 1% die de fietser dood rijden, wat gebeurt daarmee? Die krijgt wellicht een gigantische boete, misschien zelfs een gevangenisstraf en niet te vergeten de eindeloze misprijzing van de maatschappij. Nochtans hebben al die 100 chauffeurs exact hetzelfde gedaan. Sommigen hebben geluk gehad, anderen iets minder. En het is daarom dat ik het zo vreemd vind dat rechters milder lijken wanneer er niet al te veel schade werd aangericht.

Ik besef maar al te goed dat we niet iedereen kunnen pakken. Maar eenmaal de mensen gepakt zijn, wat houdt ons tegen om hen te bestraffen op basis van de kansverdeling die ze gekozen hebben, in plaats van de uitkomst uit die kansverdeling? “Ah, gij kiest ervoor om dronken te rijden, dat is dan X euro of Y gevangenis”. En dan maakt het niet uit of je een fietser meehebt of niet. En natuurlijk zijn er ook nuchtere mensen die ooit eens een fietser meenemen, maar die hebben dan weer een andere kansverdeling (veel minder risicovol uiteraard) en hoeven dan ook niet zo hard (of zelfs helemaal niet) gestraft te worden. Nog een voorbeeldje: ik sla iemand tegen zijn oogkas en hij valt van de trap. Breekt hij zijn nek, dan heb ik doodslag aan mijn broek. Breekt hij zijn wijsvinger, dan betaal ik misschien een kleine schadevergoeding. En nochtans hangt veel van die uitkomst af van het geluk, van het toeval.

Al bij al, ik pleit ervoor dat men meer rekening houdt met het toeval bij het straffen van mensen. And for that matter: ook bij het belonen van mensen (in de bedrijfswereld vooral dan). Geef iedereen die een bepaalde “kansverdeling” kiest een gelijke straf, ongeacht de uitkomst van die kansverdeling. Degene met geluk straffen we dan meer dan nu, degene met pech wellicht iets minder. En gemiddeld komt de straf mooi overeen met de daad, en hebben we dat hele systeem van “geluk hebben” weer iets minder belangrijk gemaakt. Iedereen gelijke kansen, toch? Ik vind het daarom ook jammer dat studenten in de Rechten geen statistiek krijgen (aan de KUL toch niet althans, al is het wel een van de tientallen keuzevakken, wellicht niet echt populair). Dat is jammer, want mensen hebben van nature uit een aangeboren drang om kansen en statistiek te negeren. Dat is al vaak wetenschappelijk aangetoond (zie bijv. het werk van Kahneman). Dus zoiets moet in onze opleiding zitten. Zelfs al op het middelbaar, vind ik.

Maar zoals ik al zei, ik ben geen specialist terzake en ik vertel hier gewoon maar wat observaties die ik maak terwijl ik TV kijk. Net zoals bij iedereen is mijn hersenactiviteit ook niet optimaal tijdens het TV kijken, dus vergeef mij mijn schulden… 😉