Pensioensparen: in ideale omstandigheden stort je álles in januari

Sommige mensen doen aan pensioensparen zodat ze later geen te sterke terugval in hun levenskwaliteit moeten ondergaan. Er zijn vele manier om aan pensioensparen te doen, maar de bekendste is ongetwijfeld de derde pijler die de overheid fiscaal aantrekkelijk maakt. Ieder jaar kan je tot 30% van je storting recupereren op je belastingsaangifte. In 2014 kan je maximaal 950 euro storten in zo’n fonds en dus maximaal 285 euro belastingen uitsparen. Ik heb al eens een stukje geschreven over pensioensparen dat ingaat op vele vragen, dus daarover ga ik het hier nu niet hebben. Maar januari komt eraan en daarom is het tijd om dit even mee te geven: indien mogelijk kan u best alles in januari storten. De volledige 950 euro in januari dus, in plaats van het bedrag te verdelen per semester, trimester of maand.

De reden is eenvoudig. Het fiscale voordeel (lagere belastingen dus) voor 2014 heb je sowieso, of je nu op 1 januari 2014 of 31 december 2014 je volledige storting doet, of verspreid doorheen het jaar. Maar als je in januari je storting doet, bouw je al 12 maanden lang rendement op. Hoe later je stort, hoe meer rendement je verliest doordat het geld niet rendeert in je pensioenfonds. Er zijn natuurlijk enkele details. Stel bijv. dat je het geld niet ter beschikking hebt, dan mag je deze post natuurlijk volledig negeren. Je kan niet storten wat je niet hebt. Maar als je het geld wel hebt, dan zal dat wellicht op een spaarrekening staan, waar de rente momenteel bijzonder laag is.

Stel dat een spaarrekening 2% opbrengt en dat je pensioenfonds een verwacht rendement heeft van 5%. Als je alles begin januari stort, dan heb je eind december 997.50 euro in je fonds. Als je alles eind december stort, dan heb je uiteraard maar 950 euro in je fonds eind december en min of meer 19 euro rente op je spaarboekje. Dat is een verschil van 28.5 euro of 3% van 950 euro. Het fiscale voordeel is uiteraard voor al die stortingen gelijk en maximaal 285 euro. Maar op de belegging zelf verlies je toch heel wat geld, en dat zou jammer zijn als je het geld toch ter beschikking zou hebben. Slimme mensen zullen nu zeggen: ja, maar geld in een pensioenspaarfonds draagt risico, terwijl een spaarrekening toch veilig is! Dat klopt ja, maar mijn vraag aan jou is dan: waarom zou je geld op een spaarrekening laten staan als je toch al lang bereid was om dat risico te trotseren?

Stel nu dat je 950 euro zou storten in januari, of dat bedrag zou spreiden per maand. Als je alles begin januari stort verwacht je 997.50 euro eind december. Als je maand per maand 79.17 euro stort verwacht je eind december 971.58 euro in je fonds en heb je doorheen het jaar 10.32 euro rente opgebouwd op je spaarrekening, voor een totaal van 981.90 euro. Dat is dus een verschil van 15.60 euro of 1.64% van 950 euro. Uiteraard is dat verschil niet supergroot, maar als je het geld toch ter beschikking hebt is het makkelijk om het verlies te vermijden. In realiteit zal je zelfs nog minder rente opbouwen omdat je getrouwheidspremie volledig wegvalt. Geen enkel deel van je spaarsom staat immers 12 maanden vast. De rente daarop zal dus nog een pak lager uitvallen. Aan een rente van 0.75% per jaar is het verschil tussen meteen storten en per maand storten al 22.06 euro of 2.32% van 950 euro. Voor iemand van de boerenbuiten, zoals ik, kan dat toch tellen.

De reden die je vaak zal horen om gespreid te storten is de volgende. De beurs staat soms hoog en soms laag. Als je in één keer koopt en je hebt pech, dan koop je net hoog en kan het alleen nog zakken. Als je daarentegen verspreid koopt, dan koop je soms hoog en soms laag en heb je gemiddeld geen probleem. Men noemt die strategie dollar cost averaging (DCA).

Ik volg dit argument niet echt. Het traditionele argument tegen DCA is dat beurs op een termijn van maanden zo goed als onvoorspelbaar is, in de zin dat de kans dat de beurs zal zakken of stijgen over een aantal maanden praktisch constant is doorheen de tijd. Dit wil niet zeggen dat de kans op stijgen en dalen gelijk zijn, enkel dat beide kansen constant zijn doorheen de tijd. Bijvoorbeeld: als we deze maand een kans van 49% hebben op een dalende beurs, is dat volgende maand ook zo. Als we spreken op een termijn van jaren, dan is dat duidelijk niet het geval (zie mijn eerdere posts), maar we spreken hier in termen van 1, 3 of misschien 4 maanden. Op zo’n termijn kan je amper voorspellingen doen die verklaringskracht hebben. Ook zijn er niet echt sterke bewijzen dat de beurs nu eens hoog en dan eens laag zou staan op een maandelijkse horizon. Achteraf staat de beurs uiteraard altijd hoog hier en laag daar, dat zie je op iedere grafiek. Maar vooraf (en dit is belangrijk voor ons!) is er geen goede manier om te voorspellen waar de beurs zal staan binnen één maand of een paar maanden. Zoals ik zei, op langere horizonten, zoals 5 jaar, zijn er wel zo’n bewijzen.

Om de logica van vooraf en achteraf nog even te illustreren: als je een munt opgooit en een sommetje bijhoudt: +1 als het kop is en -1 als het munt is, dan zal je achteraf ook zien dat die som soms hoog is en soms laag. Wil dat zeggen dat je op voorhand kan bepalen of je hoog of laag zit? Natuurlijk niet. Je kan denken dat je hoog zit, enkel om een jaar later te zien dat alles gewoon verder gestegen is. Hieronder een voorbeeld van zo’n som op basis van kop en munt. Lijkt veel op de beurs, niet?

kopmunt

Market timing, zoals dat dan heet, is een strategie die niet echt succesvol blijkt te zijn, of op zijn minst is haar succes controversieel. Market timers proberen op basis van signalen (of hun buikgevoel) te bepalen wanneer de beurs zal zakken of stijgen. Zoals je wel kan opmaken uit mijn andere blogposts ben ik niet echt een believer wanneer het aankomt op market timing. De reden is eenvoudig: er bestaat weinig tot geen empirisch bewijs van het succes van zulke strategieën.

Voor mij is het dus eenvoudig: als ik besloten heb om in een bepaald jaar aan pensioensparen te doen, en als ik het geld ter beschikking heb, dan stort ik alles in januari.

edit: Ik heb recent wat literatuur opgezocht omtrent DCA. De vroegere papers komen tot de conclusie dat DCA inferieur is aan lump-sum investing (alles in één keer storten). Meer recente papers gebruiken complexere methodes en lijken wel te kunnen aantonen dat DCA bepaalde vormen van risico kan inperken. De kans op grote verliezen zou bijvoorbeeld kleiner kunnen zijn. Wat echter vrij logisch is, is dat DCA sowieso aan je rendement zal vreten omdat je geld langer in een laagrentend product zit en minder lang in een hoogrentend product. In essentie verlaag je met DCA dus zowel je risico als je rendement.

Voorspelt het beursrendement van januari dat van februari t/m december?

Ik volg regelmatig op het internet enkele topics over de beurs, om een beetje bij te blijven over waar mensen in de praktijk van wakker liggen. Vandaag kwam ik een interessante stelling tegen, nl. de volgende:

“Ik hoop op een sterk januari. Dat is historisch zowat de sterkste maand en een bullish januari belooft meestal een bullish jaar.”

In die uitspraak zitten dus twee falsifieerbare hypothesen vervat. Ten eerste dat januari de sterkste maand is en ten tweede dat een sterk januari een voorspeller is voor een sterk februari t/m december. Ik heb dat eens rap getest met data van de S&P500 index over de periode 1950-2013, want ik heb immers niets beter te doen. Het maandelijks rendement ziet er als volgt uit:

returns

Vrij volatiel dus, en merk ook Black Monday op in 1987. Cool!

Is januari een sterkere maand?

Uit de data blijkt niet dat januari het beter of slechter doet dan andere maanden. Een grafiek met boxplots zou dit al intuïtief moeten duidelijk maken. Maar ook een regressiemodel waarbij we maandelijks rendement regresseren op een constante en elf maandelijkse dummies (het equivalent van een one factor ANOVA test trouwens) wijst niet op een hogere return in januari. De meeste maanden hebben trouwens een marginaal hoger gemiddelde rendement, maar niets speciaals.

permaand

Dat we geen januari effect vinden was nochtans niet helemaal te verwachten, want het januari effect werd al vaker ontdekt in datasets (Wikipedia). Maar in de S&P500 returns vinden we het dus niet. Mogelijk op andere plaatsen wel, daar doe ik hier geen uitspraak over.

Voorspelt januari een goed jaar?

Ook dit kan je statistisch analyseren. Januari presteert dan misschien niet bepaald beter of slechter dan andere maanden, maar misschien is het een goede voorspeller voor de rest van het jaar? Ook dit kan je simpel testen door het rendement over de maanden februari-december te linken aan het rendement in januari. Ook hier bestaat voor de S&P500 geen enkel verband. Het rendement over de periode februari-december is gelijk aan een constante 8.82%, plus een extra rendement van 0.32% voor iedere 1% hogere return in januari. Maar (!!!) die 0.32% is allesbehalve statistisch significant. M.a.w. die zou even goed nul kunnen zijn. Of helemaal correct: als de impact in realiteit écht nul zou zijn, dan zou er nog 62% kans bestaan om 0.32% of extremer te vinden in een dergelijke steekproef. Allesbehalve overtuigend dus. Bovendien stelt een rendement van 0.32% over 11 maanden ook niet echt veel voor, zeker niet als je weet dat superveilige beleggingen ergens in die periode nog meer dan 7% opbrachten.

De onderstaande grafiek toont in het rood het werkelijke rendement over de maanden febuari-december en in het blauw het voorspelde rendement op basis van het rendement in januari. Ook hier zie je niet veel voorspellingskracht.

januari[1]

Bestaan er geen enkele trends op de beurs?

Er bestaan empirisch gezien wel enkele trends of voorspelbaarheden, zowel doorheen de tijd als tussen de aandelen. Doorheen de tijd kan je bijvoorbeeld een duidelijk relatie onderscheiden tussen dividend/prijs ratios en toekomstig rendement. Tussen de aandelen op éénzelfde tijdstip bestaat er ook voorspelbaarheid. Aandelen met hoge book equity / market equity ratio doen het veel beter dan aandelen met een lage B/M ratio. Ook doen aandelen met hoog momentum het beter dan aandelen met laag momentum. Maar ik heb hier eigenlijk al een serieuze blogpost over geschreven die ook wat meer ingaat op oorzaken, moest je geïnteresseerd zijn: Some thoughts on efficient markets, return predictability and bubbles.

Conclusie

Met andere woorden: niet te snel geloven in allerlei trends en feiten die zouden bestaan omdat iemand u dat vertelt. Neem er wat data bij en doe de test. Of ga op zoek naar papers die het testen. Schakel in ieder geval je gevoel en je geheugen uit, want die spelen alleen maar met je kl*ten. Als ik een mooie uitspraak mag lenen van collega-blogger Andreas Tirez: opinions are cheap, facts are expensive.

Waarom maakt meer kapitaal een bank veiliger?

Er is de laatste tijd heel wat te doen over de nieuwe bankenwet. België gaat verder dan Europa in haar regelgeving en zou volgens de grootbanken te streng zijn. Koen Schoors legt in Terzake uit dat hij het eens is met de banken in die zin dat de overheid niet zou moeten proberen om banken veilig te maken. Banken moeten risico nemen, dat is immers hun functie. Ze nemen en herverdelen risico. Zelfs eenvoudigweg spaargeld ontvangen en dat uitlenen aan bedrijven houdt risico’s in. Ik ben ook akkoord dat risico’s nemen of herverdelen geen probleem is. Sommige mensen horen het woord “swap” en denken meteen aan exotische zaken die groot risico meebrengen, terwijl swaps in realiteit vaak dienen om risico’s te verlagen.

Wat wél een probleem is, is de hoeveelheid kapitaal die in de bankensector wordt aangehouden. Banken moeten véél en véél meer kapitaal aanhouden. Nu ligt dat gemiddeld ergens rond de 4 à 5% van hun totale waarde. Ik denk dat dat gigantisch omhoog moet om de banksector gezond te maken, niet naar 8 of 9% maar eerder richting 20-30%. Maar waarom moét een bank dan meer kapitaal aanhouden, terwijl we bedrijven zulks nooit zullen verplichten? Wel, bedrijven kunnen rustig failliet gaan zonder teveel weerslag op de economie (tenzij ze allemaal samen failliet gaan natuurlijk). Maar banken hebben soms balansen die groter zijn dan het BBP. Als zo’n instelling failliet gaat kan dat (zo stelt men althans) gigantische schade veroorzaken aan de economie. Daarom moeten banken als een speciaal geval bekenen worden en moet hun kapitaal gereguleerd worden. Waarom een bank veiliger wordt wanneer ze meer kapitaal aanhoudt, leg ik hier uitgebreid uit aan de hand van een eenvoudig economisch model dat in de jaren ’70 werd bedacht door Nobelprijswinnaar Robert Merton.

Laten we ons een eenvoudige bank inbeelden. Deze bank financiert zich op twee manieren: enerzijds met kapitaal (of eigen vermogen: beleggers kopen aandelen van de bank) en anderzijds met schulden (of vreemd vermogen: beleggers kopen obligaties van de bank). Het geld dat de bank hiervoor ontvangt wordt gebruikt om activa (bezittingen) aan te schaffen. Bijvoorbeeld: men koopt overheidsobligaties, men verstrekt leningen zoals hypotheken en investeringskredieten, en dergelijke meer. Onze eenvoudige bank is heel braaf en heeft 100.000 euro opgehaald bij aandeelhouders en 100.000 euro bij obligatiehouders (50% kapitaal dus). De aandeelhouders hoeft de bank niet terug te betalen, maar de obligatiehouders natuurlijk wel. Om het simpel te houden veronderstellen we dat onze bank obligaties heeft uitgegeven die allemaal binnen 5 jaar terugbetaald moeten worden. Indien de bank dat dan niet kan doen, gaat ze failliet. De balans ziet er dus zo uit:

balans

Merk ook op dat kapitaal niet is zoals geld in een sok onder het bed of zoals geld op een spaarrekening. Kapitaal is niet hetzelfde als een potje dat je bijhoudt voor slechte tijden. Kapitaal heeft enkel te maken met de manier waarop de bank zich financiert. Een deel is kapitaal, de rest is schuld. Met dit geld koopt ze activa.

Een bank is natuurlijk een onderneming en elke onderneming heeft een marktwaarde. De marktwaarde van de bank is gelijk aan de marktwaarde van alle activa. De economie gaat op en neer, aandelen gaan op en neer, en dus gaat zo’n marktwaarde op en neer, al zal ze gemiddeld stijgen. In ons eenvoudige model gaan we veronderstellen dat de bank failliet gaat wanneer ze binnen 5 jaar haar obligaties niet kan terugbetalen. En om te beoordelen of ze dat kan, kijken we naar de marktwaarde van de activa. Als de waarde van de activa na vijf jaar hoger is dan de schulden die terugbetaald moet worden dan is er geen probleem. Echter, als de waarde van de activa van de bank op het einde van die vijf jaar lager is dan de schulden, dan gaat de bank failliet. Zelfs als ze alles verkoopt zal ze niet haar schulden kunnen terugbetalen.

We hebben nu dus de structuur van onze bank en de voorwaarde voor een faillissement besproken. Het enige wat nu nog rest is om eens te kijken naar die activa en hoe die schommelen doorheen de tijd. We kunnen daar een statistisch proces op plakken, en dat vergt wat wiskunde. Het komt er gewoon op neer dat de waarde van de assets gemiddeld zal stijgen met ongeveer 0.5% per maand, maar dat er ook grote en onvoorspelbare schokken zullen zijn.

(Voor de nerds: het maandelijks rendement op de activa is gemiddeld 0.5% met een standaardafwijking van 5%.)

Alle ingrediënten zijn nu op zijn plaatst om te zien wat er allemaal met deze bank kan gebeuren. We kunnen bijvoorbeeld makkelijk een mogelijk toekomstig pad van de activa simuleren. Als je meer wil weten over simulatie kan je mijn andere blogpost lezen over simulatie. Als ik drie mogelijk paden simuleer, dan kunnen die er bijvoorbeeld zo uitzien:

driepaden

Zoals jullie zien is de waarde van de activa na vijf jaar in alle drie de gevallen boven 100.000 euro en zal de bank dus niet failliet gaan. In het blauwe geval is het echter wel heel nipt geweest. Het was bijna zover… Laten we dit nu eens niet drie, maar tienduizend keer simuleren! We kunnen dan kijken in hoeveel gevallen de bank failliet gaat en dus de kans op een faillissement berekenen.

De waarde van de activa bij de start is altijd 200.000 euro. Als de bank 50% kapitaal aanhoudt heeft ze dus 100.000 euro kapitaal en 100.000 euro schulden. Uit de simulatie blijkt dat de bank ongeveer 0.80% kans heeft om failliet te gaan na vijf jaar. Die kans is toch zeer klein. Laten we nu eens veronderstellen dat de bank niet 50% maar 25% kapitaal zou aanhouden, m.a.w. 50.000 euro kapitaal en 150.000 euro schuld. Uiteraard moet de bank nu ook meer terugbetalen na vijf jaar. De kans op faillissement is nu al gestegen tot 9%. En als de bank slechts 5% kapitaal zou aanhouden wordt die kans al 24%. We zien dus duidelijk dat minder kapitaal wil zeggen dat de kans op een faillissement stijgt! De intuïtie is heel eenvoudig: hoe minder kapitaal een bank aanhoudt, hoe meer schulden ze heeft uitstaan. De waarde van de activa schommelt op en neer, en hoe hoger die schulden liggen, hoe groter de kans dat de waarde van de activa er ooit wel eens onder zou kunnen liggen. En dan is het zover natuurlijk!

Als we kijken naar de verdeling van de waarde van de activa na vijf jaar, dan bekomen we onderstaand histogram. De rode lijn stelt de 100.000 euro lijn voor, die belangrijk is voor onze bank met 50% kapitaal. Alle gevallen aan de linkerkant van die lijn staan voor een faillissement. En nu kan je nogmaals zien dat wanneer je minder kapitaal hebt, je dus meer schuld hebt en die rode lijn dus naar rechts zal verschuiven. Hoe meer die rode lijn naar rechts zal verschuiven, hoe meer gevallen er links van de rode lijn zullen liggen. Bijgevolg: hoe groter de kans op faillissement!

(Voor de nerds: de waarde van de activa na vijf jaar is in dit model inderdaad lognormaal verdeeld, zoals je kan zien op de grafiek. Dit is natuurlijk omdat het rendement normaal verdeeld is. Analytisch gezien kan je de parameters van de verdeling ook gewoon berekenen in het model en zo de kans op een faillissement 100% correct berekenen.)

histogram

De intuïtie achter “meer kapitaal aanhouden!!!” is dus zeer eenvoudig. Langs de ene kant hebben we de activa van een bank waarvan de waarde niet beïnvloed wordt door de mix tussen kapitaal en schulden, maar door economische schokken en de risico’s die de bank neemt. Langs de andere kant hebben we de financieringsmix van de bank (kapitaal & schulden). Hoe minder kapitaal, hoe hoger de schulden. En hoe hoger de schulden, hoe groter de kans dat de activa onvoldoende zullen blijken om de schulden af te betalen. In dat geval spreken we van een faillissement.

Natuurlijk stelt dit model veel zaken simplistisch voor, maar het was ons hier niet om precisie te doen, maar om intuïtie. Banken moeten MEER kapitaal aanhouden! Bovendien moeten ze ook MEER kapitaal aanhouden wanneer hun activa risicovoller worden. Op die manier verkleint de kans op een faillissement, hetgeen een groot deel van het hele too-big-to-fail probleem oplost. En laat in hemelsnaam nooit nog een belastingbetaler opdraaien voor een onderneming.

Waarom daalt de prijs van een obligatie als de rente stijgt?

Onlangs zag ik een heel mooi stukje Reyers Laat, waar Pascal Paepen een beetje uitleg kwam geven over financieel analfabetisme. Ik was zeer onder de indruk van zijn betoog, vooral omdat hij een paar bijzonder sterke conclusies trok:

  • We sparen meer dan 247 miljard euro, doch kennen weinig mensen het verschil tussen de basisrente en de getrouwheidspremie.
  • Obligaties zijn niet risicoloos.
  • Iedereen hoort wat meer af te weten van “economie”.
  • Mensen zijn zich niet meer bewust van risico’s.
  • Banken nemen risico en ook spaarbanken kunnen failliet gaan.
  • Als je meer rendement krijgt, neem je meer risico.

Al bij al zijn dit allemaal uitstekende observaties. Het laatste punt is zo’n punt waarop ik altijd probeer te hameren als mensen mij iets vragen over de financiële markten. Dan is dat het beste advies wat je kan geven en het is nog gratis ook. Als een product meer rendement biedt, dan hangt er meer risico aan vast. En als je dat risico niet kunt zien, dan moet je beter kijken. Omgekeerd is het niet altijd het geval: als een product een lager rendement biedt, hangt er niet altijd een lager risico aan vast. Het kan namelijk zijn dat banken of fondsbeheerders te hoge kosten aanrekenen waardoor je rendement, ondanks het risico, lager zal zijn dan normaal. Zijn punt over spaarbanken die ook failliet kunnen gaan is natuurlijk ook uitstekend. Het is een illusie om te denken dat ze niet failliet kunnen gaan en dus gerelateerd aan punt 4: mensen zijn zich niet meer goed bewust van risico’s. Kijk maar naar de savings & loans crisis in de VS. Wat banken nodig hebben om minder risicovol te worden, is meer kapitaal! Dat iedereen wat meer hoort af te weten van economie is logisch, het is immers voor hun eigen goed. Er zijn mensen die 20.000 euro in Fortis gestoken hebben en nu alles kwijt zijn. Een simpel boek over beleggen, of zelfs gezond boerenverstand, had hen ook een belangrijke les meegegeven: leg niet alle eieren in één mand. Nog genoeg te leren dus.

In het clipje haalt men ook een vraag aan:

Een stijging van de langetermijnrente…
A) … doet vooral de prijzen van langlopende obligaties stijgen.

B) … doet vooral de prijzen van kortlopende obligaties stijgen.
C) … doet vooral de prijzen van langlopende obligaties dalen.
D) … doet vooral de prijzen van kortlopende obligaties dalen.

Bruno Tobback geeft intuïtief het juiste antwoord. Hij weet, zoals hij hoort te weten, dat prijzen dalen als rentevoeten stijgen. En intuïtief voelt hij aan dat de langetermijnrente vooral met langetermijn obligaties te maken heeft. Goed geredeneerd dus. Maar waarom is dat juist? Ik zal het hier uitleggen en daardoor hopelijk een héél klein steentje bijdragen aan het verbeteren van de financiële kennis. Ik ga een intuïtief antwoord geven, maar ook een wiskundig antwoord.

Waarom daalt (stijgt) de prijs van een obligatie wanneer de rentevoeten stijgen (dalen)?

Eerst wat achtergrond. Een obligatie is, net zoals een aandeel, een effect dat je kan kopen en verkopen op de financiële markten. Het verschil met aandelen is dat er iets meer zekerheid is omtrent de toekomstige kasstromen die uit zo’n obligatie voortvloeien. Bij aandelen zijn dat onzekere dividenden, bij obligaties zijn dat in zekere zin zekere couponbetalingen. Al mag je nooit vergeten dat die betalingen nooit 100% zeker zijn: als het bedrijf of de overheid die de coupons moet betalen failliet gaat, krijg je geen coupons meer. Als je een obligatie koopt krijg je doorgaans een hele periode coupons uitgekeerd, en op het einde krijg je je volledige inleg terug. Zo zijn althans de meeste obligaties gestructureerd.

1) De intuïtieve benadering

Ik ga beginnen met een intuïtieve oplossing van het probleem. Stel je koopt vandaag een obligatie voor de prijs van 1000 euro. Het is een obligatie die je tien jaar lang recht geeft op een coupon van 2%. Je krijgt dus negen jaar lang 20 euro coupon en in het tiende jaar 1020 euro (coupon + initieel bedrag). Stel nu dat morgen de langetermijnrente stijgt. Waarom daalt de prijs van onze obligatie? Wel, als de langetermijnrente stijgt, dan wil dat zeggen dat wanneer iemand nieuwe obligaties wil uitgeven, hij een hoger rendement zal moeten bieden aan potentiële kopers. Die willen uiteraard vergoed worden aan de nieuwe, hogere rente. Dat kan bijvoorbeeld door een hogere coupon aan te bieden, bijv. 3%. Stel nu dat jij ook 3% coupon wilt. Je kan altijd je obligatie met 2% coupon verkopen en beleggen in de nieuwe obligatie met 3% coupon. Maar gaan mensen je nog steeds 1000 euro geven voor uw obligatie met 2% coupon? Natuurlijk niet, ze geven minder, want voor 1000 euro kunnen ze nu óók een obligatie krijgen met een coupon van 3%. Je zal dus minder moeten vragen voor uw obligatie, wil je kopers vinden, vandaar een daling van de prijs. Je kan het ook omgekeerd zien: als rentevoeten dalen, dan worden de nieuwe obligaties minder interessant t.o.v. jouw obligatie. Ze bieden immers een lager rendement. Vandaar dat jouw obligatie dan in waarde stijgt.

En nu moeten we nog bekijken waarom de langetermijnrente vooral gelinkt is aan langlopende obligaties. Je kan een rente eigenlijk zien als een soort van waarderingsmechanisme. De rente kan je gebruiken om te zien hoeveel waarde je vandaag kan hechten aan toekomstige ontvangsten. Een langetermijnrente is de waarde die men hecht aan ontvangsten die nog lang op zich laten wachten, en een kortetermijnrente is de waarde die men hecht aan de ontvangsten die niet meer zo lang op zich laten wachten. De obligatie hierboven is duidelijk langlopend, want pas na 10 jaar krijg je het grote bedrag 1020 terug. De tussentijdse coupons zijn een pak lager. De waarde van de obligatie hangt dus vooral af van een groot bedrag dat je pas binnen 10 jaar zult ontvangen. En zo’n bedrag ver in de toekomst kan je, zoals ik zei, waarderen door te kijken naar de langetermijnrente. Als de langetermijnrente verandert, zijn het dus vooral kasstromen in de verre toekomst die van waarde zullen veranderen. Vandaar dat de langetermijnrente vooral een impact heeft op langlopende obligaties: dat zijn immers de effecten met ontvangsten die nog lang op zich laten wachten.

2) De wiskundige benadering

De prijs van eender welk effect kan je altijd uitdrukken als de huidige waarde van alle toekomstige kasstromen die uit dat product voortvloeien. Met huidige waarde verwijs ik naar het feit dat 1 euro in de toekomst niet hetzelfde is als 1 euro vandaag. Als je immers 1 euro spaart of investeert, dan heb je in de toekomst wellicht meer dan 1 euro. Een voorbeeldje met een rente van 2%. Als je volgend jaar 1 euro wil hebben, moet je vandaag 0.98 euro sparen, want 0.98 x 1.02 = 1 euro en ook 1 euro / 1.02 = 0.98 euro. 1 euro volgend jaar is vandaag dus 0.98 euro waard. Er speelt dus een tijdseffect en de rente wordt gebruikt om dat tijdseffect in rekening te brengen. De formule die we gebruiken om een waarde te plakken op obligaties is als volgt:

P_0 = \frac{C_{1}}{(1+R_{1})^1} + \frac{C_{2}}{(1+R_{2})^2} + \frac{C_{3}}{(1+R_{3})^3} + ... + \frac{F+C_{T}}{(1+R_{T})^T}

De prijs van een obligatie vandaag P_0 is dus de som van alle toekomstige coupons C_1, C_2, ..., C_T en het bedrag van de obligatie F, waarbij iedere kasstroom terug gerekend wordt naar vandaag door gebruik te maken van de termijnspecifieke rentevoeten R_1, R_2, ...,R_T. We verwijzen met o.a. R_1 naar een kortetermijnrente en met R_{10} o.a. naar een langetermijnrente. Je ziet aan de formule al dat wanneer één of meerdere rentevoeten stijgen, de noemer in de breuk zal stijgen, waardoor de totale uitkomst zal dalen. Bijgevolg zien we waarom dat prijzen dalen als rentevoeten stijgen, en waarom prijzen stijgen als rentevoeten dalen. Bovendien zie je ook meteen waarom de langetermijn rente vooral een invloed heeft op langlopende obligaties. Stel je hebt twee obligaties A en B met een initieel bedrag van 100 euro en 2% coupon. A loopt volgend jaar af en B binnen vijf jaar. Hun prijzen zijn respectievelijk:

P_0^A = \frac{102}{(1+R_1)^1}

P_0^B = \frac{2}{(1+R_{1})^1}+\frac{2}{(1+R_{2})^2}+\frac{2}{(1+R_{3})^3}+\frac{2}{(1+R_{4})^4}+\frac{102}{(1+R_{5})^5}

Stel nu dat R_5 zou stijgen, dan zie je dat dit enkel een impact heeft op P_0^B maar niet op P_0^A, want in de formule voor P_0^A zit R_5 niet eens verwerkt, R_5 is daar niet relevant. Een vijfjaarsrente is nu niet meteen een langetermijnrente, maar ik kon ook moeilijk een hele lange formule gaan neertypen. Je ziet nu tenminste hoe het werkt…

Bij deze dus het antwoord op de vraag.

Simulation: simulating uncorrelated and correlated random variables

FYI: This is a text about basic simulation, nothing fancy, but you do have to know some basic math and statistics. Nothing special though… they taught me matrices, means, standard deviations and the normal distribution when I was 16 years old. So this stuff is not rocket science at all. It’s useful for people like me but 4 years younger, still looking for the answer to the question I will describe below. It’s useful for people who like finance but don’t have a strong core yet. It’s also useful for people who just want to refresh some things, or for people who want to use some of this stuff in their work. And of course for people who don’t know what simulation means.

Simulation is easy to understand. You just have to recognize that in this world, some things happen by chance. Once you accept that, you can move on and try to understand the process that generates those chances. Once you find that process, you can use simulation to simulate alternative paths. For example: in real life you might toss a coin and get two times heads and three times tails. But on my computer, I can simulate millions of such coin tosses and see what happens each time. I can simulate alternative paths for the coin toisses and many other random things. This is simulation! Simulation is a huge topic, but I’ll focus here on some things that I encountered and for which I believe that the internet does not yet provide an easy peasy lemon squeezie explanation. You’ll find stuff everywhere, but I’ll try to condense it down to the core here. And I’ll try not to be too technical, since technical readers already have a lot of books to rely on anyway.

A while ago I wanted to simulate companies going into default. It’s likely that companies tend to default at the same time. In other words: defaults are correlated. You can ask yourself similar questions when you’re analyzing stock returns, for example. Stocks tend to move up and down together because their returns are correlated. But you can also simulate your pension plan, or even the temperatures in January. You can simulate the numbers of cars that drive past your house or you can simulate the size of different queues in a supermarket. As one of my PhD supervisors always says: “If you are simulating, you are God”. And it’s true, apart from the fact I can’t seem to simulate a higher balance on my bank account. Maybe I can ask my supervisor about that…? Anyway, if you’re in risk management, you want to be able to simulate all kinds of stuff. Why? Because it allows you to look into the future, within the limits of your model, and see the possible scenarios and their probabilities. Banks may want to simulate all the products in their portfolio (bonds, loans, stocks, derivatives, …) and see what can happen within a given period of time, so that they can adequately prepare themselves for some of the worst case scenarios. This is exactly what they do in real life, and this is exactly what I’m studying in my PhD.

1. Simulating random numbers and uncorrelated random variables

If you’re going to simulate, everything starts with random numbers. Simulating random numbers is very easy. For example, in Excel, the RAND() function will return a random number between 0 and 1, which conveniently corresponds to the definition of a probability. A probability, after all, always lies between 0 and 1. Let me just simulate 10 of those numbers right now:

\begin{bmatrix}0.6853&0.0153&0.4608&0.5975&0.9186&0.3949&0.7921&0.5599&0.3168&0.4258\end{bmatrix}

Now, because a probability always lies between 0 and 1, we can use these random numbers to draw random values from ANY well-defined probability distribution. Given such a distribution, you can calculate the probability for some value or range of values. But it also works the other way around: you can input a probability and get a value. This is the idea of simulation. Normally you calculate probabilities for values, but now we calculate values for probabilities. And those probabilities are easy to randomly generate, using e.g. Excel. For example, we can use the random numbers above to draw 10 random values from a normal distribution with mean 100 and standard deviation 15. Just use the =NORMINV() function in Excel. You specify a probability, a mean and a standard deviation, and you get the values that you want:

\begin{bmatrix} 107&68&99&104&121&96&112&102&93&97\end{bmatrix}

I rounded these numbers. So what do we have now? Well, we have the IQ’s of a group of 10 people, since IQ is normally distributed with mean 100 and standard deviation 15. Neat, huh? But we can also use those 10 numbers between 0 and 1 to simulate 10 stock returns. Suppose those are normally distributed with mean 5% and standard deviation 15% (yes, stocks are risky!), we get something like this:

\begin{bmatrix}12.2&-27.4&3.5&8.7&25.9&1.0&17.2&7.3&-2.2&2.2\end{bmatrix}

You can also use other distributions. For example, I can simulate the number of eyes one can throw when playing dice. I just have to multiply the number between 0 and 1 by 6, and then round up. This gives me:

\begin{bmatrix}5&1&3&4&6&3&5&4&2&3\end{bmatrix}

Yes, this is all extremely cool, but also very simple.

2. Simulating correlated random variables (e.g. stock returns)

We just simulated some observations for one variable. We can do this for more variables as well. If we copy the approach above for many variables, we get a set of uncorrelated variables. But what about situations in which we want correlation between the variables? For example: what if we want to simulate correlated returns for three stocks? Now before we start simulating, we have to think about how stock prices move. They tend to go up on average, which means they don’t have a constant mean over time. For modeling purposes, this is rather annoying. So the solution is easy: let’s look at returns instead. Let’s say we model them like this:

R_t = \mu + \varepsilon_t

This just means that returns at time t, R_t, are always an average \mu plus some random error or “shock” \varepsilon_t. Let’s say we let \mu equal 5% per year and we let \varepsilon_t be a normally distributed independent variable with mean zero and a standard deviation of 15%. Given these assumptions, we can easily simulate say 100 years of \varepsilon_t for each stock and use these to generate the returns for those three stocks. It looks like this:

sim1

Of course, this doesn’t look very informative. So let’s take a look at the prices these returns imply, given that all stocks are worth $100 at the start.

sim2

These lines look like stock prices. But of course, they are uncorrelated. Simulating correlated random variables is pretty easy, although it may look hard. The first thing you need is a correlation matrix \textbf{C}, for example:

\textbf{C} = \begin{bmatrix} 1.0 & 0.5 & 0.5 \\ 0.5 & 1.0 & 0.5 \\ 0.5 & 0.5 & 1.0\end{bmatrix}

This matrix just holds the correlations between each pair of stock returns. Before, we had 100 uncorrelated errors \varepsilon_t for each of the three stocks. In order to transform these to correlated errors, we’re going to put them into a 100\times3 matrix denoted \bf U. Next, we need to take our correlation matrix \bf C and calculate it’s Cholesky decomposition \bf L, which is a transformation which you can easily calculate using mathematical software. I’m not going to explain in detail what a Cholesky decomposition is, just know that the following applies: uncorrelated variables x Cholesky decomposition = correlated variables. Simply put, a Cholesky decomposition \bf L is a matrix such that \bf L^{T}L=C. Look at the bottom of this post for some VBA code. We get the following:

\textbf{L} = \begin{bmatrix} 1.0000 & 0.5000 & 0.5000 \\ 0.0000 & 0.8660 & 0.2887 \\ 0.0000 & 0.0000 & 0.8165\end{bmatrix}

Now we just multiply our matrix of uncorrelated errors \bf U with the Cholesky decomposition \bf L, to get a 100\times3 matrix of correlated errors \bf E

\bf E=UL

And indeed, when we use these correlated errors in order to compute returns and prices, we find the following:

sim3

Maybe it’s hard to see that the first graph has uncorrelated returns and the second one has correlated returns. But if we calculate the empirical correlation matrices of the uncorrelated and correlated returns, we get respectively:

\begin{bmatrix} 1.00 & 0.10 & -0.31 \\ 0.10 & 1.00 & -0.01 \\ -0.31 & -0.01 & 1.00 \end{bmatrix} and  \begin{bmatrix} 1.00 & 0.52 & 0.39 \\ 0.52 & 1.00 & 0.56 \\ 0.39 & 0.56 & 1.00 \end{bmatrix}.

The difference is clear. In the first one, all the correlations are close to 0, while in the second one, all the correlations are close to 0.5 (apart from the elements on the diagonal, which are of course all 1). Of course they are not perfectly equal to 0 or 0.5, but that’s because we’ve only simulated a sample. The correlation matrix \bf C is just the one that holds in the population, but in finite samples the correlation matrix will obviously differ from sample to sample. For example, you can see that even if you simulate numbers with zero correlation, you can still find a correlation of -0.31 in a sample of 100 simulations.

3. Simulating autocorrelated random variables (e.g. GDP growth)

In the previous step, we simulated correlated random variables. In fact, we actually simulated cross-correlated random variables, because the correlation holds at each point in time, or cross-sectionally. Define autocorrelation as the correlation between a series and its own past values. It’s the correlation of a variable with earlier versions of itself. You could look at it as some kind of memory. The random variable has a memory, it remembers past values of itself. You can calculate an autocorrelation with 1 lag, 2 lags, and so on.

We can look at the stock returns (not prices!) of one particular stock and see that there’s not much of a memory in there (prices have memory, returns have not). It makes sense that the autocorrelations are zero for our simulated returns above, because we did nothing at all that would induce autocorrelation. But what about growth in GDP, for example? Let’s have a look at quarterly GDP growth in Belgium since 1996.

simulation3

If we look at the graph, we can clearly see there’s some kind of memory in there. We can see that positive growth is likely to be followed by positive growth and negative growth is likely to be followed by negative growth. We also see that over time, this dependence decreases, as booms turn into busts and busts turn into booms. We see that quarterly growth averages around 0.40% and you can calculate that the standard deviation is about 0.60%. You can also make a histogram of the growth numbers, and you’ll see that growth is approximately normally distributed. Does this mean we can reliably simulate GDP growth by drawing random values from a normal distribution with mean 0.40% and standard deviation 0.60%? No! We need some way to let the next observation know that it should take the previous one into account. So if we want to simulate something like this, we need to specify a process for GDP growth over time. Using the data in the graph, I estimated the following model:

Growth_t = 0.19 + 0.82Growth_{t-1} - 0.28Growth_{t-2} + \varepsilon_t

This means that GDP growth in quarter t is a constant 0.19%, plus 82% of growth in the past quarter, minus 28% of growth two quarters ago, plus a normally distributed random shock \varepsilon_t (with mean zero and a standard deviation of about 0.45%). This obviously means that if growth is high this quarter, it will probably also be high next quarter, but also that if growth is high this quarter, it will probably be lower two quarters in the future. Given all this information and assuming naively for a moment that this can be extrapolated into the future, I can easily simulate a new path for GDP growth. The only thing I need to do is simulate the errors \varepsilon_t and fill in the rest. But how can we start simulating if we don’t have starting values for Growth_{t-1} and Growth_{t-2}? It’s not really a problem. I’ll just set them to zero and simulate some extra quarters in order for the effects of these starting values to fade away. The result will look something like this:

simulation4

You can clearly see that most of the time we have a nice growth, but we have some crises in there as well. Normally we would take a look at more complex models and probably also include variables like unemployment, interest rates, and stuff like that. But at least now you know how to simulate autocorrelated processes. The autocorrelation in the above graph is 0.71 for one lag and 0.35 for two lags, which is probably what you would expect. The reason why the autocorrelation over two lags is 0.35 while in the model it is -0.28 is easy to understand. The autocorrelation between Growth_t and Growth_{t-2} does not take into account that there’s also a positive effect of Growth_{t-1} on Growth_t that plays an important role, namely the autocorrelation over one lag. If we take that autocorrelation into account, we find a partial autocorrelation coefficient over two lags of -0.3257, which makes perfect sense.

Also note that you can also just simulate autocorrelated errors \varepsilon_t by simulating the following model:

\varepsilon_t = \rho\varepsilon_{t-1} + \nu_t

where \nu_t is another normally distributed normal variable with mean zero, a standard deviation you choose yourself and zero autocorrelation. This means that although \nu_t has no autocorrelation, \varepsilon_t will have autocorrelation. The reason we need \nu_t in there as well is because we need some kind of shock into the system, otherwise your variable would just converge to zero for |\rho|<1 or explode for |\rho|\geq1. BOOM! Below is a graph of the following process

\varepsilon_t = \rho\varepsilon_{t-1}.

sim1

Just having a shock \nu_t in there, however, is not enough. You also have to think about \rho as well. In the graph below you’ll find the process:

\varepsilon_t = \rho\varepsilon_{t-1}+\nu_t.

sim2

So watch out when you’re simulating autocorrelated variables. Also please note that you can’t have autocorrelated errors in the model for GDP growth above, or for that matter any model in which a variable depends on older versions of itself (autoregressive models). If you’re building an autoregressive time-series model in which y_t is explained by y_{t-1} and some error \varepsilon_{t}, you have to build your model in such a way that the errors are uncorrelated. If you have such an autoregressive model in which \varepsilon_t is autocorrelated, then that means that \varepsilon_t is correlated with \varepsilon_{t-1}. Since \varepsilon_{t-1} determines the value of y_{t-1}, they will also be correlated. It follows that when you’re estimating a model like y_t = \alpha + \beta y_{t-1} + \varepsilon_t, that there will be correlation between y_{t-1} and \varepsilon_{t}, which violates a critical assumption of regression analysis and causes bias in your coefficients. It’s also called endogeneity. If this is all too technical for you, ignore it for now.

4. Simulating random variables with autocorrelation AND cross-correlation

Simulating a bunch of variables that are cross-correlated (see part 2) and where each of those variables also exhibits autocorrelation (see part 3) is nothing more than a combination of 2 and 3, as you might have expected. First, you generate autocorrelated but cross-sectionally uncorrelated random variables using the methods explained in part 3. Now you have a bunch of cross-sectionally uncorrelated variables that exhibit autocorrelation. The graph below shows and example for the following model:

x_{it} = 0.5x_{it-1} + \varepsilon_{it}

where i refers to one of the three series and t refers to time. An example of such a simulation is:

simulation5

As you can see, each series exhibits autocorrelation, but the three series don’t really seem to move in the same directions. So then, I multiply all those random numbers in the graph with the Cholesky decomposition of the correlation matrix. Let’s say that this time we’ll go with higher correlations:

\textbf{C} = \begin{bmatrix} 1.0 & 0.8 & 0.8 \\ 0.8 & 1.0 & 0.8 \\ 0.8 & 0.8 & 1.0\end{bmatrix}

So that the Cholesky decomposition is:

\textbf{L} = \begin{bmatrix} 1.0000 & 0.8000 & 0.8000 \\ 0.0000 & 0.6000 & 0.2667 \\ 0.0000 & 0.0000 & 0.5375\end{bmatrix}

Again we just multiply the cross-sectionally uncorrelated (but autocorrelated!) series with the Cholesky decomposition to get the cross-correlated ánd autocorrelated series, as shown in the graph below:

simulation6

And you’re done. The graph clearly shows both autocorrelaton within the series as cross-correlation between the series.

5. Conclusion

You now already know a lot about simulation. You know how to simulate random numbers between 0 and 1. You know that you can interpret those numbers as probabilities, such that you can translate them into values coming from any probability distribution, for example a normal distribution. You also know what cross-correlation and autocorrelation means, and how to introduce it in your simulations. Excel is pretty good for simulation. I always start in Excel, and move to MATLAB later on, because it’s much faster and has a lot more functions. I use simulation a lot in my job. I use it to simulate defaults of different companies, because those defaults impact bank losses. I use it to estimate the bias in some models. I use it to judge the performance of different statistical techniques, and so on. A long time ago, I used to do it to evaluate different poker strategies. You can do a lot of nice things. Just don’t forget your economic intuition, because you’ll need it, I’m sure.

VBA code for a Cholesky decomposition.

Just put this code in a module in Excel Developer and use the CHOL() function in Excel. Remember to first select the appropriate number of cells (i.e. the same dimensions as your correlation matrix). Then type ‘CHOL(‘, select your entire correlation matrix and then type ‘)’. Now press Ctrl+Shift+Enter to let Excel know you’re dealing with matrices. The Cholesky decomposition will pop up. Always make sure your correlation matrix is positive semi-definite! Also, in MATLAB you can simply calculate the Cholesky decomposition with the chol() function.

The code (most of it is stolen from this website)

Function CHOL(matrix As Range)

Dim i As Integer, j As Integer, k As Integer, N As Integer
Dim a() As Double 'the original matrix
Dim element As Double
Dim L_Lower() As Double

N = matrix.Columns.Count

ReDim a(1 To N, 1 To N)
ReDim L_Lower(1 To N, 1 To N)

For i = 1 To N
    For j = 1 To N
        a(i, j) = matrix(i, j).Value
        L_Lower(i, j) = 0
    Next j
Next i

For i = 1 To N
    For j = 1 To N
        element = a(i, j)
        For k = 1 To i - 1
            element = element - L_Lower(i, k) * L_Lower(j, k)
        Next k
        If i = j Then
            L_Lower(i, i) = Sqr(element)
        ElseIf i < j Then
            L_Lower(j, i) = element / L_Lower(i, i)
        End If
    Next j
Next i

CHOL = Application.WorksheetFunction.Transpose(L_Lower)

End Function