Europa Nord America Centro America Sud America Africa Asia Oceania

Home | ©2013 La Finanza sul Web | Articolo visto 8987 volte 04 marzo 2013

Ma è davvero possibile calcolare il rischio di un investimento?

Di Redazione  •  Inserito in: Ricerche e Studi

di Enea Franza

 

L’esempio della mela di Keynes e l’applicazione all’economia delle leggi della fisica

Andando a leggere le varie opinioni sulla causa ultima della recente crisi finanziaria, il parere più diffuso sembra essere quello che, in definitiva: “il crack finanziario che sia stato causato da un’errata valutazione del rischio associato agli investimenti effettuati dagli intermediari finanziari e bancari”. Come dire: una svista colossale dei banchieri sul rischio incorporato dai titoli che compravano e vendevano.

Questa idea sembra  essere tenacemente sostenuta da Alan Greenspan, l’ex timoniere della FED, che per primo l’ha lanciata, per poi confermarla a più riprese. In un intervento non molto datato ha, tra l’altro, affermato: “il problema è che i nostri modelli –entrambi i modelli di rischio ed econometrici –  cosi complessi come sono diventati, sono ancora troppo semplici per catturare la serie completa di variabili che regolano la realtà globale del dinamismo economico …[1].

Dietro tale opinione sta, pertanto, il concetto che il rischio di un investimento finanziario possa essere valutato correttamente, e che gli evidenti insuccessi dell’informazione siano dovuti in realtà a situazioni di monopolio e/o agli incentivi messi in campo dalla pubblica amministrazione che hanno finito per ostacolare la formazione di prezzi corretti da parte dei mercati. Insomma, la solita storia del troppo poco mercato e dell’ingerenza pubblica che intralcia quella mano invisibile, che in economia tutto aggiusta!

 La solita storia del poco mercato

 Da tale premessa consegue naturalmente che l’unica strada per gestire la crisi (e prevenirne altre) sia quella di una migliore gestione del rischio da parte delle banche e dei regolatori. Ma come debbano migliorarsi le banche ed i regolatori non è dato sapere, forse – sembrerebbe di intuire – liberalizzando ancora di più il mercato, con regole all’ingresso ancora più leggere e concentrandosi su una politica antimonopolistica ?

Ma veniamo al punto della questione, per capire cosa (eventualmente) ci sia di sbagliato in questa posizione. Ed il punto, sembra strano, ma è forse tutto nella corretta risposta ad un quesito tanto elementare quando ineludibile. E’ effettivamente misurabile il rischio di un investimento? Perché se effettivamente lo fosse, non potrebbe dirsi che l’appello di Alan Greenspan sia da relegare tra le grida di un vecchio economista le cui teorie sono state sconfitte dai fatti della storia. E allora, stanno effettivamente cosi le cose, oppure aveva ragione Keynes nel sostenere che il futuro è incerto, e che i partecipanti del mercato non hanno una conoscenza, nemmeno appena sufficiente, degli eventi futuri ?

Keynes sugli errori di chi vuole applicare il metodo della fisica all’economia scrive: ‘E’ come se la caduta a terra della mela dipendesse dalle motivazioni della mela, se vale la pena di cadere a terra, se la terra volesse la caduta della mela, e dai calcoli errati da parte della mela su quanto distasse dal centro della Terra’. Insomma, secondo Keynes negli eventi dell’economia non ci troveremmo mai nella possibilità di prevedere, come i fisici invece sperimentano quotidianamente di fronte a esperimenti ripetibili, in condizioni equivalenti, come, appunto, la caduta di una mela.

 La differenza tra rischio e incertezza

Per cercare di capire come stanno effettivamente le cose nella valutazione di un investimento, dobbiamo necessariamente inoltrarci nelle metodologie che stanno alla base della valutazione del rischio: tecniche, ricordiamolo, che sono largamente usate dagli intermediari bancari nella gestione dei rischi dei loro investimenti[2]. Vediamo di che si tratta, premettendo da subito, tuttavia, che una grande parte degli economisti (tra i quali Keynes) ritiene che occorra sempre distinguere tra rischio ed incertezza e che mentre il primo possa essere misurato, l’incertezza non sia affatto misurabile neanche con il ricorso al calcolo delle probabilità.

Allora, cerchiamo invece di capire come sia possibile condurre un ragionamento che ci porti a fare delle congetture condivisibili per il futuro andamento di un investimento.

Tornando al modello che normalmente si usa, vediamo come si costruisce un portafoglio non rischioso. Per farlo ricorriamo ad un esempio, che semplificheremo al massimo, scusandoci in anticipo con i cultori della matematica per le approssimazioni che introdurremo.

A rassicurazione di tutti però valga il fatto che le semplificazioni apportate al nostro esempio non tolgono nulla al cuore del problema.

Si supponga che un cliente si rivolga ad un operatore finanziario per avere un consiglio su come investire un patrimonio di 100.000 euro e supponiamo pure che il consulente disponga di alcune informazioni relative a due titoli (supponiamo azioni), legati alle società X e Y, e che danno, rispettivamente, per il primo titolo un rendimento medio del 12%, con una variazione media rispetto a questo valore del 16%[3], e per il secondo, un rendimento medio del 10% con una deviazione media rispetto a tale valore del 14%.

In altre parole, il titolo X presenta un rendimento ed un rischio più alto del titolo Y. Poniamo che il cliente, non volendo rischiare, sia portato ad investire tutto il patrimonio nel titolo Y.

Ma è possibile che comprando invece un po’ di titoli X e Y si ottenga un maggior rendimento con un minor rischio?

Un qualsiasi consulente finanziario dovrebbe essere capace di rispondere, e vediamo come.

Maggior rendimento con minor rischio?

Poniamo, per ipotesi. che la società Y e la società X operino, rispettivamente nel settore delle costruzioni ed in quello ecologico, ovvero, in settori che generalmente fluttuano in senso opposto. In tal modo l’investitore ottiene un rendimento medio stabile; quando infatti i rendimenti di Y sono elevati, quelli di X sono bassi, e viceversa.

Adesso si tratta di misurare il grado di variazione comune dei rendimenti dei due titoli, e lo facciamo con operatore statistico noto come covarianza[4], o fattore di correlazione. Se è noto il coefficiente di correlazione dei due titoli considerati (pari, ad esempio, a 0,1) è possibile desumere non solo i rendimenti dei diversi portafogli composti da A e B, ma anche la loro volatilità. Cosi ad esempio, potremmo ottenere investendo il 50% del capitale (50.000 euro) in ciascuno dei due titoli, un portafoglio con un valore di rendimento atteso superiore (11%) ed un rischio inferiore (11,14%) rispetto ad un portafoglio composto dal solo titolo Y (cui corrisponde,come premesso, un rendimento medio pari a 10 e un rischio uguale a 14%).

Un grande affare per il cliente e per il consulente (che bene ha fatto il proprio mestiere), ma soprattutto un grande successo per la scienza economica che avrebbe dimostrato come sia possibile determinare una combinazione di titoli che presenti maggior rendimento e minor rischio dell’acquisto di uno solo. Davvero un’invenzione meravigliosa !

Purtroppo ci sono diverse cose che non funzionano nell’esempio che ho descritto. Cominciamo dall’inizio e, cioè, dai dati utilizzati nei nostri calcoli. Una prima osservazione: per il conteggio del rendimento dei titoli, il nostro consulente si è servito di dati storici relativi ai titoli Y ed X, presi su un periodo di tempo che non ho definito. Ma attenzione,  proprio su tali dati sono state stabilite le due variabili cruciali (rendimento medio e variabilità del titolo rispetto al rendimento) sulle quali si basa il mix di titoli; in altre parole, abbiamo costruito delle medie su dati storici e la combinazione che il consulente propone al cliente di Y ed X è quella che è la migliore in termini rendimento/variabilità. Se ne deduce che se riduco o, viceversa estendo il periodo di osservazione molto probabilmente cambieranno il rendimento e la variabilità media, e quindi la combinazione ottimale. Il discorso allora si potrebbe ricondurre a studiare il periodo migliore o più significativo per l’elaborazione dei dati?  No, purtroppo c’è altro.

Un altro aspetto va, infatti, evidenziato. I dati storici raccolti sono utilizzati per fare delle congetture per il futuro, in definitiva, le medie calcolate (rendimento e variazione rispetto al rendimento) vengono proposte come  indicatori della probabilità di avere nel futuro un rendimento simile a quello medio e che si è registrato nel passato. Tale passaggio è, tuttavia, denso di conseguenze. Vediamole.

L’errore del giocatore e l’esempio della monetina

Il primo effetto è che il risultato medio ottenuto può essere vero solo su un periodo di tempo futuro abbastanza lungo, viceversa, correremmo il rischio di cadere nel c.d. errore del giocatore. Di che si tratta ? Facciamo prima l’esempio di un lancio di una moneta (a due facce, non sbilanciata) che non ha effetto sul prossimo lancio della moneta, così che, ogni volta che la moneta viene lanciata c’è (idealmente) una probabilità[5] del 50% che esca testa ed una probabilità del 50% che esca croce. Supponiamo che una persona lanci una moneta sei volte e ogni volta esca testa. Se concludesse che il prossimo lancio sarà croce perché croce “è dovuto”, allora avrebbe commesso l’errore del giocatore d’azzardo. Questo perché i risultati dei lanci precedenti non hanno influenza sul risultato del successivo lancio, che ha una probabilità del 50% di essere testa e del 50% di essere croce, proprio come qualunque altro lancio. Ma c’è di più.

Vediamo, tuttavia, se esistono leggi statistiche capaci di determinare il risultato del “prossimo lancio”. Poniamoci, quindi, di fronte ad una sequenza di lanci di una moneta e trascriviamone il risultato.  Confrontiamo le due sequenze di poniamo 32 lanci, di una moneta non taroccata:

TCTCCTCTTCTCTCCTTTCCTCCCCTTTCTCT   TTCCCCCTTTTTCTCCCCTTTTTCTCCCCCCT

Possiamo, ad esempio, dire quale delle due è falsa? Dopo qualche sguardo non pochi risponderanno che ad essere falsa è la seconda sequenza, mentre in realtà ad essere falsa è proprio la prima, anche se la prima da più l’idea di casualità, in quanto c’è una maggiore alternanza di testa e croce.

Scomponiamo il nostro ragionamento. L’atto del lanciare la moneta non ha memoria e quindi la probabilità che esca croce o testa è sempre ½ ad ogni lancio. Pertanto la probabilità che esca in sequenza testa in r lanci è: ½ moltiplicato per ½ un numero di volte r, ovvero ½ elevato alla r. Tutto chiaro? Bene, vado avanti. Se adesso guardo un elenco di N lanci causali c’è un’alta probabilità di trovare serie di lunghezza r nel caso N=2 r . Nel nostro caso allora dati N=32 lanci, la statistica ci dice che c’è un’ottima probabilità di trovare nella nostra serie data una serie di testa (o croce) di lunghezza pari a r=5. Fantastico! Ma da dove abbiamo tirato fuori la formula  N=2r  ? Se lanciamo la nostra moneta N volte in modo da avere N possibili punti iniziali per una serie di Testa (o di Croce), la nostra probabilità di una serie di lunghezza r aumenta a N*(1/2)r. Una serie di lunghezza r diventa probabile quando  N*(1/2)r=1, ovvero, dopo una serie di piccoli passaggi N=2r. Anche qui, tuttavia, essendo ogni evento indipendente dal precedente, al  N +1  lancio la probabilità dell’evento Testa (o Croce)  sarà sempre  ½ . L’esempio,  fatto ci mostra come sia possibile, data una sequenza di eventi indipendenti, smascherare le serie taroccate, qualora conoscessimo la probabilità dell’evento. Ci dice, inoltre, la relazione tra il numero dei lanci N e la probabilità di avere una sequenza di testa o croce di lunghezza pari a r. Tutto qui. Insomma, l’analisi fatta ci conferma che una serie di lanci che ha già dato T  può ridare ancora T addirittura r-1 volte con alta possibilità.

E l’esempio del pugile

Andiamo avanti nel nostro discorso e veniamo casi le cui probabilità di capitare non sono indipendenti una dall’altra. Per esempio, supponiamo che un pugile abbia vinto il 50% dei suoi combattimenti negli ultimi due anni e supponiamo, altresì, che dopo molti combattimenti abbia vinto il 50% di quelli di quest’anno, che abbia perso gli ultimi sei e ne debba combattere sei. Se si credesse che il pugile debba vincere i prossimi sei incontri, perché ha utilizzato tutte le sconfitte e una vittoria è “dovuta”, allora si commetterebbe nuovamente, l’errore del giocatore d’azzardo. In effetti, si potrebbe, ad esempio, ignorare che i risultati di un incontro possono influenzare i risultati del prossimo; se ad esempio, il pugile si fosse infortunato in un incontro, ciò abbasserebbe le sue probabilità di vincere gli ultimi sei incontri. Allora, come si vede, la possibilità di avere la combinazione rischio/rendimento ottimale è limitata, nel caso di eventi indipendenti, al fatto di conservare il portafoglio su un periodo futuro molto lungo (e ciò in realtà contrasta con l’interesse dell’investitore che, vista la variabilità delle condizioni in gioco, può scegliere razionalmente sulla base delle condizioni di profitto esistenti nel breve periodo) mentre, nel caso di eventi dipendenti, è influenzata anche da eventi recenti che possono condizionare il risultato.

A quale delle due situazioni ci troviamo di fronte quando analizziamo le prestazioni di un titolo?

Possiamo legittimamente prescindere dalle performance passate di un titolo, o corriamo il rischio d’incorrere nell’errore del giocatore d’azzardo?  A bene vedere domanda ed offerta di un titolo rispondono sia ai fondamentali dell’economia che a quelli del soggetto emittente  e  delle sue relazioni con l’ambiente in cui si trova; ma non solo. La moderna analisi della “market psychology” ha individuato molteplici e disomogenei  fattori “non quantificabili” sotto un’unica categoria attraverso cui si possono interpretare situazioni di mercato varie ed imprevedibili. Vista cosi, tuttavia, l’analisi che gli economisti chiedono alla probabilità assomiglia molto alla situazione di una finale di coppa dei campioni, ed alla risposta alla fatidica domanda: C’è la finale di Champions League fra Il Real Madrid e il Manchester United; chi vincerà la famosa Coppa dei Campioni ? Anche in questo caso il risultato della partita dipende da numerosissimi fattori: le formazioni delle squadre, la condizione atletica, il modulo di gioco, lo stato del terreno, l’arbitraggio, le espulsioni, i falli da rigore ecc. Anche qui la risposta è difficile. Una previsione del risultato finale dipende più da “percezioni” che da fattori oggettivi. Questa probabilità è di tipo soggettivo, dipende cioè “da come noi consideriamo la forza delle squadre”; chissà quante volte vi è capitato di dire (dopo la partita) “Abbiamo perso – è vero – però senza quel rigore non finiva così!”. Di questo tipo di probabilità la matematica non se ne occupa proprio  e non se ne può occupare (lasciamola ai Book-Makers e ai poveri giocatori d’azzardo).

Quando la probabilità è “epistemica”

Nel caso di processi probabilistici nei quali la probabilità risulta epistemica (tipo lancio della moneta), si ha a che fare con conclusioni che vengono espresse in modo probabilistico a causa della nostra ignoranza sullo stato reale del sistema in esame, proprio come facendo riferimento all’idea del lancio della moneta. Come ricordato da Ghirardi, il concetto di probabilità epistemica rispecchia perfettamente la posizione meccanicistica del grande matematico francese Simon de Laplace, che nel 1776 scriveva: Lo stato attuale del sistema della natura consegue evidentemente da quello che esso era nell’istante precedente, e se noi immaginassimo un’intelligenza che ad un dato istante comprendesse tutte le relazioni fra le entità di questo universo, esso potrebbe conoscere le rispettive posizioni, i moti e le disposizioni generali di tutte quelle entità in qualunque istante del passato e del futuro … Ma l’ignoranza delle diverse cause che concorrono alla formazione degli eventi come pure la loro complessità, insieme coll’imperfezione dell’analisi, ci impediscono di conseguire la stessa certezza rispetto alla grande maggioranza dei fenomeni. Vi sono quindi cose che per noi sono incerte, cose più o meno probabili, e noi cerchiamo di rimediare all’impossibilità di conoscerle determinando i loro diversi gradi di verosimiglianza. Accade così che alla debolezza della mente umana si debba una delle più fini e ingegnose fra le teorie matematiche, la scienza del caso o della probabilità”. Secondo Laplace, note le posizioni e le velocità di tutte le particelle dell’universo, e le leggi che ne governano i rapporti, sarebbe stato possibile prevederne l’evoluzione per l’eternità. La concezione di Laplace configura la probabilità nella descrizione dei processi fisici come accidentale, legata alla nostra ignoranza, ma in linea di principio eludibile.

Come commenta Ghirardi:di fatto risulta relativamente facile dimostrare che esistono sistemi deterministici con una tale sensibilità alle condizioni iniziali che la previsione del loro comportamento anche dopo tempi brevi richiederebbe una tale massa di informazioni (proprio perché le imprecisioni iniziali si amplificano esponenzialmente) che non potrebbero venire immagazzinate neppure in un computer che utilizzasse come chips tutte le particelle dell’universo e potesse immagazzinare un bit in ogni chip. La conclusione è che ci si è resi conto (e questo rappresenta indubbiamente una notevole conquista concettuale) che non sono rare situazioni in cui risulta di fatto impossibile prevedere il comportamento di un sistema per un periodo di tempo anche ragionevolmente breve … Il fatto che se anche tutto l’universo diventasse un calcolatore esso non risulterebbe abbastanza potente da permetterci di immagazzinare le informazioni necessarie a prevedere per più di qualche minuto l’evoluzione di un semplice sistema, non toglie nulla al fatto che secondo lo schema teorico che si è assunto soggiacere alla dinamica del processo, la necessità di ricorrere ad una descrizione probabilistica deriva dall’ignoranza circa le precise condizioni iniziali …”.

Una crisi dei mercati scombina tutto

Torniamo ai nostri titoli. La considerazioni mosse ci portano a concludere che il calcolo delle probabilità è capace di care un contributo notevole nel caso di valutazione di un titolo nelle condizioni in cui si ha la ragionevole convinzione che il futuro non venga a discostarsi troppo dal passato. Viceversa di fronte a fatti eccezionali, ovvero, di fronte a crisi improvvise dei mercati, ogni tipo di calcolo risulta essere evento eccezionale e come tale non significativo.

Insomma è abbastanza evidente adesso che non ci troviamo ancora di fronte ad una teoria in grado di spiegare in modo coerente i fatti legati alle crisi finanziarie ed al modo in cui esse si palesano. La sommatoria di segnali che precedono lo scoppio di una bolla speculativa, infatti, deve ancora essere raccolta in una teoria che distingua causa ed effetto e che non si limiti alla sommatoria di percezioni individuali. Il risultato è che ci troveremo di fronte ad una sorta di “paradosso del sorite”, che grosso modo recita cosi: “Non è possibile ottenere un mucchio di sabbia. Infatti un granello non è un mucchio; due granelli non sono un mucchio; tre granelli non sono un mucchio; aggiungendo un granello a una cosa che non è un mucchio non si ottiene un mucchio. Tuttavia,  alla fine un mucchio di sabbia esiste!”. Nel nostro caso, tuttavia, come precisato, il problema non è affatto linguistico ma di relazione tra le variabili e di peso attribuibile a ciascuna. 

Tutta questa chiacchierata per dire che, in definitiva, in ogni caso emerge ancora oggi nelle scelte d’investimento individuali un elemento definibile come “incertezza”, ancora troppo oscuro per consentire di determinare il risultato effettivo dell’investimento nel futuro.

Una rivincita dell’economia keynesiana che si costruisce sull’irriducibile incertezza ed in cui le aspettative sono frequentemente soggette alla delusione ? Non sono certamente il solo oggi a pensarla cosi.




[1] 16 marzo 2008 Financial Time, Alan Greenspan

[2]In particolare si segnala il lavoro di Black end Sholes :“The pricing of options and corporate liabilities”, pubblicato nel JoPE maggio-giugno 1973” . L’obiettivo del modello è quello di valutare al tempo t il prezzo di una opzione call di tipo europeo avente scadenza in T, con un prezzo di esercizio pari a K, scritta su un’attività sottostante (un’azione)  di valore S nell’ambito di un mercato in cui sono presenti oltre ad attività rischiose quali le azioni attività prive di rischio quali i bond, il cui tasso di rendimento risk-free è pari a r. Le ipotesi di base: assenza di costi di transazione e d’imposizione fiscale; tasso di interesse privo di rischio costante; distribuzione simmetrica delle informazioni fra gli operatori che implica impossibilità di arbitraggio; possibilità di vendere allo scoperto; non c’è distribuzione di dividendi. A queste ipotesi si aggiunge quella per cui il rendimento dell’attività rischiosa S sia caratterizzato da una duplice componente, una tendenziale ed una aleatoria. Ne consegue che il rendimento del titolo può essere scomposto in una componente tendenziale ed in una componente aleatoria che assume tanto maggior peso quanto più è grande la volatilità. A variazioni infinitesimali di rendimento corrisponderà una dinamica del prezzo spiegabile come:dS/S = µ∆t + σdX dove dX è un movimento browniano standard.

 

[3] Richard von Mises (1883-1953) propose di definire la probabilità di un evento come il limite cui tende la frequenza relativa dell’evento al crescere del numero degli esperimenti.

[4] La covarianza dà una misura della dispersione congiunta dei due titoli intorno alle rispettive medie. Una covarianza negativa indica che quando il rendimento di un titolo è inferiore alla sua media, il rendimento dell’altro titolo è superiore alla media: i due titoli si muovono in senso opposto. Una covarianza positiva indica che i rendimenti dei due titoli si muovono nello stesso senso; un valore di covarianza nulla indica che non sussiste relazione tra i movimenti dei rendimenti dei due titoli, ovvero, che gli andamenti degli stessi sono indipendenti tra di loro.

 

[5] E’ la frequenza a cui tende un evento al crescere del numero degli esperimenti, ripetibili in pari condizioni ogni volta.

 

ScarsoMediocreSufficienteDiscretoBuono
Loading ... Loading ...

Autore: Redazione » Articoli 673 | Commenti: 277

Seguimi su Twitter | Pagina Facebook

  • Spread e Unione Europea: la lezione che ci viene dall’Unità d’Italia

    L’Unificazione dei sistemi monetari europei e l’adozione dell’euro hanno avuto come conseguenza la nascita dello “spread”, ossia il differenziale di rendimento dei vari titoli sovrani. Ma è possibile avere una moneta...

  • Riflessioni di un insider sui mercati finanziari

    di Giovanni Bottazzi* PERCHE’ NON ESSERE PIU’ CHIARI ? Nella comunicazione finanziaria della TV si formano usi e costumi, spesso opportuni per la chiarezza espositiva ma, qualche volta, a mio avviso un...

  • Il “rischio sovrano” torna a pesare

    I titoli di stato hanno perso ormai il loro status di bene rifugio per eccellenza. L’andamento dei rendimenti dei titoli di stato dei paesi che hanno adottato l’euro, che offrivano...

  • TITOLI DI STATO NEL MIRINO, I CONTI NON TORNANO

    Redazione – 1 novembre 2011 Qualche giorno fa l’Autorità bancaria europea (Eba) ha imposto un aumento di capitale alle banche che hanno nei loro bilanci titoli di stato greci, spagnoli, irlandesi,...

  • Le tre cime di Lavaredo della borsa americana

    di Paolo Sassetti L’indice S&P 500 assomiglia terribilmente alle tre cime di Lavaredo, e la sgradevole sensazione che trasmette è che siamo solo ad 1/3 della terza discesa … Fino a qualche...

0 Commenti   •  Commenta anche tu!

Nessun Commento ancora. Vuoi essere il primo?

Lascia un commento   •   Leggi le regole

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Abbonati

Ogni nuovo post ti verrà inviato alla tua casella email

Inserisci la tua email: