Zatopieni w liczbach

Zatopieni w liczbach

[18.08.2009] Od czasu opracowania modelu wyceny opcji przez Blacka i Scholesa w świecie finansów zapanowała moda na wszystko co matematyczne. W nurcie tym zapomniano, że za każdą ekonomiczną decyzją stoi człowiek, ze wszystkimi jego wadami. Kusząca perspektywa okiełznania procesów rynkowych w postaci zgrabnych modeli matematycznych okazała się niewypałem, lecz nie oznacza to, że kilkadziesiąt lat pracy naukowców i praktyków rynkowych poszło na marne.

Jeżeli obecny kryzys rozłożymy na czynniki pierwsze, do których zaliczyć można potknięcia, błędy, oszustwa i osoby z nimi powiązane, zadziwić może jak dużo tego jest. Lecz w gąszczy tym jeden aspekt szczególnie zwraca na siebie uwagę. Jest nim nurt określany mianem inżynierii finansowej, który w bardzo szybkim czasie zyskał na popularności. Zafascynowanie nim było w gruncie rzeczy zrozumiałe – dawał nadzieję na pełny opis zjawisk rynkowych i procesów je kreujących, co miało w głównej mierze chronić uczestników rynków przed dotkliwymi stratami (np. hedging, czyli zabezpieczanie ryzyka).

Jednak modelowanie procesów gospodarczych generowało również zdecydowanie więcej okazji dla spragnionych wysokich zysków inwestorów, dlatego koncepcje oparte na pakowaniu do "czarnych pudełek" setek równań i algorytmów inwestycyjnych jeszcze bardziej przyciągały ciekawskich, często mniej doświadczonych. Techniki stosowane w inżynierii finansowej rozrosły się tak bardzo, że garstka ludzi, którzy znali dostatecznie dobrze zalety, ale też i wady tych systemów rozwodniła się, a decydujące głosy zabierały osoby, które nie miały pojęcia czym tak naprawdę się zajmują.

Sztandarowym przykładem matematyki w finansach jest model Value at Risk (VaR), który od połowy lat 90tych XX wieku jest najpopularniejszym sposobem zarządzania ryzykiem w instytucjach finansowych. Początkowo była to koncepcja wąskiego grona przedstawicieli nauk ścisłych, którzy swe umiejętności wykorzystywali w bankowości, później jednak ta zaawansowana technika dotarła niemal pod strzechy.

Podstawowym założeniem VaR jest to, że z dnia na dzień ceny (a dokładnie dzienne stopy zwrotu) są od siebie niezależne, to znaczy, że zysk/strata z jednego dnia nie ma wpływu na wynik w dniu kolejnym. Ponadto zakłada się, że zachowania się stóp zwrotu na rynkach przy bardzo dużej liczbie obserwacji na wykresie przybierają kształt charakterystycznego dla rozkładu normalnego dzwonu.

Kształt ten, znany każdemu, kto miał do czynienia choć przez chwilę ze statystyką, jest o tyle interesujący, iż przedstawia intuicyjną zależność, w ramach której zdarzeniom najczęstszym przypisuje się wysokie prawdopodobieństwo zaistnienia w przyszłości i adekwatnie mniejsze dla zdarzeń w przeszłości rzadkich. Intuicyjne jest bowiem, że zdecydowanie łatwiej (częściej) o niewielki zysk na giełdzie niż ten o spektakularnym wymiarze (to samo tyczy się strat). Rozkład normalny, jak już wspomniałam, jest bazą dla modelu VaR, ale również powszechnie jest stosowany w innych "zakątkach finansów" (np. modelu wyceny opcji).

VaR był o tyle atrakcyjny, iż dawał możliwość zgrabnego opisu tego, czego można się spodziewać od niezwykle dynamicznych rynków finansowych, a raczej czego można się spodziewać od ich czarnej strony – czyli możliwości ponoszenia strat. VaR opisywał na przykład, iż w 99 na 100 przypadków dzienna strata funduszu inwestycyjnego nie przekroczy 100 mln złotych. Oczywiście zbudowanie modelu i późniejsze jego uruchomienie w ramach konkretnego portfela inwestycyjnego wiązało się z setkami godzin pracy wybitnie uzdolnionych finansistów, lecz na końcu pojawiała się zazwyczaj jednak liczba, określająca maksymalną stratę, z jaką w danym dniu należy się liczyć. Wydawało się, że chaos rynków finansowych został okiełznany, bo nawet wyjaśnienie pochodzenia tej pojedynczej liczby wyłącznie przez pryzmat statystki nie było już aż tak trudne.

Na marginesie warto wspomnieć, że w koncepcji VaR nie ma przeciwwskazań do tego, by dzień zastąpić tygodniem, miesiącem, a nawet rokiem, lecz w myśl osób współtworzących model (najwięcej na tym polu zrobili matematycy JP Morgan) przy okresach dłuższych niż dzień, jakość modelu spada. Jedna liczba służyła za bazę do decyzji dotyczących gotówkowych buforów bezpieczeństwa w instytucjach finansowych i determinowała kolejne decyzje inwestycyjne bankowców- często bardziej ryzykowne. W naturalny sposób ograniczana była czujność. Obecny kryzys w doskonały sposób pokazał jak kosztowny był to błąd.

Modelowanie rynków finansowych, tworzenie komputerowych systemów do zarządzania ryzykiem finansowym to kawał ciężkiej matematycznej pracy, która wymaga skupienia wokół siebie wybitnych specjalistów. A i oni bez wahania wskazują na luki w systemie na które należy zwracać szczególną uwagę. Wskazanie niektórych nie jest trudne, ponieważ wystarczy zadać pytanie w kontekście VaR: "Co z pozostałym 1 %?" Otóż ta strefa dla osoby odpowiedzialnej za kluczowe decyzje w bankach w USA miała marginalne znaczenie.

W świetle teorii jednak w tym 1 % mogą znaleźć się wszelkie katastrofy, jakie mogą nawiedzić rynki finansowe. Jeżeli założymy, w świetle poprzedniej analizy, że jest szansa 1 na 100, że strata dzienna banku wyniesie 100 mln zł, to można wskazać, że 1 na 10 tysięcy będzie to strata 2 mld PLN, a 1 na 100 tysięcy możliwy jest upadek banku. Obecny kryzys to mniej więcej ta skala prawdopodobieństwa, która została zlekceważona. Doskonałym tego przykładem jest amerykański gigant Lehman Brothers, po "wybuchu" którego "popiół" na rynkach finansowych dopiero co opadł.

Jeszcze bardziej ciekawe jest to, iż fragmenty rozkładu normalnego i tym samym VaR, ukazujące sferę mniej prawdopodobną, czyli sferę najbardziej skrajną dla potencjalnych strat okazała się inna niż wynika to z założeń. Okazało się, że prawdopodobieństwo zaistnienia zdarzeń skrajnych, z tzw. ogona rozkładu było wyższe niż wynika to z charakterystyki rozkładu normalnego (stąd określenie grubego ogona). Jeszcze bardziej interesujące jest to, że obecny kryzys nie odkrył tego fenomenu – finansiści doskonale zdawali sobie z tego sprawę. Jednak skoro tyle pracy zostało już włożone w stworzenie modelu Value at Risk, to spróbowano rozwiązać i ten mankament bez podnoszenia alarmu.

Sukcesy na tym polu z upływem lat wydawały się wątpliwe, dlatego z rosnącą arogancją wielu zarządzających ryzykiem stwierdzało, iż są właśnie od tego, by osobiście troszczyć się o ten pozostały na krawędzi fragment, bez zważania na modele. Uważali, iż dostają wysokie pensje ponieważ komputer odwala za nich brudną robotę, czyli wyrzuca jedną liczbę dla 99 na 100 przypadków, a oni kontrolują pozostały 1. W praktyce jednak opierali się na wątpliwej jakości innych modelach. W efekcie większość z nich nie kontrolowała niczego.

Nie oznacza to jednak, ze specjaliści od zarządzania ryzykiem są niepotrzebni. Ich podejście dotychczas było po prostu złe. Niektórzy uważali, że są od kontrolowania pracy komputera, który wyrzucał magiczne liczby, gdy powinni nieustannie sprawdzać skąd te magiczne liczby się biorą. Nawet jeżeli VaR sam nie jest nazbyt wiarygodny, to jest on najlepszy z dostępnych narzędzi i co ważne potrafi zwrócić uwagę czujnych analityków na newralgiczne punkty. Ostatecznie bowiem chodzi o czynnik ludzi. To człowiek stworzył VaR, ale też człowiek powinien nieustannie kontrolować, co z wynika z pracy tego systemu.

VaR nie jest jedynym przykładem zachłyśnięcia się koncepcją inżynierii finansowej. Wielu inwestorów uwierzyło, że algorytmy komputerowe zdolne są do generowania bezustannie zysków na giełdach, a człowiek powinien się troszczyć w zasadzie jedynie o zasilanie elektryczne dla systemu. Tu jest podobnie. Systemy transakcyjne działają (i zapewniam, że to nie te, o których można poczytać w reklamach internetowych), ale również wymagają czujności człowieka, ponieważ łatwo mogą zawieść.

Modelowanie gospodarczej rzeczywistości jest w myśl definicji jej uproszczeniem i ma służyć sprawnemu poruszaniu się w niej człowieka. Modele są jednak tworzone przez ludzi, którzy podlegają tym samym mechanizmom, które sprawiają, że rzeczywistość wydaje się chaotyczna i niezbędne jest jej upraszczanie. To koło dla wielu może wydawać się błędne i wyklucza sensowność sprowadzania rzeczy skomplikowanych do przyjaznej postaci, jednak dla tych, którzy uważają to za sensowny krok, niezbędne jest przypomnienie, iż nie powinniśmy bezgranicznie ufać modelom.

Choć od czasu pierwszych prac na temat ekonomi behawioralnej wiemy zdecydowanie więcej o sobie i swoich ekonomicznych decyzjach, to tak naprawdę nic nie wiemy. Jeżeli zatem stworzymy model, który pozwoli nam lepiej kontrolować, co dzieje się z naszymi pieniędzmi i jednocześnie lepiej je alokować, pierwszym odruchem powinna być wzmożona czujność. Możemy mieć jedynie nadzieję, że osoby, które nadal ślepo wierzą, że ludzkie zachowania na rynkach można spakować do komputerowych algorytmów, w trakcie bieżącego kryzysu dostaną porcje danych, które do tych algorytmów zostaną dorzucone i będą w stanie przygotować się na coś podobnego w przyszłości. Więcej jednak otuchy wniosłoby zapewne przekonanie, że przejrzeli oni już na oczy, bo dziś tworzone prowizoryczne poprawki w systemie za kilka lat mogą przyczynić się do większej katastrofy.

Treści dostarcza portal InwestycjeAlternatywne.Pl

Oceń ten artykuł: