Handout do tekstu Colandera i in.

Transkrypt

Handout do tekstu Colandera i in.
D.Colander, H. Föllmer, A. Haas, M. Goldberg, K. Juselius, A. Kirman, T. Lux,
B. Sloth (2009) "The Financial Crisis and the Systemic Failure of Academic
Economics," Critical Review, Volume 21, Issue 2 & 3 June 2009 , pages 249–
267.
Wg autorów ekonomiści nie byli świadomi długiego procesu który prowadził do obecnego
kryzysu jak również niedoceniali powagi tego kryzysu, gdyż już zaczął się pojawiać.
Konstytuuje to porażkę ekonomii jako nauki. Wg autorów porażka ta była spowodowana
błędną alokacją zasobów w ekonomii w tym sensie, że zbyt wiele uwagi poświęcono
konstruowaniu modeli, które intencjonalnie nie uwzględniały kluczowych elementów
determinujących ważne zjawiska gospodarcze. Ekonomiści jako profesja zawiedli, nie
komunikując społeczeństwu ograniczeń, słabości i nawet zagrożeń ich preferowanych modeli.
Ten stan rzeczy domaga się reorientacji przedmiotu badań ekonomicznych oraz ustanowienia
etycznych norm, które skłaniałyby ekonomistów do rozumienia i komunikowania ograniczeń
i potencjalnych błędów związanych z używaniem modeli ekonomicznych.
1. Wstęp
Globalny kryzys finansowy ujawnił systemową porażkę ekonomii jako nauki i jako zawodu.
W ciągu ostatnich 3 dekad makroekonomia i finanse polegały na modelach ignorujących
podstawowe cechy świata gospodarczego – różnorodność reguł decyzyjnych wśród
podmiotów gosp., zmiany strategii przewidywania zjawisk gosp. i zmiany kontekstu
społecznego. Zjawiska te mają wpływ na ceny aktywów i inne rynki.
Jasne jest zatem, że modele te nie wyjaśniają rzeczywistej ewolucji istniejącej gospodarki.
Poza tym, zagadnienie wewnętrznych przyczyn kryzysów finansowych zostało wyparte jako
przedmiot zainteresowania ekonomistów przez inne problemy. Rzadko bada się wczesne
sygnały kryzysu systemowego i potencjalne sposoby zapobiegania takim zjawiskom.
W makroekonomii i finansach możliwość systemowego kryzysu (tj. takiego prowadzącego do
załamania globalnej gospodarki) jest postrzegana jako futurystyczne i nierealistyczne
zdarzenie, którego się nie modeluje. Większość modeli nie zawiera wyjaśnienia takiego
kryzysu i stąd nie daje strategii jego zwalczenia.
Pośrednio za standardowymi modelami stoi założenie że rynki i gospodarki są zasadniczo
stabilne i tylko przejściowo odchylają się od tej stabilności i równowagi. Stąd większość
ekonomistów nie potrafiła ostrzec polityków gospodarczych o możliwości systemowego
kryzysu i ignorowała prace tych, którzy próbowali ostrzegać.
W miarę rozwoju kryzysu ekonomiści musieli porzucić swoje modele i wiarę w rynki i mogli
zaproponować jedynie zdroworozsądkowe rady polegające na głębokiej interwencji państwa.
Ale takie rady są kiepskim substytutem teoretycznie wywiedzionych i empirycznie
przetestowanych modeli, które mogą dostarczyć bardzo potrzebnych wskazówek np. w sferze
regulacji finansowej. Potrzebujemy modeli które zawierają w sobie możliwość systemowych
kryzysów finansowych.
1
Jest zdumiewające, że dominujące modele zakładają stabilność rynków i jedynie ograniczone
szoki zewnętrzne, lekceważąc przy tym powracającą dynamikę boomów i kryzysów, która
charakteryzuje rzeczywiste gospodarki. Jest to tym bardziej dziwne, że mamy długą
akademicką tradycję badań nad takimi kryzysami – pozostaje jednak ona daleko poza
głównym nurtem badań a nawet jest tłumiona.
Przykłady ślepoty najnowszej literatury na omawiane zagadnienia są w retrospekcji
zadziwiające. Np. w analizie zarządzania ryzykiem w kontekście CDO (Collateralized debt
obligations
–
zabezpieczonych
obligacji
hipotecznych,
zob.
np.
http://www.finanseosobiste.pl/artykuly/cdo-krotka-historia-kryzysu.html),
Krahnen
(2005) i Krahnen i Wilde (2006) wspominają o możliwości zwiększonego ryzyka
systemowego. Konkludują jednak, że ten aspekt nie powinien być zmartwieniem dla banków
zaangażowanych w rynek CDO ponieważ jest zadaniem rządu zapewnić bezpłatne
ubezpieczenie w wypadku systemowego krachu.
Bardziej teoretyczna literatura dowodziła, że konsumenci i inwestorzy mają zbyt dużą awersję
do ryzyka ze względu na pamięć o zdającym się być nieprawdopodobnym wielkim kryzysie
lat 30. Literatura ta sugerowała, że podmioty te powinny bardziej ryzykować, co w kontekście
obecnego kryzysu wydaje się mało racjonalne.
Wiele współczesnych badań dąży do wyjaśnienia takich zjawisk jak bezrobocie, boomy i
kryzysy, kryzysy finansowe itp. Dominujące modele teoretyczne wykluczają wiele aspektów
gospodarki które mogą prowadzić do kryzysów. Ograniczając modele do analizy
„normalnych” czasów/okoliczności może wydawać się sprzeczne z tym czego oczekiwałby
od naukowców przeciętny podatnik, często łożący na ich utrzymanie.
Porażka ekonomii w przewidzeniu kryzysu oraz zaoferowaniu środków zaradczych ma
głębokie źródła metodologiczne. Przedmiot ekonomii tak jak się go z reguły obecnie definiuje
– alokacja rzadkich zasobów – wydaje się mylący i krótkowzroczny. Redukuje on pracę
ekonomistów do badania optymalnych decyzji w dobrze wyspecyfikowanych problemach
wyboru indywidualnego. Niebezpieczeństwo takich badań polega na tym że czasami tracą one
z pola widzenia (czasem niestabilną) dynamikę systemów gospodarczych. Ta nieadekwatna
definicja ekonomii często wiedzie badaczy do lekceważenia pytań o koordynację działań
podmiotów gospodarczych i możliwość braku koordynacji. Tego typu pytania wymagałyby
użycia innego rodzaju formalizmu matematycznego niż używany obecnie przez wiele
prominentnych modeli.
Wielu ekonomistów finansowych było świadomych nierealistyczności założeń albo restrykcji
przyjmowanych w ich modelach. Nie ostrzegali jednak przed kruchością lub niestabilnością
tych modeli. Możliwe wyjaśnienia tego faktu są dwa: nie rozumieli konsekwencji tych cech
modeli albo nie sądzili że jest to ich zadaniem. Pierwsze wyjaśnienie jest nieprawdopodobne
– ekonomiści ci są niezwykle inteligentni i musieli rozumieć ograniczenia ich modeli.
Drugie, bardziej realistyczne wyjaśnienie mówiące, że nie postrzegali swojej roli jako tych,
którzy mają ostrzegać społeczeństwo oznacza, że nie rozumieją właściwie swojej roli jako
ekonomistów. I że zawiedli etycznie. W opinii autorów ekonomiści, jak wszyscy naukowcy
mają etyczny obowiązek komunikowania ograniczeń ich modeli i potencjalnych skutków ich
złego użycia. Obecnie nie ma takiego kodeksu, takich norm. A powinny być.
2. Modele (albo użycie modeli) jako źródło ryzyka systemowego
2
Wg podręcznikowego ujęcia do analizy alokacji rzadkich zasobów stosuje się założenie
reprezentatywnego agenta (Robinson Crusoe). Modele rynków finansowych działają poprzez
założenie że reprezentatywny podmiot załatwia swoje sprawy finansowe maksymalizując
użyteczność w ciągu całego życia przy danych ograniczeniach, zakładając że potrafi on/ona
ocenić prawidłowo prawdopodobieństwa wszystkich przyszłych zjawisk.
To podejście jest łączone z Walrasowską teorią równowagi ogólnej, a zwłaszcza rezultatem
modelu Arrowa-Debreu, że cała niepewność w systemie może być wyeliminowana jeżeli
tylko
istnieją
odpowiednie
instrumenty
pochodne
(zob.
np.
http://pl.wikipedia.org/wiki/Instrumenty_pochodne).
Ten teoretyczny i bardzo abstrakcyjny rezultat stanowi uzasadnienie popularnego
przekonania, że wprowadzenie nowej klasy instrumentów pochodnych podnosi dobrobyt
społeczny (tak myślał np. Greenspan, były szef FED). Nie jest to jednak sąd, który byłby
dobrze empirycznie ugruntowany.
W praktyce matematyczne modele portfela inwestycyjnego i zarządzania ryzykiem
umożliwiły ogromne upowszechnienie się i zwiększenie liczby instrumentów pochodnych.
Zwykle zostają one wprowadzone w praktyce, gdy w teorii powstaną modele kalkulujące ich
ceny i ryzyko z nimi związane. Zasady wyceny powstają głównie ze zbioru założeń co do
zachowania się instrumentu bazowego (na podstawie którego utworzony jest derywat) oraz
warunku
równowagi
(np.
brak
arbitrażu
–
zob.
np.
http://pl.wikipedia.org/wiki/Arbitra%C5%BC_(ekonomia)
Dodatkowo zwykle sugerowane jest zabezpieczenie się przed ryzykiem pozycji derywatowej
poprzez zrównoważenie jej innymi aktywami, które neutralizują wystawienie na ryzyko.
Najbardziej znanym rezultatem tutaj jest rozwój teorii wyceny opcji dokonany przez Blacka i
Scholesa, który w latach 80. został zaimplementowany nawet na ręczne kalkulatory
(poprzednio trzeba było używać komputerów do obliczenia optymalnej ceny opcji).
Problemem jest to że modele te, formułowane przed wprowadzeniem nowych instrumentów,
nie mogą być estymowane na danych historycznych, i są badane przy uzyciu symulacji
przeprowadzanych przy często arbitralnych założeniach co do korelacji między ryzykiem a
prawdopodobieństwem niewypłacalności. Stąd teoretyczne podstawy tych derywatów są
bardzo wątpliwe – przypomina to budowanie budynków z cementu, którego składników
(cementu) nie jesteśmy pewni. Dramatyczny wzrost rynku instrumentów pochodnych
opartych na ryzyku kredytowym był możliwy dzięki powstaniu narzędzi wyceny tych
instrumentów opartych na symulacjach oraz przyjęciu standardów oceny tych instrumentów,
kreowanych przez agencje ratingowe.
Wg Eichengreena rozwój metod matematycznych zaprojektowanych do skwantyfikowania i
zabezpieczania się przed ryzykiem zachęcił instytucje typu banki komercyjne, inwestycyjne,
fundusze do większego lewarowania – tak jak gdyby użycie metod matematycznych
zmniejszało ryzyko. Zauważa też że modele te były estymowane dla danych o mniejszej
zmienności i stąd nie mogły poradzić sobie w sytuacji dużych zmian rynkowych. Co gorsze
takie zmiany są typowe dla gospodarek i nie mogą być po prostu ignorowane.
Jak się okazało, nowe nieregulowane rynki finansowe posiadają pewne wady.
Prawdopodobieństwo kryzysu systemowego zostało w dominujących modelach potraktowane
jako nie będące odpowiedzialnością uczestników rynku. W ten sposób hazard moralny stał się
konieczną i wbudowaną w system cechą systemu. Podmioty rynkowe nie brały efektów
3
zewnętrznych swoich działań pod uwagę i ignorowały wpływ swoich działań na stabilność
systemu. Wystawiały się na większe ryzyko ponieważ sądzono/wiedziano, że to rząd będzie
ponosił ostateczną odpowiedzialność.
Inne problemy: narzędzia wyceny aktywów i zarządzania ryzykiem modelowane były przy
założeniu ceteris paribus - zachowanie innych podmiotów rynkowych się nie zmienia.
Tymczasem modele te mogą być używane przez bardzo wiele podmiotów lub nawet
większość. Tymczasem dany podmiot może stać się tak dominujący, że inne przejmą jego
strategię i założenie ceteris paribus staje się nierealistyczne (przykład LTCM – zob. np.
http://en.wikipedia.org/wiki/Long-Term_Capital_Management)
Takie synchroniczne działanie podmiotów może doprowadzić do niespodziewanych efektów
makro, które podważają sukces strategii indywidualnych na mikropoziomie. Przykład z
kryzysem w październiku 1987.
Inny problem do niebezpieczeństwo związane z iluzoryczną kontrolą –m atematyczny rygor,
elegancja i numeryczna precyzja różnych narzędzi wyceny aktywów i zarządzania ryzykiem
skłania do ukrywania słabości tych modeli i ich założeń. Modele te zbudowane są na
uproszczonych założeniach i czasem na bardzo heroicznych założeniach np. normalności
zmian cen aktywów – bardzo nierealistyczne. Jest postęp – modelowanie zmiennych
finansowych
jako
procesów
Levy’ego
z
grubymi
ogonami
(zob.
np.
http://en.wikipedia.org/wiki/Fat_tail).
Ale chociaż one lepiej ujmują naturę zmienności rynków finansowych to ich lepsze działanie
może tylko zwiększać iluzję kontroli którą mamy nad tymi rynkami (zwłaszcza dla naiwnego
użytkownika modeli).
Fakt, że modele są coraz bardziej wyszukane nie oznacza że są bardziej odporne i że mają
mniejsze ograniczenia. Instrumenty zabezpieczające przed ryzykiem nadal mogą stać się
finansową bronią masowej zagłady (W. Buffet) jeżeli są użyte by zwiększyć dźwignię
finansową. Wydaje się że derywaty często były używane właśnie spekulacyjnie jako
narzędzia korzystania z wysokich stóp zwrotu póki ryzyko spadku cen się nie zmaterializuje.
Badacze rozwijający te modele mogą argumentować, ze są tylko neutralnymi akademikami a
odpowiedzialność za użycie tej „broni” spada na użytkowników. Jednak wg autorów mają oni
obowiązek ostrzegania społeczeństwa kiedy broń zostaje źle użyta. Należy ujawniać
ograniczenia i założenia modeli i ostrzegać przed ich mechanicznym użyciem.
Konkluzje z analizy autorów: uczestnicy rynku i regulatorzy muszą być bardziej wrażliwi na
potencjalne słabości modeli dot. zarządzania ryzykiem. Ponieważ nie znamy „prawdziwego”
modelu badanie trwałości powinno być podstawowym zadaniem – należy stosować więcej niż
jeden model. Np. można stosować probabilistyczne projekcje z całej klasy określonych
modeli. Teoria trwałej kontroli zapewnia zbiór narzędzi, którego można by użyć. (zob.
http://en.wikipedia.org/wiki/Robust_control)
3. Nierealistyczne założenia modeli i nierealistyczne wyniki
Wiele modeli ekonomicznych opiera się na parze założeń – racjonalne oczekiwania (RE) i
reprezentatywny agent. Przy pierwszym założeniu podmioty mają pełne zrozumienie
mechanizmów gospodarczych rządzących światem. Jako takie nie jest ono założeniem
opisującym oczekiwania empirycznie. Stąd żadne badania z zakresu ekonomii stosowanej czy
4
psychologii dotyczące faktycznego formowania oczekiwań nie mogą być użyte w modelach z
RE. Nie ma więc miejsca w tych modelach na adaptacyjne dostosowania, niedoskonałą
wiedzę itp.
Najczęściej modele z RE są konstruowane w makroekonomii jako problemy wymagające
programowania dynamicznego (zob. http://en.wikipedia.org/wiki/Dynamic_programming)
W takich modelach zakłada się także reprezentatywnego agenta co oznacza że nie ma żadnej
różnorodności – wszystkie podmioty są takie same. Podejście takie nie jest potwierdzone
przez badania empiryczne. W rzeczywistości jest zupełnie sprzeczne z regularnościami
dotyczącymi ludzkiego zachowania których dostarczają ekonomia behawioralna i
eksperymentalna. Literatura ta dowodzi że ludzie zachowują się w zupełnie inny sposób niż
sugeruje założenie RE i w eksperymentach mają problemy w znajdowaniu równowag
sugerowanych przez modele RE. Jest raczej tak, że podmioty mają ograniczoną racjonalność
(w
różnym
sensie
i
zakresie),
używają
reguł
heurystycznych
(zob.
http://en.wikipedia.org/wiki/Heuristic), nie racjonalnych oraz reagują inercją w obliczu
nowych informacji. Dodatkowo na rynki finansowe silnie wpływają czynniki emocjonalne i
hormonalne – modelowanie ekonomiczne musi to uwzględniać.
Wg autorów wymogiem modelowania ekonomicznego poza wewnętrzną (logiczną)
spójnością teorii powinna stać się również zewnętrzna spójność. Modelowanie ekonomiczne
musi być spójne z osiągnięciami innych nauk społecznych.
Użycie założenia reprezentatywnego agenta oznacza że teoretycy makroekonomii akceptują
redukcjonizm pojęciowy: z założenia wszystkie pojęcia aplikowalne do makrogospodarki
mogą być zredukowane do pojęć i wiedzy indywidualnych podmiotów. Makrosfera
gospodarki jest taka sama jak mikrosfera we wszystkich aspektach. Można powiedzieć, że
takie podjeśice neguje w ogóle istnienie mikrosfery i oznacza że postrzega ono całą
gospodarkę jako organizm rządzący uniwersalną, ogólną wolą. Jakiekolwiek pojęcie
„systemowego ryzyka” czy „problemów koordynacyjnych” jest z konieczności obce takiej
metodologii.
Zgodnie z pojęciowym redukcjonizmem nie ma żadnej interakcji między mikro i makro
poziomem badanego systemu (w przypadku ekonomii: systemu gospodarczego).
Aby stworzyć modele pozwalające dedukować makro zdarzenia z mikroekonomicznych
regularności ekonomiści muszą przemyśleć mikropodstawy makromodeli. Ponieważ
aktywność ekonomiczna jest interakcyjna w naturze, mikropodstawy modeli ekonomicznych
powinny pozwalać na różnice w wiedzy między podmiotami, różnice w motywach, wiedzy,
zdolnościach itp. Tylko takie założenia pozwolą wyjaśnić ryzyko systemowe, efekty domina
w systemie finansowym i ich reperkusje.
Nie wystarczy zastąpić obecnego paradygmatu modelami z reprezentatywnymi nieracjonalnymi podmiotami – oba założenia muszą być odrzucone.
Jeżeli tak się stanie otwiera się droga przed bardzo bogatym spektrum modeli. Można badać
dynamikę poza stanami równowagi i adaptacyjne dostosowywania się do nich podmiotów
dysponujących niepełną wiedzą. Może to prowadzić do wielokrotnych stanów równowagi i
ewolucji między nimi zależnej od oczekiwań podmiotów albo nawet od rozchodzenia się
pozytywnych lub negatywnych nastrojów wśród populacji. To mogłoby uchwycić
5
psychologiczny wymiar cykli koniunktury, który nigdy na poważnie nie był wzięty pod
uwagę we współczesnej makro.
4. Trwałość i badania napędzane danymi
[rozważania w tej sekcji będą podjęte także za tydzień, także można potraktować je skrótowo]
Współcześnie popularne modele makro mają nie tylko słabe mikropodstawy – kiepsko
sprawdzają się również w testach empirycznych. Modeli tych – zwłaszcza dynamicznych
modeli równowagi ogólnej – nie testuje się, tylko poddaje kalibracji. [Ja więcej opowiem o
tym podejściu na zajęciach, chyba że Państwo wiedzą to skądinąd].
Jednak kalibracja, używająca parametrów oszacowanych w badaniach mikroekonomicznych,
nie może być poważnym narzędziem weryfikacji modeli makro. Związane jest to z
wspomnianym wcześniej problemem pojęciowej redukcji.
Inny problem to niestacjonarność i strukturalne zmiany/szoki w danych leżących u podstaw
badanych procesów. Obecnie modele empiryczne w makro są dopasowywane do danych (z
reguły o długim horyzoncie czasowym), tak że są one zgodne z różnymi zmianami
(strukturalnymi, przykłady w tekście, s. 11), które zachodziły. Właściwe podejście powinno
jednak polegać na testowaniu modeli a nie zakładaniu że wiemy które są odpowiednie.
W tym celu autorzy sugerują oparcie się na metodologiach ekonometrycznych typu
modelowanie od ogólnego do szczególnego D. Hendry’ego oraz modelach VAR z ko
integracją jako takich które pozwalają „mówić danym”, nie są ograniczane wcześniej
nałożonymi restrykcjami teoretycznymi. Tego typu podejścia są w stanie dostarczyć
empirycznych uogólnień (faktów), które można by wyjaśniać teoretycznie. Modele, które
byłyby niezgodne z tymi faktami musiały by być odrzucone (większość obecnych
popularnych modeli makroekonomicznych i z zakresu makrofinansów spotkałby ten los).
Wtedy ekonomia mogłaby rzeczywiście oprzeć rekomendacje dla polityki gospodarczej na
solidnych podstawach empirycznych i teoretycznych, co nie jest niestety prawdą obecnie.
5. Jak radzić sobie z kruchością systemu finansowego?
Innowacje finansowe uczyniły system finansowy bardziej podatnym na kryzys, utworzyły
także połączenia pomiędzy poprzednio nie związanymi aktorami rynku – stopień połączenia
między uczestnikami rynku znacznie wzrósł. Teoria sieci sugeruje, że system bardziej
połączony jest bardziej efektywny w niektórych zadaniach, ale też bardziej narażony na szoki
i systemowy kryzys (zob. http://en.wikipedia.org/wiki/Network_theory).
Teoria równowagi ogólnej sugerowała że nowe derywaty podniosą efektywność systemu, ale
jest to tylko hipoteza wynikająca z bardzo abstrakcyjnego modelu. Nie ma badań
empirycznych na ten temat, więc korzyści z nich wynikające nie są naukowo udowodnione.
Widać za to pewne problemy z nimi związane. Idea że system stał się mniej ryzykowny wraz
z rozwojem rynku derywatów doprowadziła podmioty rynkowe do używania dźwigni
finansowej w ekstremalnym stopniu co okazało się niezwykle niebezpieczne.
W związku z rosnącym stopniem połączenia miedzy aktorami rynku finansowego i wpływem
tego faktu na stabilność systemu, autorzy sugerują działania nadzoru finansowego poświęcone
6
pomiarom stopnia połączenia między podmiotami i aspektów sieciowych systemu
finansowego
oraz
poddanie
systemu
stress
testom
(zob.
np.
http://en.wikipedia.org/wiki/Stress_testing). W ten sposób można uzyskać miary
kruchości/wrażliwości systemu finansowego. Teoria sieci oraz teoria samoorganizującej się
krytyczności (http://www.santafe.edu/~hag/internet/node9.html) mogłyby dać tutaj wkład.
Niebezpieczeństwo ryzyka systemowego oznacza że regulacja musi być rozszerzona z
indywidualistycznej do systemowej. Należy badać połącznia między instytucjami sektora
finansowego by poznać reperkusje problemów w jednej jego części dla części pozostałych
(także w profilu międzynarodowym). Zanim podejmie się decyzję o dofinansowaniu dużego
banku należy rozumieć sieć w której się on znajduje, by wiedzieć czy jego bankructwo
doprowadzi do efektu domina albo czy zarażenie systemu będzie ograniczone. Obecnie
regulatorzy nie mają tego typu narzędzi.
Bardziej tradycyjne instrumenty regulacji są nadal potrzebne. Rynek funduszy hedgingowych
jest w dużej mierze nieregulowany. Zależności między levarowaniem, stopniem połączenia i
ryzykiem systemowym muszą być badane na poziomie zagregowanym (makro). Jest bardzo
prawdopodobne że połączenie ekstremalnej dźwigni i dużego stopnia połączenia w systemie
daje zbyt wysokie ryzyko dla społeczeństwa (w kontekście wywoływania kryzysu). Stąd
rozsądne wymogi kapitałowe dla funduszy hegde wydają się pożądane i wymagają solidnych
naukowych podstaw a nie mogą być oparte na przed-analitycznym podejściu opartym na
leseferyzmie.
6. Konkluzje
Chociaż obecny kryzys może być postrzegany jako końcowy etap ciągu boomów i krachów,
które już wielokrotnie spotykaliśmy w historii gospodarczej świata, to są pewne specjalne
aspekty tego kryzysu które czynią go innym. Po pierwsze, boom poprzedzający krach miał
źródło w dużej mierze w rozwoju nowych produktów finansowych które otworzyły nowe
możliwości inwestycyjne. Po drugie, mamy globalny wymiar kryzysu dzięki rosnącemu
stopniowi połączenia w systemie finansowym. Oba wymiary były w dużej mierze ignorowane
przez ekonomię akademicką. Badania na temat przyczyn niestabilności, przeinwestowania i
kryzysów były uważane za egzotyczne i będące poza właściwą ścieżką rozwoju badań i
nauczania. Było to spowodowane tym, ze tego typu badania były niezgodne w założeniem o
racjonalnym reprezentatywnym agencie. Ten paradygmat uczynił ekonomię ślepą na rolę
interakcji i połączenia między podmiotami – większość prac o „zakażalności” systemów
finansowych i zachowaniu stadnym nie została włączona do analizy makroekonomicznej.
Wg autorów ekonomia została uwięziona w nieoptymalnej równowadze w której duża część
wysiłków badawczych nie jest skierowana w stronę najbardziej palących potrzeb
społeczeństw. Samowzmacniające mechanizmy zwrotne w profesji ekonomistów
doprowadziły do dominacji paradygmatu który nie ma solidnych podstaw metodologicznych i
którego adekwatność empiryczna jest co najwyżej skromna. Z definicji usuwając najbardziej
ważne problemy współczesnych gospodarek oraz ponosząc porażkę w komunikowaniu
ograniczeń i założeń popularnych modeli ekonomicznych, ekonomiści ponoszą część
odpowiedzialności za obecny kryzys. Zawiedli w ich obowiązku co do dostarczania
społeczeństwu wiedzy na temat działania gospodarki i ostrzegania co do narzędzi które
tworzą. Wg autorów nieumiejętność przewidzenia kryzysu i niezdolność standardowej makro
i finansów do dostarczenia wglądu w bieżące wydarzenia stanowi wystarczający powód dla
7
poważnej reorientacji badań w tych dziedzinach i przemyślenia na nowo ich podstawowych
założeń.
8