Handout do tekstu Colandera i in.
Transkrypt
Handout do tekstu Colandera i in.
D.Colander, H. Föllmer, A. Haas, M. Goldberg, K. Juselius, A. Kirman, T. Lux, B. Sloth (2009) "The Financial Crisis and the Systemic Failure of Academic Economics," Critical Review, Volume 21, Issue 2 & 3 June 2009 , pages 249– 267. Wg autorów ekonomiści nie byli świadomi długiego procesu który prowadził do obecnego kryzysu jak również niedoceniali powagi tego kryzysu, gdyż już zaczął się pojawiać. Konstytuuje to porażkę ekonomii jako nauki. Wg autorów porażka ta była spowodowana błędną alokacją zasobów w ekonomii w tym sensie, że zbyt wiele uwagi poświęcono konstruowaniu modeli, które intencjonalnie nie uwzględniały kluczowych elementów determinujących ważne zjawiska gospodarcze. Ekonomiści jako profesja zawiedli, nie komunikując społeczeństwu ograniczeń, słabości i nawet zagrożeń ich preferowanych modeli. Ten stan rzeczy domaga się reorientacji przedmiotu badań ekonomicznych oraz ustanowienia etycznych norm, które skłaniałyby ekonomistów do rozumienia i komunikowania ograniczeń i potencjalnych błędów związanych z używaniem modeli ekonomicznych. 1. Wstęp Globalny kryzys finansowy ujawnił systemową porażkę ekonomii jako nauki i jako zawodu. W ciągu ostatnich 3 dekad makroekonomia i finanse polegały na modelach ignorujących podstawowe cechy świata gospodarczego – różnorodność reguł decyzyjnych wśród podmiotów gosp., zmiany strategii przewidywania zjawisk gosp. i zmiany kontekstu społecznego. Zjawiska te mają wpływ na ceny aktywów i inne rynki. Jasne jest zatem, że modele te nie wyjaśniają rzeczywistej ewolucji istniejącej gospodarki. Poza tym, zagadnienie wewnętrznych przyczyn kryzysów finansowych zostało wyparte jako przedmiot zainteresowania ekonomistów przez inne problemy. Rzadko bada się wczesne sygnały kryzysu systemowego i potencjalne sposoby zapobiegania takim zjawiskom. W makroekonomii i finansach możliwość systemowego kryzysu (tj. takiego prowadzącego do załamania globalnej gospodarki) jest postrzegana jako futurystyczne i nierealistyczne zdarzenie, którego się nie modeluje. Większość modeli nie zawiera wyjaśnienia takiego kryzysu i stąd nie daje strategii jego zwalczenia. Pośrednio za standardowymi modelami stoi założenie że rynki i gospodarki są zasadniczo stabilne i tylko przejściowo odchylają się od tej stabilności i równowagi. Stąd większość ekonomistów nie potrafiła ostrzec polityków gospodarczych o możliwości systemowego kryzysu i ignorowała prace tych, którzy próbowali ostrzegać. W miarę rozwoju kryzysu ekonomiści musieli porzucić swoje modele i wiarę w rynki i mogli zaproponować jedynie zdroworozsądkowe rady polegające na głębokiej interwencji państwa. Ale takie rady są kiepskim substytutem teoretycznie wywiedzionych i empirycznie przetestowanych modeli, które mogą dostarczyć bardzo potrzebnych wskazówek np. w sferze regulacji finansowej. Potrzebujemy modeli które zawierają w sobie możliwość systemowych kryzysów finansowych. 1 Jest zdumiewające, że dominujące modele zakładają stabilność rynków i jedynie ograniczone szoki zewnętrzne, lekceważąc przy tym powracającą dynamikę boomów i kryzysów, która charakteryzuje rzeczywiste gospodarki. Jest to tym bardziej dziwne, że mamy długą akademicką tradycję badań nad takimi kryzysami – pozostaje jednak ona daleko poza głównym nurtem badań a nawet jest tłumiona. Przykłady ślepoty najnowszej literatury na omawiane zagadnienia są w retrospekcji zadziwiające. Np. w analizie zarządzania ryzykiem w kontekście CDO (Collateralized debt obligations – zabezpieczonych obligacji hipotecznych, zob. np. http://www.finanseosobiste.pl/artykuly/cdo-krotka-historia-kryzysu.html), Krahnen (2005) i Krahnen i Wilde (2006) wspominają o możliwości zwiększonego ryzyka systemowego. Konkludują jednak, że ten aspekt nie powinien być zmartwieniem dla banków zaangażowanych w rynek CDO ponieważ jest zadaniem rządu zapewnić bezpłatne ubezpieczenie w wypadku systemowego krachu. Bardziej teoretyczna literatura dowodziła, że konsumenci i inwestorzy mają zbyt dużą awersję do ryzyka ze względu na pamięć o zdającym się być nieprawdopodobnym wielkim kryzysie lat 30. Literatura ta sugerowała, że podmioty te powinny bardziej ryzykować, co w kontekście obecnego kryzysu wydaje się mało racjonalne. Wiele współczesnych badań dąży do wyjaśnienia takich zjawisk jak bezrobocie, boomy i kryzysy, kryzysy finansowe itp. Dominujące modele teoretyczne wykluczają wiele aspektów gospodarki które mogą prowadzić do kryzysów. Ograniczając modele do analizy „normalnych” czasów/okoliczności może wydawać się sprzeczne z tym czego oczekiwałby od naukowców przeciętny podatnik, często łożący na ich utrzymanie. Porażka ekonomii w przewidzeniu kryzysu oraz zaoferowaniu środków zaradczych ma głębokie źródła metodologiczne. Przedmiot ekonomii tak jak się go z reguły obecnie definiuje – alokacja rzadkich zasobów – wydaje się mylący i krótkowzroczny. Redukuje on pracę ekonomistów do badania optymalnych decyzji w dobrze wyspecyfikowanych problemach wyboru indywidualnego. Niebezpieczeństwo takich badań polega na tym że czasami tracą one z pola widzenia (czasem niestabilną) dynamikę systemów gospodarczych. Ta nieadekwatna definicja ekonomii często wiedzie badaczy do lekceważenia pytań o koordynację działań podmiotów gospodarczych i możliwość braku koordynacji. Tego typu pytania wymagałyby użycia innego rodzaju formalizmu matematycznego niż używany obecnie przez wiele prominentnych modeli. Wielu ekonomistów finansowych było świadomych nierealistyczności założeń albo restrykcji przyjmowanych w ich modelach. Nie ostrzegali jednak przed kruchością lub niestabilnością tych modeli. Możliwe wyjaśnienia tego faktu są dwa: nie rozumieli konsekwencji tych cech modeli albo nie sądzili że jest to ich zadaniem. Pierwsze wyjaśnienie jest nieprawdopodobne – ekonomiści ci są niezwykle inteligentni i musieli rozumieć ograniczenia ich modeli. Drugie, bardziej realistyczne wyjaśnienie mówiące, że nie postrzegali swojej roli jako tych, którzy mają ostrzegać społeczeństwo oznacza, że nie rozumieją właściwie swojej roli jako ekonomistów. I że zawiedli etycznie. W opinii autorów ekonomiści, jak wszyscy naukowcy mają etyczny obowiązek komunikowania ograniczeń ich modeli i potencjalnych skutków ich złego użycia. Obecnie nie ma takiego kodeksu, takich norm. A powinny być. 2. Modele (albo użycie modeli) jako źródło ryzyka systemowego 2 Wg podręcznikowego ujęcia do analizy alokacji rzadkich zasobów stosuje się założenie reprezentatywnego agenta (Robinson Crusoe). Modele rynków finansowych działają poprzez założenie że reprezentatywny podmiot załatwia swoje sprawy finansowe maksymalizując użyteczność w ciągu całego życia przy danych ograniczeniach, zakładając że potrafi on/ona ocenić prawidłowo prawdopodobieństwa wszystkich przyszłych zjawisk. To podejście jest łączone z Walrasowską teorią równowagi ogólnej, a zwłaszcza rezultatem modelu Arrowa-Debreu, że cała niepewność w systemie może być wyeliminowana jeżeli tylko istnieją odpowiednie instrumenty pochodne (zob. np. http://pl.wikipedia.org/wiki/Instrumenty_pochodne). Ten teoretyczny i bardzo abstrakcyjny rezultat stanowi uzasadnienie popularnego przekonania, że wprowadzenie nowej klasy instrumentów pochodnych podnosi dobrobyt społeczny (tak myślał np. Greenspan, były szef FED). Nie jest to jednak sąd, który byłby dobrze empirycznie ugruntowany. W praktyce matematyczne modele portfela inwestycyjnego i zarządzania ryzykiem umożliwiły ogromne upowszechnienie się i zwiększenie liczby instrumentów pochodnych. Zwykle zostają one wprowadzone w praktyce, gdy w teorii powstaną modele kalkulujące ich ceny i ryzyko z nimi związane. Zasady wyceny powstają głównie ze zbioru założeń co do zachowania się instrumentu bazowego (na podstawie którego utworzony jest derywat) oraz warunku równowagi (np. brak arbitrażu – zob. np. http://pl.wikipedia.org/wiki/Arbitra%C5%BC_(ekonomia) Dodatkowo zwykle sugerowane jest zabezpieczenie się przed ryzykiem pozycji derywatowej poprzez zrównoważenie jej innymi aktywami, które neutralizują wystawienie na ryzyko. Najbardziej znanym rezultatem tutaj jest rozwój teorii wyceny opcji dokonany przez Blacka i Scholesa, który w latach 80. został zaimplementowany nawet na ręczne kalkulatory (poprzednio trzeba było używać komputerów do obliczenia optymalnej ceny opcji). Problemem jest to że modele te, formułowane przed wprowadzeniem nowych instrumentów, nie mogą być estymowane na danych historycznych, i są badane przy uzyciu symulacji przeprowadzanych przy często arbitralnych założeniach co do korelacji między ryzykiem a prawdopodobieństwem niewypłacalności. Stąd teoretyczne podstawy tych derywatów są bardzo wątpliwe – przypomina to budowanie budynków z cementu, którego składników (cementu) nie jesteśmy pewni. Dramatyczny wzrost rynku instrumentów pochodnych opartych na ryzyku kredytowym był możliwy dzięki powstaniu narzędzi wyceny tych instrumentów opartych na symulacjach oraz przyjęciu standardów oceny tych instrumentów, kreowanych przez agencje ratingowe. Wg Eichengreena rozwój metod matematycznych zaprojektowanych do skwantyfikowania i zabezpieczania się przed ryzykiem zachęcił instytucje typu banki komercyjne, inwestycyjne, fundusze do większego lewarowania – tak jak gdyby użycie metod matematycznych zmniejszało ryzyko. Zauważa też że modele te były estymowane dla danych o mniejszej zmienności i stąd nie mogły poradzić sobie w sytuacji dużych zmian rynkowych. Co gorsze takie zmiany są typowe dla gospodarek i nie mogą być po prostu ignorowane. Jak się okazało, nowe nieregulowane rynki finansowe posiadają pewne wady. Prawdopodobieństwo kryzysu systemowego zostało w dominujących modelach potraktowane jako nie będące odpowiedzialnością uczestników rynku. W ten sposób hazard moralny stał się konieczną i wbudowaną w system cechą systemu. Podmioty rynkowe nie brały efektów 3 zewnętrznych swoich działań pod uwagę i ignorowały wpływ swoich działań na stabilność systemu. Wystawiały się na większe ryzyko ponieważ sądzono/wiedziano, że to rząd będzie ponosił ostateczną odpowiedzialność. Inne problemy: narzędzia wyceny aktywów i zarządzania ryzykiem modelowane były przy założeniu ceteris paribus - zachowanie innych podmiotów rynkowych się nie zmienia. Tymczasem modele te mogą być używane przez bardzo wiele podmiotów lub nawet większość. Tymczasem dany podmiot może stać się tak dominujący, że inne przejmą jego strategię i założenie ceteris paribus staje się nierealistyczne (przykład LTCM – zob. np. http://en.wikipedia.org/wiki/Long-Term_Capital_Management) Takie synchroniczne działanie podmiotów może doprowadzić do niespodziewanych efektów makro, które podważają sukces strategii indywidualnych na mikropoziomie. Przykład z kryzysem w październiku 1987. Inny problem do niebezpieczeństwo związane z iluzoryczną kontrolą –m atematyczny rygor, elegancja i numeryczna precyzja różnych narzędzi wyceny aktywów i zarządzania ryzykiem skłania do ukrywania słabości tych modeli i ich założeń. Modele te zbudowane są na uproszczonych założeniach i czasem na bardzo heroicznych założeniach np. normalności zmian cen aktywów – bardzo nierealistyczne. Jest postęp – modelowanie zmiennych finansowych jako procesów Levy’ego z grubymi ogonami (zob. np. http://en.wikipedia.org/wiki/Fat_tail). Ale chociaż one lepiej ujmują naturę zmienności rynków finansowych to ich lepsze działanie może tylko zwiększać iluzję kontroli którą mamy nad tymi rynkami (zwłaszcza dla naiwnego użytkownika modeli). Fakt, że modele są coraz bardziej wyszukane nie oznacza że są bardziej odporne i że mają mniejsze ograniczenia. Instrumenty zabezpieczające przed ryzykiem nadal mogą stać się finansową bronią masowej zagłady (W. Buffet) jeżeli są użyte by zwiększyć dźwignię finansową. Wydaje się że derywaty często były używane właśnie spekulacyjnie jako narzędzia korzystania z wysokich stóp zwrotu póki ryzyko spadku cen się nie zmaterializuje. Badacze rozwijający te modele mogą argumentować, ze są tylko neutralnymi akademikami a odpowiedzialność za użycie tej „broni” spada na użytkowników. Jednak wg autorów mają oni obowiązek ostrzegania społeczeństwa kiedy broń zostaje źle użyta. Należy ujawniać ograniczenia i założenia modeli i ostrzegać przed ich mechanicznym użyciem. Konkluzje z analizy autorów: uczestnicy rynku i regulatorzy muszą być bardziej wrażliwi na potencjalne słabości modeli dot. zarządzania ryzykiem. Ponieważ nie znamy „prawdziwego” modelu badanie trwałości powinno być podstawowym zadaniem – należy stosować więcej niż jeden model. Np. można stosować probabilistyczne projekcje z całej klasy określonych modeli. Teoria trwałej kontroli zapewnia zbiór narzędzi, którego można by użyć. (zob. http://en.wikipedia.org/wiki/Robust_control) 3. Nierealistyczne założenia modeli i nierealistyczne wyniki Wiele modeli ekonomicznych opiera się na parze założeń – racjonalne oczekiwania (RE) i reprezentatywny agent. Przy pierwszym założeniu podmioty mają pełne zrozumienie mechanizmów gospodarczych rządzących światem. Jako takie nie jest ono założeniem opisującym oczekiwania empirycznie. Stąd żadne badania z zakresu ekonomii stosowanej czy 4 psychologii dotyczące faktycznego formowania oczekiwań nie mogą być użyte w modelach z RE. Nie ma więc miejsca w tych modelach na adaptacyjne dostosowania, niedoskonałą wiedzę itp. Najczęściej modele z RE są konstruowane w makroekonomii jako problemy wymagające programowania dynamicznego (zob. http://en.wikipedia.org/wiki/Dynamic_programming) W takich modelach zakłada się także reprezentatywnego agenta co oznacza że nie ma żadnej różnorodności – wszystkie podmioty są takie same. Podejście takie nie jest potwierdzone przez badania empiryczne. W rzeczywistości jest zupełnie sprzeczne z regularnościami dotyczącymi ludzkiego zachowania których dostarczają ekonomia behawioralna i eksperymentalna. Literatura ta dowodzi że ludzie zachowują się w zupełnie inny sposób niż sugeruje założenie RE i w eksperymentach mają problemy w znajdowaniu równowag sugerowanych przez modele RE. Jest raczej tak, że podmioty mają ograniczoną racjonalność (w różnym sensie i zakresie), używają reguł heurystycznych (zob. http://en.wikipedia.org/wiki/Heuristic), nie racjonalnych oraz reagują inercją w obliczu nowych informacji. Dodatkowo na rynki finansowe silnie wpływają czynniki emocjonalne i hormonalne – modelowanie ekonomiczne musi to uwzględniać. Wg autorów wymogiem modelowania ekonomicznego poza wewnętrzną (logiczną) spójnością teorii powinna stać się również zewnętrzna spójność. Modelowanie ekonomiczne musi być spójne z osiągnięciami innych nauk społecznych. Użycie założenia reprezentatywnego agenta oznacza że teoretycy makroekonomii akceptują redukcjonizm pojęciowy: z założenia wszystkie pojęcia aplikowalne do makrogospodarki mogą być zredukowane do pojęć i wiedzy indywidualnych podmiotów. Makrosfera gospodarki jest taka sama jak mikrosfera we wszystkich aspektach. Można powiedzieć, że takie podjeśice neguje w ogóle istnienie mikrosfery i oznacza że postrzega ono całą gospodarkę jako organizm rządzący uniwersalną, ogólną wolą. Jakiekolwiek pojęcie „systemowego ryzyka” czy „problemów koordynacyjnych” jest z konieczności obce takiej metodologii. Zgodnie z pojęciowym redukcjonizmem nie ma żadnej interakcji między mikro i makro poziomem badanego systemu (w przypadku ekonomii: systemu gospodarczego). Aby stworzyć modele pozwalające dedukować makro zdarzenia z mikroekonomicznych regularności ekonomiści muszą przemyśleć mikropodstawy makromodeli. Ponieważ aktywność ekonomiczna jest interakcyjna w naturze, mikropodstawy modeli ekonomicznych powinny pozwalać na różnice w wiedzy między podmiotami, różnice w motywach, wiedzy, zdolnościach itp. Tylko takie założenia pozwolą wyjaśnić ryzyko systemowe, efekty domina w systemie finansowym i ich reperkusje. Nie wystarczy zastąpić obecnego paradygmatu modelami z reprezentatywnymi nieracjonalnymi podmiotami – oba założenia muszą być odrzucone. Jeżeli tak się stanie otwiera się droga przed bardzo bogatym spektrum modeli. Można badać dynamikę poza stanami równowagi i adaptacyjne dostosowywania się do nich podmiotów dysponujących niepełną wiedzą. Może to prowadzić do wielokrotnych stanów równowagi i ewolucji między nimi zależnej od oczekiwań podmiotów albo nawet od rozchodzenia się pozytywnych lub negatywnych nastrojów wśród populacji. To mogłoby uchwycić 5 psychologiczny wymiar cykli koniunktury, który nigdy na poważnie nie był wzięty pod uwagę we współczesnej makro. 4. Trwałość i badania napędzane danymi [rozważania w tej sekcji będą podjęte także za tydzień, także można potraktować je skrótowo] Współcześnie popularne modele makro mają nie tylko słabe mikropodstawy – kiepsko sprawdzają się również w testach empirycznych. Modeli tych – zwłaszcza dynamicznych modeli równowagi ogólnej – nie testuje się, tylko poddaje kalibracji. [Ja więcej opowiem o tym podejściu na zajęciach, chyba że Państwo wiedzą to skądinąd]. Jednak kalibracja, używająca parametrów oszacowanych w badaniach mikroekonomicznych, nie może być poważnym narzędziem weryfikacji modeli makro. Związane jest to z wspomnianym wcześniej problemem pojęciowej redukcji. Inny problem to niestacjonarność i strukturalne zmiany/szoki w danych leżących u podstaw badanych procesów. Obecnie modele empiryczne w makro są dopasowywane do danych (z reguły o długim horyzoncie czasowym), tak że są one zgodne z różnymi zmianami (strukturalnymi, przykłady w tekście, s. 11), które zachodziły. Właściwe podejście powinno jednak polegać na testowaniu modeli a nie zakładaniu że wiemy które są odpowiednie. W tym celu autorzy sugerują oparcie się na metodologiach ekonometrycznych typu modelowanie od ogólnego do szczególnego D. Hendry’ego oraz modelach VAR z ko integracją jako takich które pozwalają „mówić danym”, nie są ograniczane wcześniej nałożonymi restrykcjami teoretycznymi. Tego typu podejścia są w stanie dostarczyć empirycznych uogólnień (faktów), które można by wyjaśniać teoretycznie. Modele, które byłyby niezgodne z tymi faktami musiały by być odrzucone (większość obecnych popularnych modeli makroekonomicznych i z zakresu makrofinansów spotkałby ten los). Wtedy ekonomia mogłaby rzeczywiście oprzeć rekomendacje dla polityki gospodarczej na solidnych podstawach empirycznych i teoretycznych, co nie jest niestety prawdą obecnie. 5. Jak radzić sobie z kruchością systemu finansowego? Innowacje finansowe uczyniły system finansowy bardziej podatnym na kryzys, utworzyły także połączenia pomiędzy poprzednio nie związanymi aktorami rynku – stopień połączenia między uczestnikami rynku znacznie wzrósł. Teoria sieci sugeruje, że system bardziej połączony jest bardziej efektywny w niektórych zadaniach, ale też bardziej narażony na szoki i systemowy kryzys (zob. http://en.wikipedia.org/wiki/Network_theory). Teoria równowagi ogólnej sugerowała że nowe derywaty podniosą efektywność systemu, ale jest to tylko hipoteza wynikająca z bardzo abstrakcyjnego modelu. Nie ma badań empirycznych na ten temat, więc korzyści z nich wynikające nie są naukowo udowodnione. Widać za to pewne problemy z nimi związane. Idea że system stał się mniej ryzykowny wraz z rozwojem rynku derywatów doprowadziła podmioty rynkowe do używania dźwigni finansowej w ekstremalnym stopniu co okazało się niezwykle niebezpieczne. W związku z rosnącym stopniem połączenia miedzy aktorami rynku finansowego i wpływem tego faktu na stabilność systemu, autorzy sugerują działania nadzoru finansowego poświęcone 6 pomiarom stopnia połączenia między podmiotami i aspektów sieciowych systemu finansowego oraz poddanie systemu stress testom (zob. np. http://en.wikipedia.org/wiki/Stress_testing). W ten sposób można uzyskać miary kruchości/wrażliwości systemu finansowego. Teoria sieci oraz teoria samoorganizującej się krytyczności (http://www.santafe.edu/~hag/internet/node9.html) mogłyby dać tutaj wkład. Niebezpieczeństwo ryzyka systemowego oznacza że regulacja musi być rozszerzona z indywidualistycznej do systemowej. Należy badać połącznia między instytucjami sektora finansowego by poznać reperkusje problemów w jednej jego części dla części pozostałych (także w profilu międzynarodowym). Zanim podejmie się decyzję o dofinansowaniu dużego banku należy rozumieć sieć w której się on znajduje, by wiedzieć czy jego bankructwo doprowadzi do efektu domina albo czy zarażenie systemu będzie ograniczone. Obecnie regulatorzy nie mają tego typu narzędzi. Bardziej tradycyjne instrumenty regulacji są nadal potrzebne. Rynek funduszy hedgingowych jest w dużej mierze nieregulowany. Zależności między levarowaniem, stopniem połączenia i ryzykiem systemowym muszą być badane na poziomie zagregowanym (makro). Jest bardzo prawdopodobne że połączenie ekstremalnej dźwigni i dużego stopnia połączenia w systemie daje zbyt wysokie ryzyko dla społeczeństwa (w kontekście wywoływania kryzysu). Stąd rozsądne wymogi kapitałowe dla funduszy hegde wydają się pożądane i wymagają solidnych naukowych podstaw a nie mogą być oparte na przed-analitycznym podejściu opartym na leseferyzmie. 6. Konkluzje Chociaż obecny kryzys może być postrzegany jako końcowy etap ciągu boomów i krachów, które już wielokrotnie spotykaliśmy w historii gospodarczej świata, to są pewne specjalne aspekty tego kryzysu które czynią go innym. Po pierwsze, boom poprzedzający krach miał źródło w dużej mierze w rozwoju nowych produktów finansowych które otworzyły nowe możliwości inwestycyjne. Po drugie, mamy globalny wymiar kryzysu dzięki rosnącemu stopniowi połączenia w systemie finansowym. Oba wymiary były w dużej mierze ignorowane przez ekonomię akademicką. Badania na temat przyczyn niestabilności, przeinwestowania i kryzysów były uważane za egzotyczne i będące poza właściwą ścieżką rozwoju badań i nauczania. Było to spowodowane tym, ze tego typu badania były niezgodne w założeniem o racjonalnym reprezentatywnym agencie. Ten paradygmat uczynił ekonomię ślepą na rolę interakcji i połączenia między podmiotami – większość prac o „zakażalności” systemów finansowych i zachowaniu stadnym nie została włączona do analizy makroekonomicznej. Wg autorów ekonomia została uwięziona w nieoptymalnej równowadze w której duża część wysiłków badawczych nie jest skierowana w stronę najbardziej palących potrzeb społeczeństw. Samowzmacniające mechanizmy zwrotne w profesji ekonomistów doprowadziły do dominacji paradygmatu który nie ma solidnych podstaw metodologicznych i którego adekwatność empiryczna jest co najwyżej skromna. Z definicji usuwając najbardziej ważne problemy współczesnych gospodarek oraz ponosząc porażkę w komunikowaniu ograniczeń i założeń popularnych modeli ekonomicznych, ekonomiści ponoszą część odpowiedzialności za obecny kryzys. Zawiedli w ich obowiązku co do dostarczania społeczeństwu wiedzy na temat działania gospodarki i ostrzegania co do narzędzi które tworzą. Wg autorów nieumiejętność przewidzenia kryzysu i niezdolność standardowej makro i finansów do dostarczenia wglądu w bieżące wydarzenia stanowi wystarczający powód dla 7 poważnej reorientacji badań w tych dziedzinach i przemyślenia na nowo ich podstawowych założeń. 8