martes, 23 de octubre de 2012

Shleifer comenta el libro de Kahneman

Shleifer piensa que el behavioural economics, o sea, la idea de que los sujetos no actúan racionalmente en sus decisiones económicas y que las desviaciones de la racionalidad pueden racionalizarse, constituye el avance más importante en Economía en los últimos 30 años. Y defiende tamaña afirmación frente a las objeciones de los economistas ortodoxos.


Estos dicen, en primer lugar, que no importa que no seamos sujetos perfectamente racionales porque “en grandes números” y examinando conductas de muchas personas a la vez, no adoptamos decisiones irracionales sistemáticamente. Pues bien, sí que lo hacemos. Pone tres ejemplos: los seguros, la publicidad y los fondos de inversión
  • cuando contratamos seguros: “individuals pay large multiples of actuarially fair value to buy insurance against small losses, as well as to reduce their deductibles… such choices imply astronomical levels of risk aversion
  • la publicidad es efectiva a pesar de que the standard economic view that persuasion is conveyance of information seems to run into a rather basic problem that advertising is typically emotional, associative, and misleading
  • los fondos de inversión simples (los que invierten en índices bursátiles) producen más rendimientos que los gestionados activamente (esos por los que pagamos comisiones muy altas porque se supone que hay unos tíos listísimos comprando y vendiendo lo que más interesa – se supone – a los inversores) y, sin embargo, solo una minoría invierte en los primeros
Tampoco el arbitraje – la madre de todas las eficiencias – funciona como debiera. Si alguien ve que en un sitio algo se está vendiendo a 3 y en otro sitio a 2, tiene incentivos para comprarlo a 2 y revenderlo en el otro sitio a 3, con lo que la ley del precio único debería funcionar si la gente exprime las oportunidades de ganancia. Pues bien, ni siquiera en los mercados financieros, donde el arbitraje debería ser prácticamente gratis, funciona:
“Dozens of empirical studies confirm that, even in markets with relatively inexpensive arbitrage, identical, or nearly identical, securities trade at different prices. With costlier arbitrage, pricing is even less efficient”.
Kahneman distingue entre pensamiento rápido y pensamiento lento para referirse, con el primero, a la solución intuitiva a problemas (sistema 1) y, con el segundo, a la solución razonada y “científica” (sistema 2). Con problemas sencillos o a los que nos enfrentamos repetidamente (lo que convierte a algunos en expertos, pero a otros, no), actuamos intuitivamente. Los errores se producen cuando aplicamos el pensamiento rápido a problemas que, en general, o para nosotros en particular, son del segundo tipo (piensen en cualquier acertijo que contestamos rápidamente y que contestamos mal porque no hemos tenido en cuenta alguna variable relevante o porque incurrimos en alguna falacia lógica. Por ejemplo, – de Kahneman – si nos preguntan si un hombre tímido e introvertido pero atento será, con mayor probabilidad, bibliotecario o agricultor. Todo el mundo contesta que bibliotecario pero, es más probable que sea agricultor porque hay muchos más agricultores – sobre todo entre los varones – que bibliotecarios. Es también importante que cada individuo utiliza el pensamiento rápido o el lento en función de sus experiencias y formación o especialización.
La mejor historieta es la siguiente – según Shleifer -
Kahneman recalls a magnificent story of Israeli Air Force officers explaining to him that being tough with pilots worked miracles, because when pilots had a poor landing and got yelled at, their next landing was better, but when they had a great landing and got praised, their next landing was worse. To these officers, the role of chance and consequent mean reversion in landing quality did not come to mind as an explanation.
(lo de la reversión/regresión a la media es algo que cualquiera con estudios universitarios debería estudiar y saberse).
In one effort that sought to stay close to Kahneman’s System 1 reasoning, Gennaioli and I (2010) argued that individuals solve decision problems by representing them – automatically but incompletely -- in ways that focus on features that are statistically more associated with the object being assessed (en el famoso ejemplo de Linda, la cajera de banco feminista y radical en sus años de estudiante que constituye un caso de falacia por conjunción, “The decision maker thus compares the likelihoods not of bank teller vs feminist bank teller, but rather of the stereotypical (representative) non-feminist bank teller vs feminist bank teller, and concludes that Linda the college radical is more likely to be the latter, lo que nos parece rarísimo (que Linda haya decidido trabajar como cajera en un banco). Pero es obvio que es más probable que Linda sea una cajera a que sea una cajera que, además, milita en movimientos feministas.
Ahora bien, como dice Jim Holt, si tenemos en cuenta las expectativas que facilitan la conversación entre humanos, es perfectamente razonable que los participantes en el experimento tomaran la expresión “Linda es una cajera de un banco” en el sentido de implicar que Linda NO era, además, feminista, en cuyo caso, las respuestas no eran realmente producto de una falacia”. En contextos menos abstractos (por ejemplo, dice Holt cuando se trata de descubrir a un tramposo), somos bastante racionales. Ser excesivamente optimistas – otro de los sesgos analizados por Kahneman y que éste considera el más relevante de todos – es, seguramente, bueno para nuestra supervivencia como individuos (los optimistas tienen mejor sistema inmune y viven más). Stephen Jay Gould lo explica así
Tversky and Kahneman argue, correctly I think, that our minds are not built (for whatever reason) to work by the rules of probability, though these rules clearly govern our universe. We do something else that usually serves us well, but fails in crucial instances: we “match to type.” We abstract what we consider the “essence” of an entity, and then arrange our judgments by their degree of similarity to this assumed type. Since we are given a “type” for Linda that implies feminism, but definitely not a bank job, we rank any statement matching the type AS MORE PROBABLE than another that only contains material contrary to the type. This propensity may help us to understand an entire range of human preferences, from Plato’s theory of form to modern stereotyping of race or gender.
Pero es todavía mejor el ejemplo de los jueces ¡alemanes! que imponían penas más largas por un hurto cuando tiraban unos dados trucados para que saliese un número alto (efecto ancla)
La gran aportación de Kahneman es la llamada teoría de la prospección o de las perspectivas que modifica sustancialmente la teoría de la utilidad – basada en comportamientos racionales – que utilizan los economistas. La teoría de Kahneman es mucho más próxima a lo que hemos aprendido de la evolución del ser humano en los últimos tiempo.
El punto más importante de la teoría de Kahneman es la existencia de un “punto de referencia” a partir del cual la gente toma las decisiones que implican riesgos en lugar de decidir teniendo en cuenta todas las ganancias o pérdidas que pueden resultar de una decisión. No se sabe muy bien, dice Shleifer, qué debe entenderse por “punto de referencia”. El segundo es que la gente es aversa a las pérdidas (en nuestro cerebro, las pérdidas son procesadas del mismo modo que las amenazas físicas). El tercero es complementario del anterior y lleva a que tomemos decisiones irracionales pero que nos dan una oportunidad de evitar una pérdida (preferimos pérdidas esperadas mayores a pérdidas seguras menores). Y el último es que, al decidir, sobrevaloramos eventos cuya producción es muy baja (que nos toque la lotería) e infravaloramos los que tienen una probabilidad muy alta. Shleifer y otros han elaborado este último punto señalando que “unlike in Prospect Theory, individuals overweigh only low probability events that are associated with extreme, or salient, payoffs. Es decir, solo sobreponderamos la probabilidad de que se produzca un evento cuando se trata de eventos que producen enormes ganancias – la lotería – o resultados catastróficos – el estallido de una central nuclear – .
Otra aportación de Kahneman es que “the framing or representation of the problem changes probability weights even when objective outcomes are identical” (si nos presentan un tratamiento médico arriesgado en términos de vidas salvadas o vidas perdidas, nuestra valoración del tratamiento varía).
Shleifer no trata en su recesión de las implicaciones de las teorías de Kahneman para la política jurídica. Y lo que dice parece muy relevante para los juristas. Por ejemplo, si facilitar más información a los consumidores para evitar que “elijan mal” o para garantizar que eligen bien (que “piensan despacio en lugar de pensar deprisa” cuando toman decisiones financieras o relativas a su estilo de vida – saludable – como dejar de fumar) no funciona. Y no funciona porque el sistema 1 – que es el que “gestiona” esas decisiones – no le pasa el mensaje al sistema 2 y, por tanto, no se adoptan racionalmente. De ahí que pueda ser preferible “apelar” al sistema 1 cuando se comunica la información al consumidor. No hay que recordar el tono de los mensajes que se incluyen en los paquetes de tabaco pero sí, tal vez, que llamar al impuesto de sucesiones “impuesto sobre la muerte” puede ser más eficaz para galvanizar a los contrarios al mismo que apelar a que lo tiene que pagar gente de clase media que ha trabajado duro toda su vida para dejarle algo a sus hijos. O reducir la libertad de decisión.
Y nos gusta mucho su resumen de la lección más importante que se extrae de la lectura del libro de Kahneman
the main lesson I learned from the book is that we represent problems in our minds, quickly and automatically, before we solve them. the fundamental feature of System 1 is that what our attention is drawn to, what we focus on, and what we recall, is not always what is most necessary or needed for optimal decision making. Some critical information is ignored; other -- less relevant – information receives undue attention because it stands out. System 1 is automatic and reactive, not optimizing. As a consequence, when we make a judgment or choice, we do that on the basis of incomplete and selected data … Even if the decisions are optimal at this point given what we have in mind, they might not be optimal given the information potentially available to us both from the outside world and from memory. By governing what we are thinking about, System 1 shapes what we conclude, even when we are thinking hard.
Y, para terminar, una frase de S.J. Gould que explica la relación de los trabajos de Kahneman con la evolución (al hilo de por qué Di Maggio consiguió el record de golpes de bate exitosos consecutivos (56 seguidos en una temporada)
The history of a species, or any natural phenomenon that requires unbroken continuity in a world of trouble, works like a batting streak. All are games of a gambler playing with a limited stake against a house with infinite resources. The gambler must eventually go bust. His aim can only be to stick around as long as possible, to have some fun while he’s at it, and, if he happens to be a moral agent as well, to worry about staying the course with honor. The best of us will try to live by a few simple rules: do justly, love mercy, walk humbly with thy God, and never draw to an inside straight.

1 comentario:

Anónimo dijo...

Magnifica reflexión. Sobre estas cuestiones del pensamiento/comportamiento humano, pensamiento reflexivo frente al intuitivo y algunas más como que vivimos en lo que llama "extremiquistan" pero creemos vivir en "mediocristran" o los compensaciones por actividades escalables frente a las lineales y sus consecuencias a la hora de entender las causas de las cosas es muy recomendable el libro de NASSIM NICHOLAS TALEB que se titula " EL CISNE NEGRO: EL IMPACTO DE LO ALTAMENTE IMPROBABLE"

Archivo del blog