http://almacendederecho.org/wp-content/uploads/2015/06/Logo-Almacen-de-Derecho-300x871.png

domingo, 9 de abril de 2017

¿Cómo determinarmos el valor de algo cuando no hay buenos precios?

Ocre @lecheconhiel                
CyN1I9tXcAA_eB7                                    

“Una de las ventajas de los modelos simples es que, incluso aunque se demuestre que son falsos, nos proporcionan constructos que son fáciles de entender y de manipular” y con ellos aumentan nuestro conocimiento y nuestra habilidad para manejar otros modelos que, estos sí, pueden ajustarse a la realidad y explicar bien los fenómenos sociales”.

¿Cómo atribuímos valor a una información? Si lo hacemos como atribuimos valor a cualquier otro bien o servicio, recurriremos a la disposición a pagar de la gente. Una información vale lo que la gente está dispuesta a pagar por ella. Este criterio es el de mercado y requiere de un sistema de precios que funcione razonablemente bien. Lamentablemente no hay precios para cada unidad de un bien o servicio que, sin embargo, está disponible para ser usado por la gente. Con la información, por su carácter de “bien público” (el que produce la información no puede retener todos los beneficios de la misma y, por tanto, no puede reclamar un precio que se aproxime a esos beneficios) los precios no son buenos, así que hay que ensayar otra forma de medir el valor de la información.



Cuando – como la información – los medios (activos, infraestructuras, materias primas) que se utilizan para producir información son variados, si el producto (output) es homogéneo, un denominador común puede encontrarse en la proporción del insumo (del tipo que sea) necesaria para producir una unidad del producto. Por ejemplo, eso hacemos con la energía: “el consumo de energía se mide en equivalente a toneladas de petroleo o en toneladas de carbón o en teravatios-hora, lo cual es razonable cuando estas evaluando el potencial de las fuentes de energía que puedes usar alternativamente para producir energía. Y es razonable porque hay sustituibilidad entre el petróleo, el carbón y la electricidad en la Economía”. “Toneladas” – o sea, volumen – es un buen denominador común para medir el valor de los combustibles o fuentes de energía.

Sería absurdo, sin embargo, medir lo que produce un país en toneladas o cualquier otra medida de volumen: “la variedad de bienes que se producen es demasiado amplia como para que si atendemos a su peso total nos diga algo significativo de la producción de un país”. Si hiciéramos tal cosa, la producción de un país se mediría en función de cuánto movimiento de tierras hacen o, en el mejor de los casos, en su producción de petroleo y carbón. Por eso el PIB se mide en el valor que se atribuye a los productos, medido en dinero y en cuánto dinero están dispuestos a pagar los que adquieren esos productos y servicios, lo que implica, en definitiva, referirse a las preferencias de la gente con todo lo problemático de su medición y ordenación y, de nuevo, al sistema de precios.

Cuando se trata de medir la información, un denominador común útil es el “bit” o unidad. Pero “bit” es una unidad de volumen y, por sí sola, poco significativa. Odlyzko propone cuatro atributos para medir la información: volumen, latencia de la transacción, alcance y precio o sea,  ¿Cuántos datos puede transmitir?; ¿Cuánto tiempo se tarda en hacer algo? ¿Dónde se puede prestar el servicio? ¿Cuánto cuesta?
Si aplicamos esta regla al acceso a Internet, encontramos que el paso de la conectividad de acceso a 10 Kbps a una capacidad – la inicial – de banda ancha de 1 Mbps representa (tomando logaritmos decimales) un paso de 4 a 6 (10.000 es 10 elevado a la 4ª potencia y 1 mega, o sea 1.000.000 es 10 elevado a la 6ª), una mejora de un 50%. Por otro lado, un paso de 10 Mbps a 100 Mbps representa un paso de 7 a 8, una ganancia de sólo el 14%. Esto podría ayudar a explicar la difusión relativamente lenta de la banda ancha de alta velocidad. En general, esta regla representa el progreso de las tecnologías de la información y la comunicación como más cercana a la lineal que a la exponencial
¿Por qué? Porque hay que suponer que las ganancias para el usuario de una mejora de la capacidad de un 14 % son inferiores a las que obtiene de una mejora del 50 %. Pero si hacemos la comparación en términos absolutos, acabaríamos pensando lo contrario. Este tipo de análisis es muy importante para explicar por qué los avances tecnológicos no generan aumentos exponenciales de la riqueza, la productividad o la innovación. Odlyzko compara el crecimiento de la economía con el crecimiento de la capacidad de computación, almacenamiento de datos y telecomunicaciones. El PIB del mundo crece al 5 % anual, más o menos, y esta capacidad crece al 50 % anual en los últimos años. “Sin embargo, estos tres sectores han permanecido prácticamente estancados en términos de ingresos”. Es decir, “el valor que estos sectores pueden extraer de la Sociedad permanece prácticamente constante”. Podría pensarse que, en realidad, lo que ha ocurrido es que los productores de estos tres sectores no han podido apropiarse de más. En otras palabras, que el mayor valor que han generado ha ido a parar a los consumidores. Pero, dice Odlyzko “no hay signos de que los consumidores estén obteniendo beneficios gigantescos” por lo que hay que suponer que el valor añadido que aportan estos sectores es más o menos constante. Si es así, es preferible “medir” la aportación de estos sectores utilizando las potencias aplicadas a su crecimiento, como en el ejemplo del ancho de banda. Pasar de 10 megas a 100 megas supone sólo una ganancia de un 14 % porque es pasar de 10 a la 7 (10 ^ 7) a 10 a la 8ª potencia (10 ^ 9).

Continúa Odlyzko diciendo que esta forma de “medir” explica mejor algunas observaciones que se han hecho en los últimos años. Una es la idea, promovida por Chris Anderson a partir de un artículo de Shirky sobre la existencia de una “larga cola” en productos como los libros o las canciones que explica por qué internet y el comercio electrónico han generado un enorme valor a los consumidores. Internet permite reducir enormemente el número de “clientes” necesarios para cubrir costes porque, al hacer accesible a todo el mundo – en sentido geográfico – los productos, el oferente puede llegar a toda la demanda potencial para su producto. Así, no sólo los “best-sellers” venden más porque el alcance de la distribución es mundial, sino que cualquiera que venda a un nicho de clientes (por ejemplo, los aficionados al esoterismo en la Edad Media) o a clientes con preferencias muy particulares puede sobrevivir en el mercado porque hay demanda suficiente para sus productos. Esto es posible porque, “the winner doesn’t takes it all”. El best sellers se lleva la mayor parte (de un volumen mucho mayor de ventas porque tienen alcance mundial), pero no todo lo que están dispuestos a comprar los consumidores.

Dice Odlyzko que
La ley de Zipf (en español) y el cálculo logarítmico de la información proporcionan una reinterpretación cuantitativa de la teoría de "cola larga"… Si tenemos una colección de mil millones (10 ^ 9) de objetos que sigue la ley de Zipf en su valoración, el valor de la colección entera es alrededor de 9. Sin embargo, los mil más valiosos valen sobre el logaritmo de 10 ^ 3, que es 3, Y el millón más valioso vale alrededor de 6. Esto sugiere que la hipótesis de la "cola larga" es correcta y que la gran mayoría de artículos con valoraciones bajas son valiosas (aumentan el valor total) y pueden, valorados en conjunto, superar al valor de los productos más vendidos. Sin embargo, los "grandes éxitos" casi nunca son insignificantes. Este enfoque de la teoría de la "cola larga" es muy aproximado, ya que en la práctica los estudios cuidadosos de varios mercados muestran que la ley de Zipf no suele ser una buena aproximación a las valoraciones reales. Sin embargo, este enfoque proporciona una manera rápida de pensar en la medida en que "cola larga" podría aplicarse en diversas situaciones, y cuánto depende de dónde empieza la cola larga
Pero, el mismo razonamiento nos sirve para refutar la “teoría de la singularidad” de Ray Kurzweil según la cual “el progreso exponencial de la tecnología está alcanzando un punto que cambiará drásticamente la humanidad”. Pues bien, “si aplicamos una evaluación logarítmica a esas capacidades tecnológicas” resulta que Kurzweil está equivocado: la tecnología evoluciona linearmente, no exponencialmente, “lo que parece mucho más realista”.

Más interesante todavía es la aplicación de esta idea a lo que cabe esperar de las “revoluciones” en los modelos de negocio. Todos los emprendedores esperan poner en práctica una “innovación disruptiva” y estas innovaciones serían aplicables, no solo a la tecnología (al cómo fabricamos los productos) sino también a cómo se hacen llegar esos productos a los consumidores. Odlyzko utiliza la historia económica para ejemplificar que las disrupciones son mucho menos frecuentes de lo que nos han hecho creer en la última década y, en concreto, utiliza la distribución de los periódicos y las cartas en el siglo XIX en Gran Bretaña y en Estados Unidos.

A partir del estudio de la circulación de periódicos en el siglo XIX en Gran Bretaña y de la evolución del número de cartas que se enviaban a través del sistema de correos, concluye que, en ambos casos, se produjo un cambio en el modelo de negocio (una bajada de precios porque se redujeron los impuestos a los periódicos en 1837 y una reforma del sistema postal) y, en ambos casos, el cambio sustancial en el modelo de negocio lo que generó fue un incremento de la tasa de crecimiento a largo plazo, pero no un salto inmediato en el volumen de periódicos vendidos o de cartas enviadas.

En este punto, hay otra cuestión relevante que tiene que ver con cómo medimos la producción. Cuando se produce un cambio en los precios relativos de varios bienes, a menudo no es fácil saber si ambos productos eran sustitutivos o complementarios. Por ejemplo, la aparición del telégrafo ¿produjo una disminución o un aumento del volumen de envíos postales – de cartas –? Si telegrama y carta son medios sustitutivos de enviar información, cabría esperar que la aparición de los telegramas redujera el número de cartas. Pero si son complementarios, observaríamos un aumento del volumen de cartas como consecuencia de la aparición del telégrafo: “aunque las expectativas eran que el telégrafo desplazaría a las comunicaciones postales, ambas crecieron simultáneamente y por muchas décadas… La baja latencia (mayor rapidez), en lo que el telégrafo tenía una ventaja incomparable, no era suficiente para compensar las desventajas del telégrafo en volumen, alcance y precio”.

O piénsese en la aparición del ferrocarril. La mejora del transporte que el ferrocarril significó tuvo que tener alguna influencia sobre el volumen del correo. Por un lado, porque si la gente podía verse personalmente más fácilmente, cabría esperar que se redujera el número de cartas que se enviaban para estar en contacto. Por otro lado, al transportarse las cartas por ferrocarril, se redujo el coste de enviarlas y se aumentó la velocidad a la que llegaban a su destino. En fin, gente que se ve más a menudo – cabe esperar – se enviarán más cartas entre sí en cuanto el “nivel” de contacto es ahora más elevado porque está reforzado por haberse visto personalmente una vez cada pocos años.

Detectar si las relaciones entre productos o servicios son complementarias o sustitutivas y de qué modo las innovaciones alteran esas relaciones de complementariedad o sustitución es una de las cuestiones más relevantes para el análisis, por ejemplo, de los efectos de la robótica o la inteligencia artificial sobre el volumen de empleos en el futuro.

Este tipo de análisis es de gran utilidad – recuérdese la frase sobre los modelos del comienzo de la entrada – para analizar los métodos de telecomunicación que se han generalizado en la última década. Desde el correo electrónico, los SMS y la telefonía móvil (¿cómo ha evolucionado el uso que se hace del móvil desde su utilización casi exclusiva para llamadas de voz a su utilización masiva para intercambiar textos e imágenes y, ahora, mensajes de voz) a la banda ancha y los negocios que se desarrollarán en torno a ella. Por ejemplo, quiénes son los ganadores y los perdedores (¿las empresas que generan contenidos o las empresas que gestionan los “tubos” o las “líneas” o redes a través de las cuales circulan esos contenidos? y ¿qué parte del valor añadido puede ser retenido por las empresas que proporcionan esos bienes o servicios y qué parte – por las características del producto y de la competencia – se traslada a los consumidores?) No en vano, el otro trabajo de Odlyzko se titula “El contenido no es el rey”. Y, como me sugería Blanch, es posible que el cálculo logarítmico para medir si un cambio tecnológico es o no disruptivo y el crecimiento linear o exponencial no sea igualmente aplicable a herramientas como el “aprendizaje profundo” de las máquinas o la inteligencia artificial en general cuando se digitalizan las disciplinas.

Andrew Odlyzko The Volume and Value of Information International Journal of Communication 6 (2012), 920–935

Andrew Odlyzko, Content is not king

No hay comentarios:

Archivo del blog