http://almacendederecho.org/wp-content/uploads/2015/06/Logo-Almacen-de-Derecho-300x871.png

viernes, 1 de diciembre de 2017

Reputación, cumplimiento normativo y big data

DPhi1tFUQAUJsXD

Elena Alfaro (la otra Elena que no es mi hermana), jefa de Datos del BBVA ha publicado un artículo en el último número de ICE en el que explica qué empresas han sabido utilizar los datos de la mejor manera para colocarse en una situación ventajosa competitivamente. Los ejemplos están bien elegidos y – debe de ser la querencia de la autora – se concentran en mejorar la experiencia de compra del cliente. Amazon, Netflix utilizan los datos que extraen de la actividad de sus clientes para mejorar las subsiguientes interacciones del cliente con la empresa. Si en el mundo tradicional recurrimos a otros individuos para que nos aconsejen sobre qué comprar (recuerden, la gente no quiere información, la gente quiere buenos consejos), “adivinar” a quién recurriríamos para recibir consejo puede potenciarse extraordinariamente a través de la gestión de los datos. El algoritmo tiene que “adivinar” a quién recurriría yo para que me recomendasen una serie en Netflix, un libro en Amazon o un fondo de inversión en BBVA. Twitter, por ejemplo, lo hace bastante mal, al menos a juzgar por la “evidencia anecdótica” personal que se deduce de las recomendaciones de “a quién seguir”. Lo más interesante para el que suscribe del artículo de Alfaro es lo que dice sobre el uso responsable de los big data por parte de las empresas. Recuerden, muchas de las tecnológicas son “adolescentes” y no han crecido lo suficiente en este aspecto que, sin embargo, es mucho más importante de lo que podría imaginarse porque puede llevar a la ruina a la empresa más “excelente” desde el punto de vista de la eficiencia en el tratamiento y gestión de los datos de sus clientes de los que dispone. Como habrá podido imaginar el lector, lo que dice Alfaro tiene mucho que ver con el cumplimiento normativo. Reproduzco los párrafos correspondientes. Además, Alfaro se refiere a los efectos que puede tener el big data sobre la desigualdad social pero esta es una cuestión que no corresponde resolver a las empresas sino a los legisladores y, por tanto, que no entra en el cumplimiento normativo en el sentido en el que yo prefiero utilizar la expresión.


Dice Alfaro

Desde el punto de vista más técnico, desafiar siempre nuestras propias matemáticas, no creernos el primer resultado que satisface el objetivo, buscar, como hacen los científicos, el peer review, o la revisión por parte de otros expertos para validar la calidad de los modelos.

Asegurarnos de que los datos de origen no contienen sesgos humanos que pueden desvirtuar el resultado, que matemáticamente podría ser correcto, pero quizás inaceptable desde la ética.

Aquí se hace una referencia a lo que hemos aprendido gracias a los avances de la Antropología, la Psicología Económica y la Psicología evolutiva.

Preguntarnos ¿qué es lo peor que se podría hacer con este algoritmo? no significa que lo vayamos a hacer, pero solo hacernos la pregunta ya nos da pistas sobre hacia dónde no debería ir nunca su uso, o lo que sucedería si cayera en según qué manos. También es válida la pregunta: ¿si el funcionamiento y resultados de un algoritmo se hacen públicos, que ocurriría?

Piensen en el algoritmo de Uber para implementar el price surge. Para evitar que acabemos haciendo “lo peor” que podríamos hacer con el algoritmo, conviene que las decisiones sobre la creación del algoritmo y las decisiones sobre su implementación para crear un “producto” o “servicio” se tomen por sujetos distintos dentro de la empresa. Los abogados – los compliance officers – de empresas tecnológicas (lo que incluye, prácticamente todas las empresas pero, especialmente, las del sector financiero) tienen que tener conocimientos suficientes de estas materias como para comprender – y explicar a continuación – los riesgos que la implantación de un algoritmo pueden tener sobre la reputación de la empresa. Porque los resultados pueden ser catastróficos. Piénsese en el modelo de negocio de Facebook y su manipulación por parte de los servicios secretos rusos para manipular las elecciones norteamericanas. O piénsese, en un nivel menos catastróficos, en que un algoritmos nos permite asegurar que muchos más clientes comprarán uno de nuestros productos a pesar de que sabemos que no hay “ganancia para ellos” en adquirirlo. La creciente responsabilidad de los que distribuyen productos financieros – su deber de lealtad hacia los clientes – ha aumentado los riesgos de que se promueva la distribución de productos que generan ganancias exclusivamente para el banco o la compañía telefónica o de electricidad o gas pero que, desde el punto de vista del cliente, simplemente aumentan su gasto en los productos de la empresa. De ahí que sea pertinente lo que dice a continuación Alfaro:

¿A quién estamos «empoderando» con el algoritmo? ¿quién o quiénes se benefician de su uso? No se trata de ser ingenuo y pensar que las empresas no van a buscar el beneficio, pero también se puede hacer aportando valor a los clientes, o a la sociedad, o al menos no quitándoselo.

Finalmente, Alfaro se refiere a la transparencia del algoritmo, es decir, que permita a la empresa “dar explicaciones” de sus decisiones en relación con los clientes lo que, nuevamente, es central para la gestión de la reputación de la empresa:

¿Cómo de accionables son las variables que usa el algoritmo para las personas o comunidades sobre las que se aplica? Por ejemplo, si un algoritmo discrimina por la raza para dar acceso a un recurso, tendría poco sentido, ya que la raza es una variable sobre la que el sujeto tiene poco que hacer. —— ¿Cómo de necesario es comprender el funcionamiento de un algoritmo, y cómo de transparentes somos con ello? Por ejemplo, entender cómo funciona un algoritmo de traducción no es necesario para que su uso sea legítimo y útil (lo importante es que traduzca bien), pero sí es necesario entender por qué a alguien se le deniega un préstamo, tanto para ver si se está discriminando injustamente, como para entender cómo puede mejorar esa persona de cara al futuro.

Elena Alfaro, Datos, Inteligencia e Innovación, ICE 2017

No hay comentarios:

Archivo del blog