En el artículo de hoy vamos a hablar sobre cómo los datos de localización de los usuarios pueden servir para la toma de decisiones discriminatorias.
Las políticas de precios online generalmente no son transparentes para los clientes, y se basan en parámetros que se desconocen por completo. Esto abre una serie de oportunidades para la llamada diferenciación de precios y discriminación de precios.
Antes de seguir, aclaremos ciertos términos que pueden llevar a confusión. Existe una importante diferencia entre la DISCRIMINACIÓN de precios y la DIFERENCIACIÓN de precios.
La diferenciación de precios describe una estrategia para determinar el precio de un producto o servicio en función de las necesidades de un cliente potencial, no depende de las características del cliente.
Sin embargo, en la discriminación de precios, el precio se determina en función de los atributos personales de un cliente potencial, como la ubicación, el estado financiero, las posesiones, el género o el comportamiento.
Desde un punto de vista técnico, una plataforma online puede aprovechar muchos tipos de técnicas para identificar a un usuario, que sería el punto de partida para la discriminación de precios.
En la práctica, las huellas digitales del navegador proporcionan más información sobre un cliente que los métodos basados en cookies, incluidos los atributos de software, como el agente de usuario utilizado, o los plugins instalados.
Pero, no hay nada mejor que demostrar las cosas científicamente, con hechos contrastados. En el paper “An Empirical Study on Online Price Differentiation” se aplicaron las huellas digitales del navegador del mundo real para simular diferentes sistemas y analizar los cambios de precios correspondientes.
Para lograr este objetivo, los autores implementaron un escáner de precios automatizado capaz de disfrazarse como un sistema arbitrario que aprovecha las huellas digitales del sistema del mundo real y buscaron diferencias de precios relacionadas con:
1. Ubicación del usuario,
2. Sistemas específicos representados por sus huellas digitales, y
3. Características únicas de las huellas digitales.
En este estudio empírico se examinaron varios sitios web de reserva de alojamiento y una plataforma de proveedor de alquiler de automóviles para identificar qué parámetros afectan el precio de un activo.
El resultado mostró la existencia de discriminación de precios basada en la ubicación, mientras que, los cambios de precios basados en las huellas digitales del sistema, se encuentran en casos únicos y no revelan una discriminación sistemática.
En este otro paper, “Proxy Discrimination in Data-Driven Systems”, https://arxiv.org/pdf/1707.08120.pdf se explican cómo funcionan varios ejemplos de modelos (árboles de decisión) utilizados por un banco para aceptar solicitudes de préstamos hipotecarios.
El banco utiliza la raza, el código postal y el nivel de interés del cliente. Los códigos postales w1 y w2 son predominantemente blancos. mientras que los códigos postales b1 y b2 son predominantemente negros. El interés en el préstamo (alto o bajo) es independiente de la raza.
Un banco usa explícitamente la raza para evaluar la elegibilidad de préstamos. Esta forma de uso explícito de un tipo de información protegida se puede descubrir mediante los métodos de experimentación de caja negra existentes que establecen efectos causales entre datos de entradas y datos de salida.
En la figura b) el Código Postal de los solicitantes es indicativo de su raza. Por lo tanto, el banco puede usar el código postal en lugar de la raza para evaluar la elegibilidad del préstamo.
El ejemplo d) no usa la raza directamente, pero la infiere a través de asociaciones y luego la usa. Los métodos existentes pueden detectar tales asociaciones entre clases protegidas y resultados en datos de observación.
(Uso de proxy enmascarado, Fig. d) Esta es una versión más insidiosa del ejemplo b). Para enmascarar la asociación entre el resultado y la raza, el banco ofrece préstamos no solo a la población blanca, sino también a aquellos con bajo interés expresado en préstamos, las personas que tendrían menos probabilidades de aceptar un préstamo si se les ofreciera uno. La figura d) es un ejemplo de dicho algoritmo.
Si bien no hay asociación entre la raza y el resultado tanto en el Ejemplo c) como en el Ejemplo d), existe una diferencia clave entre ellos. En el ejemplo d), hay un cálculo intermedio basado en códigos postales que es un predictor de raza, y este predictor se usa para tomar la decisión y, por lo tanto, es un caso de uso de proxy.
Para maximizar las ganancias, a los vendedores les gusta participar en la discriminación de precios: establecer precios más altos para los consumidores que están dispuestos a pagar más y precios más bajos para los consumidores que están dispuestos a pagar menos.
Impulsado por los grandes datos, la discriminación algorítmica de precios es capaz de analizar a la población de clientes potenciales en subcategorías cada vez más finas, cada una con un precio diferente.
En algunos casos, los vendedores incluso pueden establecer precios personalizados, reducir la curva de demanda y establecer un precio diferente para cada consumidor.
B&Q, una multinacional británica, probó etiquetas de precios digitales, en sus tiendas físicas, que interactuaban con los teléfonos de los clientes y ajustaban el precio mostrado en función de los datos de las tarjetas de fidelización y los hábitos de gasto del cliente.
La discriminación de precios se basa en la capacidad de identificar la disposición de pago del consumidor. De hecho, este dato es fundamental para cualquier discusión sobre discriminación de precios.
La disposición de pago del consumidor es una función de preferencias y percepciones (erróneas). Piensen en el ejemplo de darnos de alta en el gimnasio. Muchos clientes creen FALSAMENTE que asistirán, al menos, una vez por semana y sobreestiman el beneficio de la membresía. Por lo tanto, están dispuestos a pagar más.
Las grandes plataformas online usan Big Data y algoritmos sofisticados para identificar y establecer un precio personalizado igual a la disposición de pago, aunque equivocado, del consumidor.
Cuando la disposición de pago del consumidor refleja tanto las preferencias como las percepciones erróneas que inflan la demanda, la discriminación de precios perjudica aún más a los consumidores y también puede reducir la eficiencia.
El daño a los consumidores aumenta, ya que los consumidores pagan un precio que es igual a su beneficio percibido, que excede de su beneficio real.
Los consumidores sufren una pérdida real. La discriminación de precios combinada con la sobreestimación lleva a los consumidores marginales a comprar productos cuando el coste de producción excede el beneficio real, pero no el beneficio más alto percibido.
Volvamos a la ubicación del comprador como medidor de precios. El precio de los vendedores discrimina en función de varios tipos de información, incluida la ubicación de los consumidores, la hora del día, las características del ordenador del consumidor, como el sistema operativo y el navegador, y su historial de compras.
En el paper “Measuring Price Discrimination and Steering on E-commerce Web Sites” http://www.ccs.neu.edu/home/cbw/static/pdf/imc151-hannak.pdf los autores demostraron que los vendedores pueden recopilar esta información ellos mismos, o comprarla a los data brokers.
Los autores analizaron datos del mundo real de 300 consumidores que visitaron 16 sitios web de comercio electrónico y encontraron evidencias de personalización en cuatro minoristas generales y cinco webs de viajes, incluidos los casos en que los sitios alteraron los precios en cientos de dólares.
La evidencia sugiere que la ubicación geográfica de un consumidor afecta las decisiones de precios de los vendedores. Por ejemplo, Uber recopila datos geográficos ricos sobre sus clientes y los usa para discriminar los precios.
Además, se descubrió que Amazon, Staples y la tienda de videojuegos Steam varían el precio por ubicación geográfica hasta en un 166%.
Fuente: “Detecting price and search discrimination on the Internet” https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.352.3188&rep=rep1&type=pdf
Según los informes, Uber usa el tiempo, además de la ubicación, para discriminar los precios, calculando la disposición de pago de un pasajero para una ruta en particular a una determinada hora del día y ajustando los precios en consecuencia.
Todos los precios no son iguales. Los visitantes del sitio web de Home Depot pueden asumir que obtienen el mismo trato que todos los demás, pero en realidad, el minorista cobra precios más altos o más bajos según el código postal de cada visitante individual.
Es más probable que los precios personalizados ocurran en mercados donde los consumidores no tienen información directa sobre cuánto pagan otros consumidores y en mercados donde los precios diferenciales se combinan con productos heterogéneos, de modo que las comparaciones entre consumidores se vuelven difíciles.
Una táctica más conocida empleada por las aerolíneas altera las tarifas en función de factores como la hora del día, el día de la semana y el código postal del viajero.
La aplicación de reserva el mismo día, HotelTonight, introdujo recientemente dos características que muestran tarifas con descuento a los usuarios en función de su ubicación.
¿Cómo es esto posible? En el instante en que ingresa el dominio de un vendedor electrónico, la compañía puede ver todo, desde su historial de navegación hasta su código postal.
La tecnología permite a los proveedores rastrear a los usuarios a través de múltiples navegadores.
No es de extrañar que Amazon pueda actualizar sus precios para cada cliente cada 10 minutos.
Vivimos en la era del algoritmo. Cada vez más, las decisiones que afectan nuestras vidas, como dónde vamos al colegio o universidad, si obtenemos un préstamo, a la hora de comprar un coche, obtener un trabajo, cuánto pagamos por el seguro de salud, no las toman los humanos, sino modelos matemáticos.
En teoría, esto debería conducir a una mayor equidad: se juzga a todos de acuerdo con las mismas reglas y se elimina el sesgo.
Pero, como Cathy O’Neil revela en su libro “Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy” los modelos algorítimos son opacos, no regulados e incontestables, incluso cuando están equivocados.
Lo más preocupante es que refuerzan la discriminación. En su libro, Cathy O’Neil cuenta que si un estudiante pobre no puede obtener un préstamo porque un modelo de préstamo lo considera demasiado arriesgado (en virtud de su código postal), entonces se le corta el tipo de educación que podría sacarlo de la pobreza, y se produce una espiral viciosa, maquiavélica y discriminatoria que impide que toda una clase social desfavorecida pueda salir del hoyo.
“Las modelos catapultan a los afortunados y castigan a los oprimidos, creando un «cóctel tóxico para la democracia. Bienvenido al lado oscuro de Big Data”.
La próxima vez que vayas a un establecimiento y te pidan tu código postal, diles que te niegas. Si se enfadan, o te dicen que no pueden hacer la venta sin ese dato (que cruzarán con tu tarjeta de débito/crédito, nombre, importe de la venta y productos/servicios comprados), diles que quieres hablar con su Delegado de Protección de Datos, alegando tu derecho de no dar ciertos datos.
Y si se niegan, pide la hoja de reclamaciones por estar obligándote a dar una información que va a tener implicaciones negativas y discriminatorias en tu vida.