Valencia, España
Las nuevas empresas que operan en el mercado digital han construido sus modelos de negocio en torno a estrategias favorecidas y potenciadas por algoritmos de autoaprendizaje, lo que plantea nuevos desafíos para los legisladores.
En respuesta a la creciente preocupación por el perjuicio que estas prácticas causan a los consumidores, el legislador europeo ha comenzado a regular este tema en diversos textos. Sin duda, la normativa de protección de los consumidores debe adaptarse, puesto que fue diseñada originariamente en un contexto socioeconómico y tecnológico que no es el actual.
La complejidad aumenta cuando la manipulación ocurre en el contexto de la denominada inteligencia artificial. Aquí, el uso de técnicas como el «machine learning» permite delinear con mayor precisión las necesidades y preferencias de los consumidores, logrando así un perfil específico de cada persona en situaciones concretas (conocido como «microtargeting»). Con el empleo de esta técnica resulta verdaderamente difícil identificar si el sistema está aprendiendo acerca de las preferencias de los usuarios o si los está influenciado para que se comporten de cierta manera con el fin de maximizar sus objetivos.
Las aplicaciones son varias y afectan a diversos sectores, pero ya se pueden observar sus efectos en determinados ámbitos que se van a analizar como la fijación dinámica de precios donde se debe realizar un análisis ponderado de la maximización de los beneficios, por un lado y por el otro, el debido respeto a la equidad y la transparencia en el mercado en beneficio de los consumidores.
También se está observando como el uso de algoritmos está facilitando una colusión entre empresas en detrimento de la normativa de defensa de la competencia. Asimismo, los tribunales europeos están dictaminando que una empresa dominante como Google puede ser considerada responsable por diseñar sus algoritmos de manera que provoquen un impacto desigual en una determinada clase de competidores, en vez de realizar una aplicación indiscriminada de esos algoritmos a cualquier producto o servicio.
Finalmente, otro riesgo que está empezando a tomarse en consideración es la posible manipulación que se pueda realizar cuando los consumidores contratan bienes y servicios a través de asistentes digitales. Estos asistentes recopilan datos personales sobre los ciudadanos con posibilidad de influir en nuestro comportamiento en beneficio de los intereses de las corporaciones que están detrás.
Corporations operating in the digital market have built their business models around strategies favored and empowered by self-learning algorithms, posing new challenges for policymakers.
In response to the growing concern about the harm that these practices cause to consumers, the European legislator has begun to regulate this issue in various texts. Undoubtedly, consumer protection regulations must be adapted, since they were originally designed in a socio-economic and technological context that is not the current one.
The complexity increases when the manipulation occurs in the context of so-called artificial intelligence. Here, the use of techniques such as machine learning allows the needs and preferences of consumers to be delineated more precisely, thus achieving a specific profile of each person in specific situations (known as «microtargeting»). With the use of this technique, it is really difficult to identify whether the system is learning about users’ preferences or if it is influencing its users to behave in a certain way in order to maximize its goal.
The applications are various and affect various sectors, but their effects can already be observed in certain areas that are going to be analyzed, such as dynamic pricing, where maximizing profits must be weighed with due respect for fairness and transparency in the market for the benefit of consumers.
It is also being observed how the use of algorithms is facilitating collusion between companies to the detriment of antitrust regulations. European courts are also ruling that a dominant company like Google can be held liable for designing its algorithms in a way that causes an unequal impact on a certain class of competitors, rather than indiscriminately applying those algorithms to any product or service.
Finally, another risk that is considered is the possible manipulation that can be carried out when goods and services are contracted by consumers through digital assistants. These assistants collect personal data about citizens with the possibility of influencing our behavior for the benefit of the interests of the corporations behind them.