Dark patterns: cómo la tecnología manipula las decisiones que tomamos en Internet

Tamara Montero
Tamara Montero SANTIAGO / LA VOZ

ACTUALIDAD

iStock

Inducir prisa por la compra, páginas laberínticas para que el usuario se confunda o confirmaciones obligatorias son algunos de estos patrones, poco éticos pero a los que nos enfrentamos diariamente.

09 dic 2024 . Actualizado a las 15:15 h.

La frase es de sobra familiar cuando se está haciendo una compra por internet: solo quedan dos objetos como este a este precio, date prisa o no podrás beneficiarte de la empresa. Esa urgencia, que puede acabar condicionando la compra, es lo que se conoce como dark pattern o patrón oscuro, una técnica de diseño que busca manipular al usuario para llevarlo a tomar decisiones que benefician a la empresa.

El término, acuñado por el diseñador británico Harry Brignull define las estrategias de diseño que condicionan o manipulan a los usuarios para que lleven a cabo acciones que quizás no habrían elegido si hubieran dispuesto de toda la información de forma clara e imparcial. Además de la urgencia de la compra, hay otros ejemplos, como la dificultad para darse de baja de un servicio o de una suscripción, con botones de cancelación difíciles de encontrar o que requiere varios pasos complejos.

Otro tipo son las páginas laberínticas, diseñadas para que el usuario se confunda y acabe comprando o suscribiéndose a un servicio, a menudo con botones de cancelación escondidos. Y otro es la confirmación obligatoria, en que el usuario se ve obligado a hacer clic en múltiples botones para rechazar ofertas o desmarcar opciones que no desea.

«Y con eso convivimos todos los días. Básicamente son mala praxis, están catalogadas así a nivel legal, pero de alguna forma parecen sutiles». Efraín Foglia, profesor de los Estudios de Ciencias de la Información y la Comunicación de la Universitat Oberta de Catalunya (UOC) habla de como estamos inmersos en un sistema «casi como de glutamato digital» en el cual está normalizada la coacción para tomar una decisión sobre una compra basándote en «una información que no sabemos si es verdadera o falsa». 

Otro ejemplo de mala praxis es que la web solicite tus datos para hacer una acción concreta. «Así tenemos un catálogo de los denominados patrones oscuros, que básicamente hacen lo mismo que un comercial que te está haciendo una serie de ofertas con truco para empujarte a que consumas».

Si no es legal, ¿cómo es posible que estén tan extendidos? «La legalidad de internet es nueva y va muy por detrás de las grandes tecnológicas, que son las que diseñan esto» explica el profesor de la UOC. Sí existen reportes en la Unión Europea que denuncian este tipo de prácticas, pero «sabemos perfectamente que el poder que tienen las empresas de internet ahora mismo es muy grande».

Al mismo tiempo, Foglia reconoce que hay una serie de «elementos cómplices» de estas prácticas. Por ejemplo, la economía funciona empujando en todo momento a que se consuma más. «En las carreras económicas básicamente es preparar a las personas para que a cualquier precio vendan cualquier cosa. Lo puedes ver en el mercado inmobiliario», afirma.

¿Es posible protegerse de algún modo de los dark patterns? «Hay muchísimas entidades, públicas y privadas, que trabajan en este tipo de temáticas para ayudar a concienciar», explica el profesor de la UOC, que matiza que «vivimos plenamente en internet y tenemos que reeducarnos, reeducar a la sociedad y a todas las instituciones».

El problema es que dinámicas como los patrones oscuros evolucionan a tal velocidad que ni la ciudadanía, ni la legislación ni la educación son capaces de alcanzarlas. «Y ahora imagina todo esto junto a la inteligencia artificial, que va a una velocidad mayor y antes de que alguien la pueda legislar ya está implementada», remarca Foglia. 

De todos modos, comienza a haber una conciencia de la necesidad de desarrollar un diseño inclusivo y abierto «que pueda ser más transparente en todas estas mecánicas para que nosotros podamos realmente analizar a nivel legal, moral, cultural, qué es lo que pasa con estas matrices tecnológicas».

La regulación puede tener un papel fundamental para establecer límites claros sobre el uso de dark patterns y garantizar que las empresas cumplan estándares éticos en el diseño. En Europa, los marcos legislativos tienen como objetivo asegurar que las tecnologías se desarrollen con un enfoque humanista, que respete la dignidad y los derechos de los usuarios. Un enfoque que promueve la sostenibilidad en lugar de la explotación y el respeto a la diversidad, tanto en las grandes corporaciones como en las pequeñas empresas y las cooperativas. En definitiva, los diseñadores, acompañados por regulaciones más estrictas, tienen la oportunidad y la responsabilidad de crear entornos digitales inclusivos y respetuosos que mejoren la experiencia del usuario y que también contribuyan a una sociedad más justa.

Lo que está ocurriendo ahora es, por explicarlo de algún modo, el siguiente paso tras la recopilación masiva de datos de usuarios, un debate que hace años se intensificó, especialmente después del escándalo de Cambridge Analytica. Ceder datos «no es nada doloroso, quiero decir, no es evidente que es algo malo». Tanto, que buena parte de la población liga y establece relaciones sexoafectivas con aplicaciones.

«Lo que le están dando por ceder sus datos no está nada mal desde el punto de vista humano, aunque políticamente y legalmente es fatal». Pero es muy difícil que alguien que utiliza apps para ligar eje de hacerlo porque están cediendo sus datos. 

Es decir, las big tech ofrecen diariamente un chupachups digital que consumimos diariamente en los teléfonos y las pantallas. Esa es la ventaja: «Están ofreciendo algo y lo que obtienen es algo mucho más oscuro, más especializado de entender y que tiene repercusiones políticas ya a nivel macro».

«El problema no es la tecnología, sino las empresas y cómo la están implementando», remarca Efraín Foglia. Tanto, que las multas que se imponen a las big tech «casi nunca se acaban pagando o les sale mejor pagarlas», denuncia. 

«Estamos en un nuevo régimen digital en el que apenas estamos intentando entender cómo funciona. Necesitamos un sistema educativo para ello», reclama el profesor de la UOC. Tanto, que otro estudio de la Universitat Oberta de Catalunya habla de que alrededor del 70 % de las fotografías que se han encontrado en servidores de pederastia son fotografías no sexualizadas que la gente cuelga en sus redes sociales.

El análisis es interesante porque habla de que la gente, en ocasiones, cede datos que no hubiera cedido en el mundo analógico. «La gente no iría pegando fotografías de sus infantes por la calle», dice Foglia. Y, sin embargo, «lo hacen en algo mucho más grande, que es Instagram, y que está sirviendo de motor para una serie de activos».

La población que cede sus datos lo hace porque lo ven como un activo y mientras, hay otros actores que «sacan provecho de esto de una forma nunca antes vista y de una forma increíblemente sencilla». 

Efraín Foglia pone otro ejemplo de cómo la población no ha asumido aún que la identidad digital también forma parte del mundo real: un político madrileño tuvo que dimitir después de que se destapase que había hecho un chiste contra la comunidad judía. Tuvo que dimitir. «Una pregunta interesante podría ser, ¿ese chiste lo hubiera hecho públicamente más allá de su círculo? No lo hubiera hecho porque sabe perfectamente que si lo hace en una sala con 100 personas, alguien le hubiera dicho algo. Pero lo hizo en Twitter ante millones de personas hace tres años».

Es decir, las grandes empresas tecnológicas no tienen que hacer mucho para que la población les regale todo. «A lo mejor tenemos que analizar cómo estamos viviendo nuestra vida digital y empezar a pensar que nuestras acciones ahí son peligrosas», pero de momento cuando clicamos aquí y allá «nunca piensas que es algo peligroso o que a nivel global todas estas pequeñas acciones sumadas pueden beneficiar a una parte que lo único que quiere es lucrarse».

De hecho, en unos talleres con menores de edad, se les hizo la pregunta de si sabiendo que van a ceder todos sus datos, usarían igualmente redes. La respuesta fue sí, porque lo que les aportan no se lo puede dar otro medio de comunicación ni otra experiencia. «Es ahí donde tienes que empezar a pensar en lo educativo, en lo político y en lo legal, donde tenemos que empezar a intervenir de una manera más enérgica», remacha el profesor de la Universitat Oberta de Catalunya.