Tecnología persuasiva y dilemas éticos en el diseño UX

¿Te gusta este artículo? Compártelo


La tecnología tiene una gran influencia en nuestra vida, para lo bueno y para lo malo. Por una parte, puede fomentar las relaciones sociales, la autonomía o el bienestar físico de las personas, necesidades de los usuarios que el diseño de experiencia de usuario debería tener como guía. Pero por otra, la tecnología también puede usarse con objetivos más bien oscuros que van claramente en contra de los usuarios y de la sociedad. ¿Cómo hemos llegado aquí y cuales son las implicaciones éticas para el diseño de productos y servicios digitales?

La tecnología persuasiva

Enganchados a las redes sociales

Persuadir es utilizar los argumentos y acciones adecuadas para lograr que una persona cambie sus actitudes o comportamiento. Aunque suene sospechoso, no hay nada oscuro en utilizar la persuasión en sí misma. La persuasión se utiliza en la educación, las transacciones comerciales o la política, no se trata de forzar a la persona a realizar algo que no quiere sino de incrementar la posibilidad de que se produzca el cambio en la persona, a menudo para su beneficio o el beneficio mutuo. Por ejemplo, para que la población deje de fumar se les persuade incrementando el precio del tabaco, advirtiendo de los riesgos, limitando el reforzamiento social de la conducta de fumar.

A finales de los años 90 empezó a estudiarse el potencial persuasivo de la tecnología, sobre todo en el laboratorio de  BJ Fogg en la Universidad de Standford. Sus estudios incluían cómo usar la tecnología para adquirir hábitos de vida saludables, pero también cómo influir en los procesos de compra online. Todo hubiese quedado en unas cuantas conferencias y artículos académicos, pero en 2007 la clase de BJ Fogg lanzó el reto de crear aplicaciones para Facebook basándose en los modelos de tecnologías persuasivas (the Facebook Class). El resultado fué que 20 millones de usuarios instalaron las apps, 6 de estas apps se colaron en el top 10 de Facebook y lograron un valor de 10 millones de dólares. Algunos estudiantes de BJ Fogg se hicieron ricos (p.ej. uno de los fundadores de Instagram, Mike Krieger, fue alumno suyo), y esto despertó el interés en aplicar el uso de las tecnologías persuasivas y los modelos psicológicos de cambio comportamental con fines comerciales y de negocio [3].

Se trata de un modelo de gran utilidad, por ejemplo para explicar el proceso de adopción de tecnología o incrementar la tasa de vacunación en COVID.

Lamentablemente, muchos diseñadores se han dejado seducir por el lado oscuro, pasando por alto algunas cuestiones éticas. 

Usos negativos de las tecnologías persuasivas

Una de las funciones del perfil profesional de ux research (especialistas en investigación de experiencia de usuario), es comprender las necesidades y motivaciones de los usuarios para influir sobre su conducta a través del diseño. Pero en la gran mayoría de los casos, esta influencia no tiene ninguna connotación negativa. Por ejemplo, alguna de las apps para móviles más exitosas incluyen elementos de tecnologías persuasivas que pueden considerarse positivas. ¿Has conseguido hacer más ejercicio y seguir una dieta gracias a Fitbit o Keep Training? ¿Has aprendido un nuevo idioma gracias a DuoLingo? Son aplicaciones que usan principios de diseño comportamental para que los usuarios adquieran rutinas y las mantengan hasta conseguir su objetivo.

Pero los principios que rigen la persuasión y el cambio comportamental también pueden retorcerse y afectar negativamente a los usuarios. Algunos ejemplos de mal uso son:

  • Lograr que un usuario opte por una acción determinada que, aun siendo inocua, no sea la más ventajosa para él. Para ello se utilizan técnicas de ocultación de información, distracción o directamente engaño. En este ámbito entran los famosos dark patterns.  Por ejemplo, pueden ocultarse algunos affordances de la interfaz para que no notemos que algunas acciones beneficiosas se pueden hacer, o disimularse datos de interés. Si al finalizar un proceso de compra online te llevaste la sorpresa de que el precio final era superior al que estabas dispuesto a pagar, ya sabes lo que son.
  • Usar las redes sociales para influir maliciosamente sobre las opciones políticas y las elecciones. Un ejemplo es el famoso caso de Facebook y Cambridge Analytica sobre la influencia en las elecciones de EEUU, pero la red está plagada de noticias y perfiles falsos que tratan de influir sobre nuestras ideas.
  • Engañar al usuario para que desvele información personal que afecte a su privacidad o seguridad. Este es el caso de las técnicas de phishing, pero también de otras más sutiles que llevan a los usuarios a compartir datos que en realidad querrían mantener privados.
  • Volver al usuario adicto o dependiente de la aplicación. Hay una lucha por la atención del usuario que es cada vez más agresiva, y que tiene como consecuencia que el usuario pierda el control del uso que hace de la tecnología (dedica demasiado tiempo, interrupciones, falta de atención, estrés, etc.).

Debido a lo anterior, está cobrando fuerza un movimiento en pro de la humanización del diseño y la tecnología. Es el caso del Center for Human Technology que surge de los propios diseñadores en compañías de Silicon Valley. El primer paso es reconocer que existen dilemas éticos, para luego volver a alinear la tecnología con un uso dirigido al bienestar de las personas.

Dilemas éticos en el diseño UX

Los dilemas éticos en el diseño de tecnología no solo están relacionados con las tecnologías persuasivas [2]. Otro campo de batalla es el relacionado con el uso de los algoritmos de Inteligencia Artificial, que añaden una forma de limitar la responsabilidad del diseñador (no fue intencionado, el algoritmo funciona así).  Por ejemplo, en Junio de 2019 se celebró un panel de la comisión de Comercio y tecnología en el Senado de Estados Unidos, donde ejecutivos de empresas tecnológicas (como Maggie Stanphill, Directora de UX en Google) o críticos como Tristan Harris (ex-alumno de BJ Fogg y ex-responsable de ética y diseño en Google), debieron responder sobre el impacto negativo de la tecnología persuasiva y los algoritmos [4].

Pero ¿cómo pueden asegurarse los diseñadores que el uso de tecnología persuasiva es ético? No hay una respuesta sencilla, pero hay algunas pautas que pueden seguirse. Por ejemplo, Dalton Combs y Ramsay Brown, expertos en diseño comportamental, apuntan a 3 características básicas:

  • Transparencia (el usuario debe saber qué estamos tratando de cambiar su comportamiento).
  • Alineamiento con el bien común (el fin del uso de las tecnologías persuasivas es mejorar la vida de la personas o la sociedad).
  • Alineamiento con los deseos de los usuarios (debe haber un balance entre los objetivos de negocio y los del usuario, si se trata de conseguir los objetivos de negocio a toda costa, sin atender los del usuario, no será un uso ético).

Más allá de esto, es necesario que la ética y las humanidades entren dentro del ámbito de estudio del diseño y tecnología. En la asignatura de Diseño Centrado en el Usuario que imparto en el Máster Universitario en Experiencia de Usuario de UNIR, se incluye desde el curso 2019/20 un tema sobre Diseño comportamental, que tratará directamente estos dilemas éticos del UX.

Referencias

[1] Dalton Combs, T. y Brown, R.A. (2018). Digital behavior design. Venice, CA: Boundless Mind

[2] Institute for the Future (2018). Ethical OS Toolkit

[3] New York Times (8 de abril de 2011). The class that built apps, and fortunes

[4] The Hill (25 de junio de 2019). Senators spar with Google exec over use of ‘persuasive technology’

Background vector created by photoroyalty – www.freepik.com

¿Te gusta este artículo? Compártelo