En plena carrera de las organizaciones por recoger, almacenar y procesar grandes cantidades de datos para crear nuevos productos, de reducir costes, de fidelizar mejor a sus clientes, ser más competitivas y hacer realidad la famosa expresión que los “datos son el petróleo del siglo XXI”, “aparece” el RGPD.
Digo “aparece”, entrecomillado, porque el tema viene de lejos. Concretamente arranca en enero de 2012 cuando la Comisión Europea presentó una reforma integral de las normas de protección de datos con el objetivo principal de incrementar el control de los ciudadanos sobre sus datos. Esta reforma se materializó en el Reglamento General de Protección de Datos (GDPR por sus siglas en inglés).
Para muchos significa enfrentarse al reto de gestionar adecuadamente los datos, garantizar su privacidad, o cumplir con regulaciones y estándares internos y externos probablemente por primera vez en su vida. Esto amenaza a determinados modelos de negocio (ya era hora).
No entraré en el detalle de la aplicación del nuevo marco legal RGPD, sino argumentaré, contrariamente a lo que muchos piensan, de sus implicaciones que considero altamente positivas. Afortunadamente se endurece el marco legal anterior. En algunas cuestiones se clarifica y en otros aspectos, sigue habiendo bastante ambigüedad. Lo que sí queda claro es que se elimina la barra libre del uso, poco o nada adecuado, de los datos.
Desafortunadamente, la aplicación de la ley no vendrá por interiorizar un capítulo más ético y razonable del uso de los datos de las organizaciones, sino por la amenaza de las sanciones, cuyo origen y cuantía son altamente disuasorias.
Pero invito a ver el vaso medio lleno. Hagamos una mirada en positivo a la nueva etapa. Que sea más por convicción que por imperativo legal. Aprovechemos para abrir ese capítulo más ético. El primer paso debería ser admitir que construir nuestra relación con los usuarios y sus datos implica proteger la privacidad de las personas.
Esto no es un capricho, es un derecho humano incuestionable, aunque los propios ciudadanos nos empeñamos, especialmente a través de las redes sociales, a ponerlo en riesgo.
La privacidad no es algo exótico. Es el ámbito de la vida personal que se desarrolla en un espacio reservado y debe mantenerse en la intimidad. El artículo 12 de la Declaración Universal de los Derechos Humanos adoptada por la Asamblea General de Naciones Unidas establece que el derecho a la vida privada es un derecho humano. La legislación europea también se refiere al mismo cuando habla del tratamiento de datos personales y circulación de estos datos. Y la Constitución española de 1978 protege este derecho fundamental.
¿A qué me refiero cuando apuesto por construir nuestra relación con las personas desde el máximo respeto por la privacidad? Cosas muy obvias:
- Dar a las personas el poder sobre sus datos
- Ser honestos en el uso previsto de los datos
- Ser transparentes
- Ser responsables
- Hacerlo fácil
Una mirada más ética, aparte de legal, en el tratamiento de los datos, forma parte de ese principio de comportamiento basados en la idea de lo correcto y lo incorrecto. Ética significa «hacerlo bien cuando nadie está mirando». Ello puede ayudar a construir más confianza con nuestros clientes y una oportunidad de crear más valor añadido para nuestras organizaciones a largo plazo.
¿En qué se concreta la ética en el tratamiento de los datos? En principio ético que debería regirnos es que la creación de valor para la empresa puede entrar en conflicto con la creación de valor para el usuario. La gestión y explotación de los datos es que aquellos análisis de datos que se aplican o crean a veces para generar valor para las organizaciones, no lo son tanto para las personas. ¿Ejemplos? Ya sea molestándolo con información no solicitada, negando un empleo, concediendo o negando un crédito, dirigiéndose a votantes o monitorizando nuestra salud. Un dilema ético que jamás debería plantearse.
Si vulnerar la privacidad ya es un hecho ilegal, debemos ser especialmente sensibles a las nuevas tecnologías de tratamiento de datos, el propio desarrollo de nuevas herramientas (machine learning, deep learning, inteligencia artificial, etc.), y en especial la extensión de modelos de autoaprendizaje basados en algoritmos, pueden generar problemas éticos complejos. Todas estas tecnologías que permiten tratar cantidades masivas de datos, y que, a priori, deberían aportarnos una mayor equidad (todos somos juzgados de acuerdo con las mismas reglas, y se elimina el sesgo) suponen un riesgo en la explotación de los datos
El problema es que la mayoría de estos modelos de análisis y explotación que se utilizan hoy son opacos, no regulados e incontestables, incluso cuando están equivocados. Recordemos la noticia del Ministerio de Sanidad Británico de la posible muerte de 270 mujeres por cáncer de mama por un fallo en la programación del algoritmo de revisiones rutinarias (ver fuente). O riesgos de discriminación real por sus ideas políticas o por su orientación sexual cuando ya existe tecnología que puede identificar personas homosexuales utilizando un sistema de reconocimiento facial.
La apertura de estos sistemas debería ser un hecho. Nueva York se está convirtiendo en la primera ciudad de EEUU, en aprobar una ley que permite auditar las decisiones automatizadas que toman los algoritmos. Todo ellos para evitar y combatir la llamada “discriminación algorítmica” (ver fuente), uno de los retos del datos del Siglo XXI.
Seguir la ley al pie de la letra, evita ser sancionados, pero eso no crea valor per se para el usuario, ni tampoco evita riesgos futuros. Como ya hemos visto, la tecnología permite a las organizaciones usar los datos de maneras que no hubiéramos imaginado en el pasado. Mientras que el marco legal suele ir bastantes pasos por detrás.
A corto plazo, un enfoque ético más allá de la aplicación del RGPD, nos aportará un valor positivo como organización. A medio plazo, el enfoque ético será cuestión de supervivencia, solo al alcance de organizaciones capaces de cuadrar la cuenta de resultados social, económica y medio-ambiental.