RESUMEN
Uno de los derechos fundamentales que más afectados se ven por el desarrollo de la inteligencia artificial (IA) es el derecho a la protección de datos, que hasta ahora se ha caracterizado como un derecho de no injerencia o de primera generación. Debido al desarrollo de la IA basada en datos y la analítica de datos en masa (que permite microsegmentar a la población), el derecho a la protección de datos ha adquirido una dimensión colectiva que lo acerca a derechos de tercera generación, como el derecho a un medio ambiente saludable o el derecho de consumidores.
La expresión «privacidad de grupo» ha sido precisada como la privacidad correspondiente a grupos definidos por cualquier característica o combinación de estas. En este trabajo propondremos una noción complementaria de privacidad de grupo, centrada en la defensa del derecho a un medio ambiente digital saludable.
Palabras clave: Privacidad de grupo; protección de datos; inteligencia artificial; perfilado; artículo 22 RGPD.
ABSTRACT
One of the fundamental rights most affected by the development of AI is the right to data protection, which until now has been characterised as a non-interference or first generation right. Due to the development of data-driven AI and big data analytics (which allows for micro-segmentation of the population) the right to data protection has acquired a collective dimension that brings it closer to third generation rights such as the right to a healthy environment or consumer rights.
The term “group privacy” has been defined as privacy corresponding to groups defined by any characteristic or combination of characteristics. In this paper we will propose a complementary notion of group privacy, focusing on the defence of the right to a healthy digital environment.
Keywords: Group privacy; data protection; artificial intelligence; profiling; article 22 GDPR.
¿Qué es lo primero que hacen cuando se despiertan por la mañana? Probablemente apagan la alarma del móvil o lo consultan para ver la hora, para revisar un periódico o para entrar en alguna red social. Muy probablemente mirar el móvil también sea lo último que hacen antes de dormir. Si tienen un reloj inteligente atado a su muñeca, probablemente curioseen la calidad de su sueño, los minutos exactos que han dormido (incluso cuántos corresponden a cada fase del sueño) o sus pulsaciones, y quizá no sean los únicos que lo curioseen[2]. Es probable que durante el desayuno comenten con su pareja, sus amigos o sus compañeros de trabajo alguna noticia que hayan leído (especialmente si es un vídeo o noticia que va encabezado por la palabra «zasca» o alguna parecida) ¿Escuchan la radio por internet? ¿Utilizan YouTube para buscar podcasts, entrevistas, música…? ¿Ven series en plataformas como Netflix, HBO, Amazon Prime, etc.? ¿Se han percatado de que en algunas de estas plataformas las sugerencias de contenido van acompañadas de un porcentaje que indica la probabilidad de que les guste? ¿Han probado a abrir la cuenta de su pareja, de un familiar o de un amigo en YouTube o en alguna plataforma (siempre con permiso de la persona)? Hagan la prueba. Verán que parece tratarse de dos plataformas completamente diferentes.
Estoy seguro de que no se les escapa que esto es posible gracias a que el historial
de navegación, las conversaciones (a través del teléfono y en la calle, con algún
teléfono cerca), la forma en que movemos el ratón Los programas de clickstream registran cada movimiento de ratón para seguir la ruta de un usuario por las webs
que visita, y dentro de estas webs, y, de este modo, medir la efectividad de los anuncios
o el interés en los productos ofertados. Los datos de clics se recogen a través de
cookies no técnicas que identifican al usuario y personalizan la navegación ( La Comisión Europea (
¿Qué ocurriría si como consecuencia de encajar en un determinado perfil social tuviéramos más probabilidades de ser investigados «aleatoriamente» por fraude? ¿Y si nuestras características encajan con un perfil crediticio de riesgo? ¿Qué pasa si un tribunal de justicia utiliza una herramienta que evalúa la probabilidad de que volvamos a cometer un delito, y esto condiciona decisiones que pueda tomar acerca de nuestro futuro? O, finalmente, ¿puede la microsegmentación de la población en perfiles abstractos ayudar a captar indecisos del partido o la opción contraria en un proceso electoral en distritos clave y alterar con ello el resultado de unas elecciones?
SyRI es un instrumento desarrollado por el Gobierno holandés para prevenir y combatir
el fraude a la seguridad social que se sirve de un algoritmo de procesado de datos
en masa, que son anonimizados y luego analizados y relacionados entre sí. Como resultado,
emite informes de riesgo sobre la probabilidad de cometer fraude a la seguridad social
a través de un uso inapropiado de fondos o del incumplimiento de la normativa vigente Corte de Distrito de La Haya ( Corte de Distrito de La Haya (
Las últimas normas en materia de crédito responsable prevén la obligación de evaluar
la solvencia del solicitante del crédito, con el objetivo de evitar el sobreendeudamiento.
Así, por ejemplo, el art. 18.5 LCCI dispone que el prestamista solo ponga el crédito
a disposición del consumidor si el resultado de la evaluación de solvencia indica
que es probable que las obligaciones derivadas del contrato de crédito se cumplan
según lo establecido en el contrato. De manera muy similar se expresa el art. 18 de
la DCCC, de 18 de octubre de 2023 y que será objeto de transposición por los Estados
miembros de la UE en los próximos años. Esta evaluación de solvencia puede tener lugar
a través de perfilado o credit scoring. Como en el resto de las situaciones que estamos viendo, se relacionan datos de, en
este caso, el solicitante de crédito con información recogida en perfiles abstractos
de solvencia crediticia, lo que puede conducir a situaciones discriminatorias, bien
porque se deniegue el crédito, bien porque el tipo de interés fluctúe dependiendo
del perfil abstracto en que el solicitante de crédito se sitúe Mas Badía (
Uno de los algoritmos que más atención ha suscitado en la literatura jurídica es COMPAS
(Correctional Offender Management Profiling for Alternative Sanctions). Se trata de
una herramienta utilizada por algunos tribunales en Estados Unidos para evaluar el
riesgo de reincidencia de los delincuentes. Si bien su uso fue avalado por el Tribunal
Supremo de Wisconsin en el caso Loomis De Miguel Beriain (
Cambridge Analytica es una consultora especializada en la recopilación y análisis
de datos para campañas publicitarias y políticas. Según podemos leer en su web Véase https://tinyurl.com/n6m2ptsc.
En 2018 varios diarios denunciaron que la consultora Cambridge Analytica estaba utilizando
datos personales de usuarios de Facebook, incumpliendo las políticas de privacidad
de esta red social con la anuencia de la propia Facebook, para influir tanto en la
campaña política de Donald Trump hacia la presidencia de Estados Unidos como en la
campaña del brexit (en ambos casos, con éxito). En España, este escándalo motivó una modificación de
última hora de la LOREG, incluida en la disposición final tercera de la LOPDgdd, para
incluir un nuevo artículo 58 bis con la intención, según el grupo parlamentario que
la propuso, de «impedir casos como el que vincula a Cambridge Analytica con el uso
ilícito de datos de 50 millones de usuarios de Facebook para mercadotecnia electoral» Congreso de los Diputados (
Casos como los que acabamos de ver se consideran de alto riesgo de acuerdo con la
Propuesta de Reglamento de Inteligencia Artificial (PRIA) Anexo III PRIA, puntos 5.a, 5.b, 6.a y 8.a bis, respectivamente
Partiremos para ello de un análisis de la situación vista desde la óptica de la llamada
«privacidad de grupo» acuñada por Luciano Floridi Se ocupa de la privacidad de grupo en España Cotino Hueso (
Hasta ahora, el derecho a la protección de datos ha tenido como eje central el individuo Floridi ( STC 292/2000, que define el derecho a la protección de datos como un poder de disposición
y control sobre los propios datos personales. En igual sentido, Troncoso Reigada (
El binomio «protección de datos personales y libre circulación de la información (incluidos
los datos personales)» se ha mantenido desde el Convenio 108 hasta el RGPD, pasando
por la Directiva 95/46/CE. En este sentido, en el preámbulo del Convenio 108 se afirma
«la necesidad de conciliar los valores fundamentales del respeto a la vida privada
y de la libre circulación de la información entre los pueblos», y en su art. 12.2
se establece que «una parte no podrá, con el único fin de proteger la vida privada,
prohibir o someter a una autorización especial los flujos transfronterizos de carácter
personal con destino al territorio de otra parte». Por otro lado, la Directiva 95/46/CE
afirma la necesidad «no sólo [de] la libre circulación de datos personales de un Estado
miembro a otro, sino también [de] la protección de los derechos fundamentales de las
personas» (cons. 3), en un contexto en que «el avance de las tecnologías de la información
facilita considerablemente el tratamiento y el intercambio de dichos datos» (cons.
4). Esta idea permanece en el RGPD, en el que merece la pena destacar el art. 1.3,
donde se afirma que «la libre circulación de los datos personales en la Unión no podrá
ser restringida ni prohibida por motivos relacionados con la protección de las personas
físicas en lo que respecta al tratamiento de sus datos personales» Otros puntos importantes del RGPD en este sentido son los considerandos 9, 13, 53,
123, 166 y 170. Véase Lucas Murillo de la Cueva (
El creciente uso de dispositivos interconectados (IoT), las cada vez más variadas
redes sociales y la capacidad de analítica de datos en masa son algunos de los retos
a los que se enfrenta en la actualidad el derecho a la protección de datos. El progreso
tecnológico, que impulsa los retos que acabamos de mencionar, obliga también a interpretar
a la luz de los tiempos el contenido del derecho a la protección de datos de tal manera
que las mayores posibilidades de aprovechamiento de los datos vengan acompañadas de
nuevas cautelas que preserven el equilibrio entre los dos elementos del binomio: protección
de datos personales vs. libre circulación de la información Cotino Hueso (
En este contexto, juega un papel importante la promoción e impulso de la economía
de datos, cuestión que en la Unión Europea pretende conjugarse de la manera más armoniosa
posible con altos estándares de protección de datos personales Lo destaca la Estrategia Europea de Datos, en la que la UE se marca como objetivo
la construcción de un espacio europeo de datos, donde estos puedan fluir en la UE
y en todos los sectores, al tiempo que se respeten las normas y valores europeos,
particularmente en materia de protección de datos, consumidores y competencia (
Como puede intuirse, los datos ya eran un activo económico desde el principio (
De acuerdo con la Comisión Europea, la economía de los datos se caracteriza por ser
un ecosistema donde diferentes tipos de agentes de mercado —como fabricantes, investigadores
y proveedores de infraestructuras— colaboran para garantizar que los datos sean accesibles
y utilizables (
Una de las formas más importantes de recolección de datos (que posteriormente serán
analizados y aprovechados económicamente) es el pago con datos en el entorno digital.
La viabilidad jurídica del pago con datos ha suscitado una gran controversia, centrada
en la posibilidad de comerciar con un derecho fundamental como es el derecho a la
protección de datos. Es precisamente este aspecto uno de los que con más urgencia
debe aclararse en el seno de las instituciones europeas si aspiramos a construir un
Mercado Único Digital Europeo con la suficiente seguridad jurídica, también en materia
de intercambio económico de datos La viabilidad jurídica del pago con datos ha suscitado una gran controversia, centrada
en la posibilidad de comerciar con un derecho fundamental como es el derecho a la
protección de datos personales. Vid., por todos, Supervisor Europeo de Protección de Datos (
Los datos aumentan de valor cuanto más se acumulan e interrelacionan entre sí ( Valls Prieto ( Como se ha afirmado, los algoritmos sin datos están vacíos, y los datos sin algoritmos
son ciegos ( Véase cons. 45 PRIA.
El valor de la economía de los datos ha ido aumentando progresivamente en los últimos
años. En 2019 superó el umbral de los 400 000 millones de euros para la UE de los
27 más el Reino Unido, con un crecimiento interanual del 7,6 % ( Comisión Europea (
La constatación del valor económico de los datos y el aumento considerable de este
han derivado en una afirmación que se ha convertido en una suerte de lugar común:
los datos son el nuevo petróleo Por citar solo algunas de las personas que han empleado la expresión: Gil González
(
Por ejemplo, cuando pagamos con nuestros datos por ciertos bienes o servicios digitales estamos contaminando el entorno digital de un modo similar, salvando las distancias, a la contaminación que genera el uso de vehículos a motor. Contaminamos el entorno digital al permitir la recolección y análisis de nuestros datos personales, lo que deriva en un medio ambiente digital caracterizado por la hipervigilancia en masa y personalizada (al mismo tiempo), que se ha conocido como capitalismo de la vigilancia: una nueva forma de capitalismo que
[…] reclama para sí la experiencia humana, entendiéndola como una materia prima gratuita
que puede traducir en datos de comportamiento […] como un excedente conductual privativo
(propiedad) de las propias empresas capitalistas de la vigilancia [que] se usa como
insumo de procesos avanzados de producción conocidos como inteligencia de máquinas,
con los que se fabrican productos predictivos que prevén lo que cualquiera de ustedes
hará ahora, en breve y más adelante (
Los derechos humanos nacen con una marcada impronta individualista, como libertades
individuales que configuran la primera fase o generación de los derechos humanos para
posteriormente verse completados por una segunda generación: los derechos económicos,
sociales y culturales. Así, mientras que los derechos de primera generación se contemplan
como derechos de defensa o de no injerencia por parte del Estado, los derechos de
segunda generación requieren una política activa por parte de los poderes públicos.
Estas primeras dos generaciones se encuentran reflejadas en textos jurídicos como
los Pactos de Nueva York o en los catálogos de derechos recogidos en nuestra Constitución.
Junto con estas dos generaciones iniciales, «los derechos y libertades de tercera
generación se presentan como una respuesta al fenómeno de la denominada contaminación
de libertades (liberties pollution), término con el que algunos sectores de la teoría social anglosajona aluden a la
erosión y degradación que aqueja a los derechos fundamentales ante determinados usos
de las nuevas tecnologías». Si bien es difícil cerrar unas características comunes
en estos «derechos de nueva generación», podríamos decir que una característica común
es que intentan hacer frente a problemas de carácter universal que exigen esfuerzos
de la comunidad en su conjunto, incluso superando las fronteras estatales. Quizás
el ejemplo que mejor represente esto sea el derecho a un medio ambiente saludable,
o el derecho de consumidores (
Señalaba Pérez Luño (
Nuestra vida individual y social corren, por tanto, el riesgo de hallarse sometidas a lo que se ha calificado, con razón, de juicio social permanente. Ya que, en efecto, cada ciudadano fichado en un banco de datos se halla expuesto a una vigilancia continua e inadvertida, que afecta potencialmente incluso a los aspectos más sensibles de su vida privada; aquellos que en épocas anteriores quedaban fuera de todo control por su variedad y multiplicidad.
El derecho a la protección de datos se ha encuadrado tradicionalmente en la primera
generación de derechos humanos, y es perfectamente razonable que haya sido así. Esta
ubicación y, consecuentemente sus características y modos de defensa no deben entenderse
cuestionados por la evolución tecnológica, en la medida en que sus vulnerabilidades
no se han disipado. Sin embargo, el desarrollo de la IA y el big data hacen necesario añadir una dimensión colectiva a este derecho, en la medida en que
se han generado nuevos riesgos que afectan a la sociedad en su conjunto que ya no
pueden resolverse ex post y de manera reactiva. La importancia de estos riesgos colectivos contrasta, además,
con la casi imperceptible dimensión de los daños individuales que generan «acciones
contaminantes», como, por ejemplo, aceptar las cookies no técnicas de una página web (
Actualmente es posible realizar análisis sofisticados de grandes cantidades de datos
que permiten descubrir información no observable a simple vista. Por ejemplo, cada
vez es más sencillo reidentificar datos previamente anonimizados, e incluso identificar
o inferir características de personas a partir de datos anónimos o de perfiles abstractos
que no se han nutrido de datos de dichas personas (Romeo Casabona, 2021: 584; Cons. 26 RGPD: «Para determinar si una persona física es identificable, deben tenerse
en cuenta todos los medios […] teniendo en cuenta tanto la tecnología disponible en
el momento del tratamiento como los avances tecnológicos». Véase Romeo Casabona (2021:
589).
Entendemos por medio ambiente tecnológico contaminado aquel en el que la ingente cantidad
de datos y la potencia de las herramientas de analítica de big data no permiten a los individuos desenvolverse en el entorno digital con unas mínimas
expectativas de anonimato que garanticen el libre desarrollo de su personalidad Alerta Zuboff de que «los procesos automatizados llevados a cabo por máquinas no
sólo conocen nuestra conducta, sino que también moldean nuestros comportamientos en
igual medida», por lo que «la afirmación del libre albedrío es también una afirmación
del derecho al tiempo futuro como una condición de una vida plenamente humana» (
La contaminación de datos a la que nos vemos expuestos, incluso sin interactuar en entornos digitales, permite elaborar perfiles tan precisos como variopintos referidos a grupos de personas sin que estas puedan hacer nada, individual o colectivamente, para impedir que se desarrollen y tampoco para evitar verse afectadas en su día a día por estas técnicas. Estos perfiles, si bien abstractos (es decir, no asociados a una persona concreta), se refieren a características comunes que compartimos en cuanto que individuos pertenecientes a un grupo. La singularidad en la analítica de datos en masa es que este grupo no tiene que ser conocido socialmente (p. ej., edad, género, distrito urbano, raza, nacionalidad…), sino que se creará de manera funcional dependiendo de la configuración y objetivos de cada algoritmo de analítica de datos.
Llegamos así a un elemento clave en el análisis de la privacidad de grupo: la constitución dinámica y funcional de los grupos sobre los que se construyen perfiles comportamentales abstractos.
El concepto de grupo en la privacidad de grupo es un concepto funcional que depende
de las elecciones previamente establecidas por cada operación de analítica de datos
en materia de 1) elementos observables, 2) fines con los que se observa, y 3) limitaciones
de los conjuntos analizados Cotino Hueso (
De acuerdo con Floridi, la agrupación de personas según criterios específicos crea
un individuo que, como tal, puede ser sujeto de derechos y hacerlos valer. Entiende
este autor que existen derechos que pertenecen al grupo como tal y no a los individuos
que lo conforman y que en estos casos el grupo actúa como individuo. Esta afirmación
no parece discutible respecto de grupos cuyas características son estáticas y observables
(p. ej., consumidores). Floridi va más allá y considera que también es posible la
atribución y ejercicio de derechos colectivos a grupos funcionales. Si bien admite
que los individuos perfilados pueden no saber que lo han sido, entiende que son las
mismas prácticas interesadas que determinan la agrupación de las personas las que
también configuran dichos grupos como titulares potenciales de un derecho a la privacidad
que, por tanto, pueden hacer valer (
En la cultura jurídica anglosajona, las llamadas acciones de clase se han revelado
útiles debido a ventajas como las siguientes: 1) economía procesal; 2) evitación de
procesos contradictorios; 3) reforzamiento de la defensa del grupo a través de una
única defensa letrada; 4) permitir el acceso a la justicia de reclamaciones de poca
monta individualmente consideradas, y 5) distribución equitativa de las indemnizaciones
cuando la suma debida por el empresario no satisfaga a todos los damnificados (
La importación de las llamadas acciones de clase en el proceso civil español resulta
problemática. Se ha introducido, y de manera muy limitada, en el art. 11 LEC, relativo
a la legitimación para la defensa de derechos e intereses de consumidores y usuarios.
Incluso en este caso una acción de clase en el ordenamiento español presenta, entre
otras, las siguientes dificultades Con mayor profundidad, Carrasco Perera y González Carrasco (
Añádase a todo lo anterior que, en el caso de la privacidad de grupo, la construcción funcional de los grupos dificulta tanto su eventual atribución de derechos como, consecuentemente, su eventual ejercicio. Un grupo variable y funcional, que depende de cada decisión de analítica de datos, genera un grado de incertidumbre infinitamente mayor en cuanto a su determinación que otros de carácter fijo y que atienden a características objetivas y observables de ciertos individuos (p. ej., consumidores, consumidores vulnerables, adherentes, usuarios profesionales…). Si en el caso del art. 11 LEC es criticable la falta de controles para definir el grado de representatividad de una asociación, en el caso de un grupo difícilmente determinable resulta directamente imposible imaginar siquiera la constitución de una asociación.
Todo lo anterior nos lleva a afirmar que, si bien debe constatarse la privacidad de
grupo como un fenómeno digno de consideración a efectos jurídicos, probablemente la
mejor manera de hacerle frente no sea la atribución de derechos colectivos (cuyo ejercicio
se canalizaría a través de acciones de clase) a grupos difícilmente determinables
y muy variables Véase, en contra, Floridi (
En la medida en que toda la sociedad puede ver cómo sus datos alimentan la elaboración
de perfiles y, sobre todo, sus características exteriores y actos de todo tipo pueden
servir para que se les apliquen perfiles abstractos ya creados, los riesgos derivados
de la microsegmentación de la población a través de perfiles abstractos de grupos
funcionales guardan cierta relación con los propios de la contaminación medioambiental
(del entorno físico). En este sentido, es posible diseñar estrategias encaminadas
a lograr un medio ambiente digital más saludable en cada una de las fases del desarrollo
de sistemas IA (basados en datos) que operan a través de perfilado de grupos funcionales:
1) fase de recolección de datos; 2) fase de construcción del modelo, y 3) fase de
implementación del modelo (
Reducir la «emisión de consentimientos» al tratamiento de datos personales durante la fase de recolección de datos.
Controlar los estándares de calidad de los datos durante la fase de construcción del modelo (perfil abstracto); teniendo en cuenta la importancia de prevenir los sesgos como criterio de calidad (fases de recolección de datos y de construcción del modelo).
Subrayar la necesidad de una aplicación integral del RGPD a toda actividad de tratamiento de datos, tanto la consistente en utilizar los datos (personales o no) para durante el desarrollo del modelo como aquella para la posterior aplicación de perfiles a personas concretas durante la fase de implementación del modelo.
El consentimiento se ha erigido como la base de legitimación estrella para el tratamiento
de datos personales Véase el art. 8.2 Carta Europea de los Derechos Fundamentales, que distingue entre
el consentimiento y el resto de las bases de legitimación.
El consentimiento como base de legitimación está demostrando ser susceptible de uso abusivo debido a razones como las siguientes:
La realidad del pago con datos contribuye decididamente al alto nivel de emisión de
consentimientos (
Los responsables de tratamiento redactan cláusulas excesivamente amplias, lo que,
unido a la dinámica de recolección de datos a través de cookies, dificulta que los titulares de datos tomen verdadera conciencia de lo que consienten
(
Los titulares de datos no reparan en los términos en que se otorga este consentimiento
y su trascendencia individual y colectiva Schermer et al. (
De acuerdo con el art. 4.11 RGPD, el consentimiento del titular de los datos a su
tratamiento debe ser libre, específico, informado e inequívoco. El carácter específico
e inequívoco del consentimiento está enteramente relacionado con la redacción concreta
del formulario de consentimiento. La redacción de formularios de consentimiento amplios
puede ser contraria al principio de minimización de datos. No obstante, en la práctica,
y sin perjuicio del riesgo de sanción que implica para el responsable del tratamiento,
comporta igualmente ventajas: cuanto más amplia es la finalidad del tratamiento, mayor
margen de maniobra tiene su responsable y más son también los potenciales tratamientos
ulteriores compatibles Entre los criterios que tener en cuenta para examinar la compatibilidad de usos ulteriores
de datos se encuentra el de la cercanía entre el propósito originario de tratamiento
y el propósito del uso ulterior (
No debe olvidarse, por otra parte, que el consentimiento al tratamiento de datos sirve
también como instrumento de pago en manos del consumidor (en su doble condición de
consumidor y titular de sus propios datos personales) para disfrutar de ciertos bienes
y servicios en el entorno digital. En este sentido, una interpretación rígida o expansiva
del RGPD frenaría la emisión de consentimientos y las consecuencias negativas asociadas
a ello, pero también el desarrollo e impulso de la economía de datos en la UE. Puede
observarse esta tensión en la recolección de datos personales a través de cookies. Las cookies no técnicas son quizá la herramienta más importante para recolectar datos personales
de consumidores en el entorno digital, y esto, a su vez, es fundamental en los modelos
de negocio basados en la monetización de datos y la publicidad comportamental (
No podemos ocuparnos de este aspecto en detalle, pero sí ofrecer dos muestras de la tensión existente en torno a este problema: 1) la antinomia entre el art. 6.3 LOPDgdd y el art. 119 ter TRLGCU, y 2) la interpretación forzada de la reciente Guía AEPD sobre el uso de las cookies en relación con el pago con datos como alternativa al monetario.
Art. 6.3 LOPDgdd | Art. 119 ter.2 TRLGDCU |
---|---|
No podrá supeditarse la ejecución del contrato a que el afectado consienta el tratamiento de los datos personales para finalidades que no guarden relación con el mantenimiento, desarrollo o control de la relación contractual. | La resolución no procederá cuando la falta de conformidad sea de escasa importancia, salvo en los supuestos en que el consumidor o usuario haya facilitado datos personales como contraprestación […]. |
Directrices 5/2020 CEPD | Guía AEPD sobre el uso de las cookies (2023) |
---|---|
39. Para que el consentimiento se manifieste libremente, el acceso a los servicios y funcionalidades no puede supeditarse a que el usuario preste su consentimiento al almacenamiento de información, o al acceso a la información ya almacenada, en el equipo terminal del usuario (las denominadas «barreras de cookies»). | Siguiendo las directrices del CEPD sobre el consentimiento, para que este se dé libremente, el acceso a los servicios y funcionalidades no debe supeditarse a la aceptación por el usuario del uso de cookies. Por ello, no podrán utilizarse los denominados «muros de cookies» que no ofrezcan una alternativa al consentimiento […]. |
33. Ejemplo 6: Un banco […]. Si la negativa del cliente a dar su consentimiento a dicho tratamiento diera lugar a la negativa por parte del banco de prestar sus servicios, al cierre de la cuenta bancaria o, dependiendo del caso, a un aumento de las comisiones, el consentimiento no podría darse libremente. | Podrán existir determinados supuestos en los que la no aceptación de la utilización de cookies impida el acceso al sitio web o la utilización total o parcial del servicio, siempre que se informe adecuadamente al respecto al usuario y se ofrezca una alternativa, no necesariamente gratuita, de acceso al servicio sin necesidad de aceptar el uso de cookies […]. |
Relacionado con lo anterior está el poco detenimiento y reflexión de los interesados acerca de la trascendencia de consentir el tratamiento de sus datos personales. Hemos destacado como ventaja del consentimiento como base de legitimación el mantenimiento de la autonomía individual del interesado en cuanto que titular de los datos; sin embargo, puede alegarse que se trata más de una apariencia que de una realidad. Si bien el RGPD ha reforzado esta base de legitimación a través del endurecimiento de algunos requisitos ya existentes, como la mayor amplitud de la información que debe darse a los interesados, cabe preguntarse si estas medidas contribuyen a un consentimiento más consciente por parte de los interesados.
Todo lo que hemos visto contribuye a un excesivo nivel de «polución de consentimientos»
por parte de aquellos interesados que estén más preocupados por disfrutar de un bien
o servicio en el entorno digital que por preservar su privacidad y la de los demás.
En palabras de Barocas y Nissebaum, nos enfrentamos a la «tiranía de la minoría»:
los datos que voluntariamente comparten unos pocos individuos pueden revelar la misma
cantidad de información sobre otros semejantes que no han decidido dar su consentimiento
en la medida en que estos datos (que sí están recabados directamente de una persona
identificada o identificable) sirven para inferir características de una mayoría que
no ha consentido (
Si bien es cierto que no se concede al consentimiento al tratamiento de datos la importancia
que merece, no es menos cierto que la responsabilidad no descansa únicamente (ni de
manera principal) en la ciudadanía. En el entorno digital encontramos ejemplos de
buena praxis en relación con la reducción de la llamada «fatiga de consentimientos»,
pero también (cierto que cada vez menos) webs que como alternativa al consentimiento
ofrecen al usuario una yincana interminable de pantallas sobre «configuración de cookies» que, en la práctica, supone un muro difícilmente franqueable El Comité Europeo de Protección de Datos (
En definitiva, es necesario reducir la «polución de consentimientos» a través de tres ejes de actuación:
Vigilancia activa por parte de las autoridades de control de la amplitud con que se informa de la finalidad del tratamiento de datos a fin de que el consentimiento que emitan los interesados sea realmente explícito y específico; así como de que los métodos de recolección de consentimiento no están diseñados de tal manera que poder eludir entregar los propios datos sea una odisea infinita de saltos de pantalla.
Clarificación a nivel europeo acerca de la legalidad (y, en su caso, requisitos y garantías) del pago con datos de ciertos bienes y servicios digitales, y especialmente los usos ulteriores compatibles de los datos que sirven como pago.
Concienciación a la ciudadanía acerca de la importancia no solo individual, sino social, de consentir el tratamiento de los propios datos personales.
La Propuesta de Reglamento de Inteligencia Artificial (PRIA) se refiere al principio
de calidad de los datos en relación con los llamados sistemas de alto riesgo, entendiendo
que la alta calidad de los datos, entre otros requisitos, es «esencial para el funcionamiento
de muchos sistemas de IA, especialmente cuando se utilizan técnicas que implican la
formación de modelos» (cons. 44), y necesaria «para mitigar los riesgos para los derechos
fundamentales y la seguridad que plantea la IA y que no están cubiertos por otros
marcos jurídicos existentes» PRIA, p. 9.
El cumplimiento de los estándares de calidad debe buscarse desde el inicio del diseño
del sistema IA, que debe estar sujeto a prácticas adecuadas de gobernanza y gestión
de datos orientadas a lograr la mejor calidad de estos Véase el art. 10.2 PRIA.
Son suficientemente relevantes, representativos, libres de errores y completos teniendo
en cuenta la finalidad prevista del sistema Cons. 44 y art. 10.3 PRIA.
Tienen las propiedades estadísticas adecuadas, incluso en lo que se refiere a las
personas o grupos de personas sobre los que se pretende utilizar el sistema IA, como,
por ejemplo, las características o elementos del entorno geográfico, conductual o
funcional específico en que se pretende utilizar dicho sistema Cons. 44 y puntos 3 y 4 del art. 10 PRIA.
Para garantizar el control, detectar y corregir la parcialidad en los sistemas IA
de alto riesgo podrán tratarse categorías especiales de datos Cons. 44 y art. 10.5 PRIA.
El principio de calidad de los datos solo será exigible respecto de aquellos sistemas
considerados como de alto riesgo (art. 10.1 PRIA). Si se observan las finalidades
de los sistemas considerados de alto riesgo en el anexo III PRIA podrá constatarse
que una parte importante de los objetivos que estos sistemas IA persiguen puede lograrse
a través del perfilado de grupos funcionales. Por destacar únicamente situaciones
ya comentadas más arriba Vid. apdo. 1.
Destinados a ser utilizados por las autoridades públicas o en nombre de ellas para evaluar el derecho de las personas físicas a las prestaciones y servicios de asistencia pública, así como para conceder, reducir, revocar o reclamar dichas prestaciones y servicios.
Destinados a ser utilizados para evaluar la solvencia de las personas físicas o establecer su puntuación de crédito.
Destinados a ser utilizados por las autoridades policiales para realizar evaluaciones de riesgo individuales de personas físicas con el fin de evaluar el riesgo de una persona física de delinquir o reincidir o el riesgo para las posibles víctimas de delitos.
Destinados a ser utilizados para influir en el resultado de una elección o referéndum
o en el comportamiento electoral de personas físicas en el ejercicio de su voto en
elecciones o referendos PRIA, anexo III, puntos 5.a, 5.b, 6.a y 8.a bis, respectivamente.
Independientemente de si el sistema de IA en cuestión debe ser considerado de alto
riesgo o no, el principio de calidad de los datos (PRIA) puede servir como criterio
interpretativo de los principios de tratamiento de los datos (RGPD) El término de referencia en la Directiva 95/46/CE (art. 6) y la LOPD/1999 (art. 4.1)
era la «calidad de los datos». El art. 4.1 LOPD/1999 entiende por datos de calidad
aquellos que son «adecuados, pertinentes y no excesivos en relación con el ámbito
y las finalidades […] para las que se hayan obtenido».
Véase Cotino Hueso (
La diferencia fundamental entre el principio de calidad de los datos y los principios
relativos al tratamiento de datos se debe a los textos normativos donde se insertan:
el incumplimiento del primero dará lugar a las sanciones oportunas contra los responsables Véanse arts. 71 y 72 PRIA. Por ejemplo, en caso de incumplimiento del principio de minimización, se podrá solicitar
la supresión de los datos que no sean necesarios para la finalidad del tratamiento
(art. 17.1.a RGPD), y, en caso de incumplimiento del principio de exactitud, la rectificación
de los datos (art. 16 RGPD) o su limitación (art. 18.1.a RGPD).
Véanse cons. 129 y art. 58.2 RGPD.
Por lo demás, se trata de principios muy cercanos en cuanto a su contenido. De acuerdo con la PRIA, se consideran datos de calidad aquellos que son «relevantes, representativos, libres de errores y completos», siendo fundamental para concretar estas cualidades en cada caso la finalidad del sistema IA de que se trate. Por otro lado, de acuerdo con el RGPD, los datos personales deben ser «adecuados, pertinentes y limitados a lo necesario» (p. de minimización, art. 5.1.c RGPD) y «exactos y, si fuera necesario, actualizados» (p. de exactitud, art. 5.1.d RGPD). En ambos casos, en relación con los fines para los que son tratados, que deberán ser «determinados, explícitos y legítimos» (p. de limitación de finalidad, art. 5.1.b).
Una buena calidad de los datos no necesariamente implica una mejor protección de los
individuos en el contexto de la privacidad de grupo. Pueden generarse perfiles abstractos
con datos de buena calidad cuya aplicación a individuos les afecte significativamente,
lo que socavaría el derecho al libre desarrollo de la personalidad (
La prevención de sesgos y discriminación forma parte importante de los criterios de
calidad de los datos. Tanto es así que en las enmiendas presentadas a la PRIA por
parte del Parlamento Europeo (
De acuerdo con el art. 10.5 PRIA, «en la medida en que sea estrictamente necesario
para garantizar la supervisión, la detección y la corrección de sesgos en relación
con los sistemas de IA de alto riesgo, los proveedores de dichos sistemas podrán tratar
las categorías especiales de datos personales» Se refiere no solo a los datos del art. 9.1 RGPD, sino también a los del art. 10
de la Directiva UE 2016/680, y a los del art. 10.1 del Reglamento UE 2018/1725.
Los sesgos son, desde un punto de vista puramente estadístico, cualquier desviación
o distorsión respecto de lo estándar; sin que esto condicione su valor ético o normativo.
No obstante, esta perspectiva no tiene por qué comportar repercusiones jurídicas.
Es más, puede que los sesgos relevantes a efectos jurídicos no lo sean desde un punto
de vista estadístico ( Los dos primeros problemas destacados tendrán lugar durante la fase de recolección
de datos, mientras que este último podrá tener lugar tanto durante la fase de recolección
de datos como durante la fase de construcción del modelo.
Los datos introducidos son incorrectos, irrelevantes o incompletos. Esto tiene lugar,
por ejemplo, cuando un colectivo está infrarrepresentado y el algoritmo arroja resultados
distorsionados respecto de dicho grupo (
Las variables sufren de una distribución desigual real (sesgos sociales). En estos
casos, los datos son correctos desde el punto de vista técnico/estadístico, pero reflejan
situaciones reales que son desiguales o discriminatorias Lazcoz Moratinos (
Se producen fallos durante el proceso de ETL (extracción, transformación y carga) Durante este proceso, los datos primarios se mueven desde sus fuentes de origen,
se depuran, se preparan para su posterior análisis y se cargan en un repositorio común
(
El art. 22.1 RGPD establece que «todo interesado tendrá derecho a no ser objeto de
una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración
de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de
modo similar», salvo que se dé alguna de las excepciones previstas en el art. 22.2
RGPD: 1) es necesaria para la celebración de un contrato entre el interesado y el
responsable del tratamiento No todo tratamiento de datos exigido en un contrato tiene el contrato como base de
legitimación del art. 6 ni, por tanto, encaja tampoco aquí.
Debe prestarse atención a que no se camufle el tratamiento en las condiciones generales
de un contrato de adhesión, o a que el tratamiento de datos se produzca como condición
de acceso a redes sociales para posteriormente recibir publicidad comportamental.
En estos casos no existiría un consentimiento.
Véase Romeo Casabona (2021: 610-611). Son elementos para descartar estos sesgos que
1) la intervención humana venga de una persona con suficiente autoridad para desobedecer
la decisión/sugerencia automatizada; 2) que la decisión automatizada cumpla con los
principios del art. 5 RGPD, y que 3) no haya rutina en el seguimiento de los resultados
algorítmicos (
Como ya se ha dicho, el proceso completo de un sistema IA abarca tres fases: 1) recolección
de datos; 2) construcción del modelo, e 3) implementación del modelo. El art. 22 RGPD
y el RGPD en su conjunto son aplicables tanto en el momento en que los datos personales
alimentan la elaboración de perfiles abstractos (fase 1) como en el momento en que
perfiles abstractos se aplican a una persona concreta (fase 3), ya que en ambos momentos
se producen actividades de tratamiento de datos personales. Es tratamiento de datos
«cualquier operación» Art. 4.2 RGPD. Véase el cons. 91 RGPD. Sobre los criterios para entender que estamos ante un tratamiento
de datos a gran escala, Grupo de Trabajo del Artículo 29 (
Por otra parte, toda información sobre una persona física identificada o identificable es un dato personal (art. 4.1 RGPD), incluida información inferencial resultante de asociar un perfil abstracto y una persona. Teniendo todo esto en cuenta, conviene volver al párrafo primero del art. 22: «[…] todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles […]». Esta afirmación puede interpretarse de dos maneras diferentes (y complementarias) dependiendo de la fase de tratamiento de los datos a que nos estemos refiriendo: 1) el derecho del interesado a que sus datos no alimenten la elaboración de perfiles, durante la fase de construcción del modelo, y 2) el derecho del interesado a que no se le apliquen perfiles, durante la fase de implementación del modelo.
Todo interesado tiene derecho a que sus datos personales no alimenten la elaboración de perfiles, algo que se produce a través de un tratamiento automatizado de datos después de su recogida. Es decir, todo interesado tiene derecho a no verse incluido o asociado automáticamente entre quienes forman parte de un determinado grupo funcional (del que saldrá un perfil abstracto asociado a las características de este grupo). Esto tendría lugar durante la fase de construcción del modelo, cuando se realiza la analítica de datos y se buscan correlaciones y patrones para crear un nuevo conocimiento: el perfil comportamental de un determinado grupo.
En esta fase es importante vigilar y fomentar la transparencia y explicabilidad de
los algoritmos como método para reducir en lo posible que los sesgos, prejuicios y
errores humanos se trasladen al algoritmo y supongan un factor de cristalización en
el futuro (
En lo que se refiere al tratamiento de datos, hay dos aspectos importantes para tener en cuenta: 1) los usos ulteriores de datos obtenidos de muy diversas fuentes, y 2) la anonimización de datos durante esta fase.
Si algo caracteriza a la analítica de datos en masa es el elevado volumen de datos
que utiliza, y que la diferencia de la estadística tradicional (que se sirve de pequeñas
muestras) ( Véase Grupo de Trabajo del Artículo 29 (
La elaboración de perfiles puede considerarse tanto una actividad de investigación
como una actividad estadística (
De acuerdo con el cons. 26 RGPD y con una interpretación a contrario (y evidente) del art. 1.1 RGPD, este no debe entenderse aplicable a la información anónima, es decir, a todos aquellos datos que no guarden «relación con una persona física identificada o identificable», ni tampoco «a los datos convertidos en anónimos de forma que el interesado no sea identificable, o deje de serlo».
Desde un punto de vista técnico, resulta sumamente difícil someter datos personales
en origen a procesos de anonimización completa. Pero sí cabe preguntarse qué procesos
de pseudonimización de datos y establecimiento de garantías Véase el art. 89.1 RGPD.
La probabilidad «razonable» de reidentificación es un concepto jurídico indeterminado,
que habrá de concretarse en cada caso. En el ámbito que nos ocupa es importante atender
al nivel de granularidad en la exposición de la información. Qué se considera un nivel
adecuado de granularidad puede explicarse fácilmente con un ejemplo que de un tiempo
a esta parte se ha puesto de moda tras unas elecciones: el célebre «conoce cómo han
votado tus vecinos» ( En Estados Unidos la redistribución de distritos se lleva a cabo por el Poder Legislativo
de cada estado. Existe abundante jurisprudencia acerca de la prohibición de prácticas
de distribución interesada o partidista de distritos electorales (gerrymandering) por considerarlas contrarias a la Constitución de Estados Unidos. Pese a todo, a
la luz del abundante número de casos, parece difícil desterrar esta intención de la
voluntad de los partidos políticos; existiendo en la actualidad intentos de redistribución
partidista de los distritos electorales de similar intensidad a cuando se acuñó el
término en la segunda mitad del siglo xix (
Todo interesado tiene derecho a que no se le aplique un perfil comportamental abstracto
ya creado referido a un determinado grupo funcional. En este caso, también se estaría
viendo incluido o asociado como parte de los individuos pertenecientes o cercanos
a ese grupo funcional, pero en una fase posterior, como es la de implementación del
modelo Esto comporta el riesgo de que al clasificar a las personas en grupos funcionales
se tomen decisiones discriminatorias basadas únicamente en esos perfiles (Romeo Casabona,
2021: 610-612).
Vid. cons. 26 y art. 4.1 RGPD, a contrario.
En este sentido, Cotino Hueso (
La versión en castellano del art. 4.4 del RGPD puede dar lugar a alguna confusión interpretativa en lo que acabamos de señalar: mientras que en la versión en inglés se habla de profiling (perfilado), la versión en castellano habla de «elaboración de perfiles». Pese a que el perfilado se define como «toda forma de tratamiento automatizado de datos personales», hablar de «elaboración de perfiles» puede dar lugar a pensar que el RGPD resulta únicamente aplicable a toda actividad relativa a perfilado durante las fases 1 (recolección de datos) y 2 (construcción del modelo), pero no durante la fase 3 (aplicación del modelo; aplicación del perfil). Esto no es así.
La aplicación de un perfil abstracto a una persona concreta es una actividad de tratamiento de datos como cualquier otra. Se trata de una operación realizada sobre datos personales, ya sea por procedimientos automatizados o no, orientada a evaluar determinadas características de una persona física. Da igual aquí si entendemos que la actividad de tratamiento se produce del perfil a la persona o de la persona al perfil: se está estableciendo una relación de semejanza suficientemente relevante entre el perfil abstracto (que ya es concreto) y la persona; se está afirmando que cierto perfil funciona para una persona concreta, y que cierta persona concreta es suficientemente semejante a dicho perfil, y, por tanto, previsiblemente se comportará del mismo modo. Bien es verdad que los datos resultantes de aplicar un perfil abstracto a una persona física no deben tomarse como ciertos, sino como inferencias. Pero no es menos cierto que no por ello dejan de ser datos personales, ya que se refieren a una persona identificada o identificable.
Se trata de conocimiento nuevo (derivado de analítica en masa y microsegmentación
de la población en grupos funcionales) que será más o menos preciso en términos de
probabilidad; pero que cumple con las condiciones necesarias para ser dato personal
y, por tanto, queda sujeto al RGPD, igual que el resto de los datos personales Véase cons. 72 RGPD.
El derecho a la protección de datos confiere a su titular la facultad de tomar decisiones en torno a la utilización de datos de cualquier naturaleza. Por su parte, el derecho a la intimidad protege frente a invasiones que puedan realizarse en el ámbito de la vida personal y familiar que la persona desee excluir del conocimiento ajeno. Tanto uno como otro derecho tienen una marcada impronta individualista o defensiva que los caracteriza como derechos de no injerencia o de primera generación.
El derecho a la protección de datos ha estado unido, desde sus inicios, a la garantía y fomento de la libre circulación de los datos (véase el art. 1.3 RGPD). El aumento de fuentes productoras de datos y el desarrollo de herramientas de recolección y análisis han permitido el impulso de la IA basada en datos (machine learning, deep learning), contribuyendo todo ello al desarrollo de la llamada economía de los datos, que estudia no solo el valor global de los datos, sino el impacto económico que su uso e intercambio generan en el mercado. El valor de la economía de los datos ha aumentado progresivamente en los últimos años. En 2021 superó los 450 millones de euros para la UE más el Reino Unido, y se estima que en 2022 superará los 500 millones de euros, a pesar de la salida del Reino Unido de la UE. Tanto la IA basada en datos como la economía de datos se retroalimentan: la infraestructura contractual generada en torno a la economía de datos (por ejemplo, a través de pago con datos y muros de cookies) aumenta la cantidad de datos disponibles para su posterior análisis y generación de conocimiento nuevo.
El progreso tecnológico obliga también a interpretar a la luz de los tiempos el contenido del derecho a la protección de datos, de tal manera que las mayores posibilidades de aprovechamiento de los datos vengan acompañadas de nuevas cautelas. En este sentido, es importante ser conscientes de la contaminación que genera nuestra actividad en el entorno digital: cuando pagamos con nuestros datos estamos contaminando el entorno digital al permitir la recolección y análisis de nuestros datos personales, lo que deriva en un medio ambiente digital caracterizado por la hipervigilancia en masa y personalizada, y esto afecta de un modo diferente al hasta ahora conocido como derechos a la intimidad o la protección de datos. Por ello es necesario añadir a la tradicional perspectiva del derecho a la protección de datos aquella que nos permita desarrollar el derecho a disfrutar de un medio ambiente tecnológico saludable, entendido como aquel cuyo nivel de «contaminación de datos» no favorezca un juicio social permanente a individuos a través de análisis masivos de datos que no necesariamente están relacionados con su persona, pero que potencialmente podrían estarlo, y que se ven aplicados a través de perfiles abstractos asociados a grupos funcionales difícilmente determinables a través de técnicas de analítica de datos en masa.
Resulta necesario reflexionar acerca de los retos que plantea la perspectiva colectiva de la privacidad, vista como el derecho a disfrutar de un medio ambiente digital saludable. Mientras esto se produce, vale la pena diseñar o reforzar estrategias que mitiguen la nueva contaminación digital y sus efectos. Estas estrategias se podrán desarrollar en alguna de las tres fases de los sistemas de IA: recolección de datos, diseño del modelo o implementación del modelo.
El consentimiento al tratamiento de datos es una de las varias bases de legitimación que contempla el art. 6 RGPD. Pese a sus indudables ventajas (como la seguridad jurídica que ofrece al responsable del tratamiento), contribuye a un alto nivel de polución de consentimientos, debido a la realidad del pago con datos (incómoda y poco clara desde el punto de vista jurídico), a formularios de consentimiento excesivamente amplios, y al bajo (o nulo) nivel de reflexión de los titulares de datos, más interesados en disfrutar «gratis» de ciertos bienes y servicios en el entorno digital que en preservar su privacidad y la de los demás. En este sentido, las autoridades de control deben vigilar tanto la amplitud con que se informa de la finalidad del tratamiento cuando se recaba consentimiento del titular de los datos como que se reduce la llamada fatiga de consentimiento. También debe profundizarse en la concienciación ciudadana sobre la trascendencia individual y colectiva de consentir el tratamiento de datos. Finalmente, se ha de aclarar la legalidad del pago con datos y sus métodos.
Por lo que se refiere al control de calidad de los datos, hay que comenzar destacando que la analítica de datos permite tomar decisiones mejor informadas, pero esto solo ocurrirá si se construyen sobre datos lo suficientemente relevantes, representativos, libres de errores y completos teniendo en cuenta la finalidad del sistema de IA. En otras palabras, si se utilizan datos de calidad. La Propuesta de Reglamento de Inteligencia Artificial se ocupa del principio de calidad de los datos en el art. 10 y en el cons. 46. La prevención de sesgos en los datos forma parte importante de la calidad de los datos, tanto que si fuera necesario se consideraría como de interés público esencial utilizar categorías especiales de datos para supervisar, detectar y corregir sesgos en sistemas de IA de alto riesgo (art. 10.5). Además, el principio de calidad de los datos de la PRIA puede servir como parámetro de interpretación de los principios del tratamiento de datos del art. 5 RGPD en la medida en que dicho tratamiento tenga lugar en el marco de un sistema de IA.
Como tercera estrategia, hay que subrayar que el RGPD, y particularmente su art. 22, resulta aplicable a cualquier operación de tratamiento de datos; lo que abarca potencialmente las tres fases de un sistema de IA: recolección de datos, construcción del modelo (perfil) e implementación del modelo. A los efectos de afrontar los retos de la privacidad de grupo, esto implica que cualquier persona tiene derecho a 1) que sus datos no alimenten la elaboración de perfiles durante la fase de construcción del modelo, salvo que sean sometidos a medidas adecuadas de salvaguarda de sus derechos y libertades, como la pseudonimización, y, también, a 2) que no se le apliquen perfiles abstractos ya creados, durante la fase de implementación del modelo.
Resulta particularmente importante subrayar el derecho de todo ciudadano a que no se le apliquen perfiles abstractos que permitan inferir (con mayor o menor probabilidad de acierto) comportamientos suyos pasados, presentes o futuros. Desde el punto de vista del derecho a la protección de datos, aplicar un perfil abstracto a una persona concreta es una actividad de tratamiento de datos, y, como tal, le resulta aplicable el RGPD. Por otra parte, no menos importante, la microsegmentación de la población en grupos funcionales difícilmente determinables con el objetivo de inferir aspectos de su vida o su personalidad genera una situación de indefensión tal que socaba la dignidad de la persona y el libre desarrollo de la personalidad.
Prestar atención al derecho a que no se nos apliquen perfiles abstractos ya creados es una buena estrategia reactiva habida cuenta de la gran cantidad de datos y perfiles abstractos ya creados que existen en la actualidad. Tanto la reducción de la emisión de consentimientos como el control de la calidad de los datos permiten construir un medio ambiente digital menos contaminado en el futuro. Pero, por el momento, como sociedad, debemos luchar con la mayor agilidad posible contra la microsegmentación social a través de perfilado que ya opera en múltiples facetas de nuestra vida cotidiana. Para ello, y haciendo uso de normas ya en vigor, podemos reclamar nuestro derecho a no ser objeto de perfilado (es decir, contribuir a la elaboración de perfiles sin las debidas garantías y, sobre todo, que no se nos apliquen perfiles), en la medida en que se trata de una decisión automatizada que nos afecta significativamente (art. 22.1 RGPD) socavando nuestra dignidad y perturbando el libre desarrollo de nuestra personalidad (art. 10 CE).
Alston, P. (2020). Un fallo histórico de un tribunal holandés detiene los intentos del gobierno de espiar a los pobres (Informes ACNUDH. Comunicado Prensa). Ginebra: ACNUDH. Disponible en: https://tinyurl.com/5n6mespd. |
|
Angwin, J., Larson, J., Mattu, S. y Kirchner, L. (2016). Machine bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica [blog], 23-5-2016. Disponible en: https://tinyurl.com/yyy6yc2y. |
|
Balkin, J. M. (2017). The three laws of robotics in the age of big data. Ohio State Law Journal, 78, 1217-1241. |
|
Barocas, S. y Nissebaum, H. (2014). Big data’s end run around anonymity and consent. En J. Lane, V. Stodden, S. Bender y H. Nissebaum (eds.). Privacy, big data and the public good. Frameworks for engagement (pp. 44-75). Cambridge: Cambridge University Press. Disponible en: https://doi.org/10.1017/CBO97811075902 05.004. |
|
Bousquette, I. (2023). AI-generated gata could be a boon for healthcare, if only it seemed more real. The Wall Street Journal, 2-8-2023. Disponible en: https://tinyurl.com/3j3skp6z. |
|
Carrasco Perera, A. y González Carrasco, M. C. (2001). ¿Acciones de clase en el proceso civil? Aranzadi Civil: Revista Quincenal, 1, 1895-1912. |
|
Comisión Europea (2010). Communication from the Commission to the European Parliament, the Council, the Economic and Social Committee and the Committee of The Regions: a comprehensive approach on personal data protection in the European Union (Report COM. Bulletin COM; 609 final). Brussels: COM. Disponible en: https://tinyurl.com/2efrbmrs. |
|
Comisión Europea (2017a). Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones: «La construcción de una economía de los datos europea» (Report COM. Bulletin COM; 9 final). Brussels: COM. Disponible en: https://tinyurl.com/2p9a763k. |
|
Comisión Europea (2017b). Commission staff working document: on the free flow of data and emerging issues of the European data economy. Building a European data economy (Report COM. Bulletin COM; SWD 2 final). Brussels: COM. Disponible en: https://tinyurl.com/2ud76ks2. |
|
Comisión Europea (2020a). The european data market monitoring tool: key facts and figures, first policy conclusions, data landscape and quantified stories (Report EC. Bulletin POEU; D2.9 Final Study Report). Luxembourg: EC. Disponible en: https://tinyurl.com/vbrzx8w5. |
|
Comisión Europea (2020b). Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza (Informe COM. Boletín COM; 65 final). Brussels: COM. Disponible en: https://tinyurl.com/mvfveceu. |
|
Comisión Europea (2020c). Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones: una estrategia europea de datos (Informe COM. Boletín COM; 66 final). Brussels: COM. Disponible en: https://tinyurl.com/23ysm7vt. |
|
Comisión Europea (2023a). European data market study 2021-2023 (D2.4 Second Report on facts and figures). Brussels. Disponible en: https://tinyurl.com/w3pcja99. |
|
Comisión Europea (2023b). European Data Market Study 2021-2023. Second Report on policy conclusions. (Report COM. Bulletin COM; D2.5). Brussels: COM. Disponible en: https://tinyurl.com/2p8ca5s4. |
|
Comité Europeo de Protección de Datos (2020). Directrices 5/2020 sobre el consentimiento en el sentido del Reglamento UE 2016/679. (Informe CEPD.) Bruselas: CEPD. Disponible en: https://tinyurl.com/yr44x52v. |
|
Congreso de los Diputados (2018). Enmiendas e índice de enmiendas al articulado. 121/000013 Proyecto de Ley Orgánica de Protección de Datos de Carácter Personal. Disponible en: https://tinyurl.com/3bcjduwd. |
|
Corte de Distrito de La Haya (2020). Legislación SyRI en conflicto con el Convenio Europeo de Derechos Humanos: C-09-550982-HA ES 18-388. Disponible en: https://tinyurl.com/37dkj69y. |
|
Cotino Hueso, L. (2022). Nuevo paradigma en las garantías de los derechos fundamentales y una nueva protección de datos frente al impacto social y colectivo de la inteligencia artificial. En L. Cotino Hueso (dir.). Derechos y garantías ante la inteligencia artificial y las decisiones automatizadas (pp. 69-105). Navarra: Thomson Reuters Aranzadi. |
|
De Miguel Beriain, I. (2018). Does the use of risk assessments in sentences respect the right to due process? A critical analysis of the Wisconsin vs. Loomis ruling. Law, Probability and Risk, 17 (1), 45-53. Disponible en: https://doi.org/10.1093/lpr/mgy001. |
|
Floridi, L. (2017). Group privacy: a defence and an interpretation. En L. Taylor, L. Floridi y B. van der Sloot (eds.). Group privacy: new challenges of data technologies (pp. 103-123). Dordrecht: Springer. Disponible en: https://doi.org/10.1007/978-3-319-46608-8_5. |
|
Gil González, E. (2015). Big data, privacidad y protección de datos. Madrid: Agencia Española de Protección de Datos. Disponible en: https://tinyurl.com/4t8zh4d2. |
|
Gil González, E. (2022). El interés legítimo en el tratamiento de datos personales. Madrid: Wolters Kluwer. |
|
Grupo de Trabajo del Art. 29 (2007). Opinion 4/2007 on the concept of personal data (Report CE. Bulletin WP; 136). Brussels: CE Disponible en: https://tinyurl.com/cwwx5bhc. |
|
Grupo de Trabajo del Art. 29 (2013). Opinion 03/2013 on purpose limitation (Report EC. Bulletin WP; 203). Brussels: EC. Disponible en: https://tinyurl.com/9k5t3wah. |
|
Grupo de Trabajo del Art. 29 (2017a). Guidelines on data protection impact assessment and determining whether processing is “likely to result in a high risk” for the purposes of regulation 2016/679. (Report EC. Bulletin WP; 248). Brussels: EC. Disponible en: https://tinyurl.com/yc7htu56. |
|
Grupo de Trabajo del Art. 29 (2017b). Guidelines on automated individual decision-making and profiling for the purposes of regulation 2016/679 (Report EC. Bulletin WP; 251 rev. 01). Brussels: EC. Disponible en: https://tinyurl.com/yhp3382h. |
|
Holmes, D. E. (2018). Big Data. Una breve introducción. Barcelona: Antoni Bosch. |
|
Jaume Palasí, L. (2020). Cómo la inteligencia artificial está impactando en las sociedades. En A. Cerrillo i Martínez y M. Peguera Poch (dirs.). Retos jurídicos de la inteligencia artificial (pp. 27-39). Navarra: Thomson Reuters Aranzadi. |
|
Kang, M. S. (2019). Hyperpartisan gerrymandering. Boston College Law Review, 61, 1379-1445. |
|
Lazcoz Moratinos, G. (2021). Modelos algorítmicos, sesgos y discriminación. En F. Bueno de Mata (dir.). FODERTICS 9.0. Estudios sobre tecnologías disruptivas y justicia (pp. 283-294). Granada: Comares. |
|
Lazcoz Moratinos, G. (2023). Gobernanza y supervisión humana de la toma de decisiones automatizada basada en la elaboración de perfiles [tesis doctoral inédita]. Universidad del País Vasco. |
|
Lohsse, S., Schulze, R. y Staudenmayer, D. (2017). Trading data in the digital economy: legal concepts and tools. En S. Lohsse, R. Schulze y D. Staudenmayer (dirs.). Trading data in the digital economy: legal concepts and tools (pp. 13-26). Baden-Baden: Nomos. Disponible en: https://doi.org/10.5040/97815099 21218.0005. |
|
Lucas Murillo de la Cueva, P. (2021). El objeto del Reglamento General de protección de datos y de la Ley Orgánica de protección de datos personales y garantía de los derechos digitales. Comentario al art. 1 Reglamento General de Protección de Datos y al art. 1 Ley Orgánica de Protección de Datos personales y Garantía de los Derechos Digitales. En A. Troncoso Reigada (dir.). Comentario al Reglamento General de Protección de Datos y a la Ley Orgánica de Protección de Datos personales y Garantía de los Derechos Digitales (pp. 323-324). Navarra: Thomson Reuters Aranzadi. |
|
Mas Badía, M. D. (2021). Sistemas privados de información crediticia. Nueva regulación entre la protección de datos y el crédito responsable. Valencia: Tirant lo Blanch. |
|
Metzger, A. (2020). A market model for personal data: state of play under new Directive on digital content and digital services. En S. Lohsse, R. Schulze y D. Staudenmayer (dirs.). Data as counter-performance: contract law 2.0? (pp. 25-46). Baden-Baden: Nomos. Disponible en: https://doi.org/10.5771/9783748908531-23. |
|
Núñez Seoane, J. (2020). El derecho de la información y acceso al funcionamiento de los algoritmos que tratan datos personales. En A. Huergo Lora (dir.). La regulación de los algoritmos (pp. 299-315). Navarra: Thomson Reuters Aranzadi. |
|
Palma Ortigosa, A. (2019). Decisiones automatizadas en el Reglamento General de Protección de Datos. El uso de algoritmos en el contexto de la protección de datos. Revista General de Derecho Administrativo, 50. |
|
Parlamento Europeo (2023). Enmiendas aprobadas por el Parlamento Europeo el 14 de junio de 2023 sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (Informes COM. Boletín COD 0206/2021–C9-0146/2021–0106/2021). Bruselas: COM. Disponible en: https://tinyurl.com/mtyv2nnd. |
|
Pereda, O. y Jané, C. (2019). El Instituto Nacional de Estadística paga medio millón por los datos de cómo se desplazan los españoles. El Periódico, 29-10-2019. Disponible en: https://tinyurl.com/4ak9ehpf. |
|
Pérez Luño, A. E. (1991). Las generaciones de derechos humanos. Revista del Centro de Estudios Constitucionales, 10, 203-217. |
|
Pérez Luño, A. E. (1993). El concepto de los derechos humanos y su problemática actual. Derechos y libertades: Revista de Filosofía del Derecho y Derechos Humanos, 1 (1), 179-196. |
|
Romeo Casabona, C. M. (2021a). Limitación del tratamiento. Comentario al art. 4.3 del Reglamento General de Protección de Datos. En A. Troncoso Reigada (dir.). Comentario al Reglamento General de Protección de Datos y a la Ley Orgánica de Protección de Datos personales y Garantía de los Derechos Digitales (pp. 573-589). Navarra: Thomson Reuters Aranzadi. |
|
Romeo Casabona, C. M. (2021b). Datos personales. Comentario al art. 4.1 del Reglamento General de Protección de Datos. En A. Troncoso Reigada (dir.). Comentario al Reglamento General de Protección de Datos y a la Ley Orgánica de Protección de Datos personales y Garantía de los Derechos Digitales (pp. 573-589). Navarra: Thomson Reuters Aranzadi. |
|
Romeo Casabona, C. M. (2021c). Elaboración de perfiles. Comentario al artículo 4.4 del Reglamento General de Protección de Datos. En A. Troncoso Reigada (dir.). Comentario al Reglamento General de Protección de Datos y a la Ley Orgánica de Protección de Datos personales y Garantía de los Derechos Digitales (pp. 609-612). Navarra: Thomson Reuters Aranzadi. |
|
Romeo Casabona, C. M. (2021d). Seudonimización. Comentario al art. 4.5 del Reglamento General de Protección de Datos. En A. Troncoso Reigada (dir.). Comentario al Reglamento General de Protección de Datos y a la Ley Orgánica de Protección de Datos personales y Garantía de los Derechos Digitales (pp. 613-627). Navarra: Thomson Reuters Aranzadi. |
|
Sánchez, R. y Oliveres, V. (2023). MAPA. ¿Qué votaron tus vecinos el 23J? Los resultados de las elecciones generales, calle a calle. elDiario.es, 24-7-2023. Disponible en: https://tinyurl.com/mrm8p869. |
|
Sancho Villa, D. (2021). Las decisiones individuales automatizadas, incluida la elaboración de perfiles. Comentario al art. 22 Reglamento General de Protección de Datos. En A. Troncoso Reigada (dir.). Comentario al Reglamento General de Protección de Datos y a la Ley Orgánica de Protección de Datos personales y Garantía de los Derechos Digitales (pp. 1725-1745). Navarra: Thomson Reuters Aranzadi. |
|
Schermer, B. W., Custers, B. y Van der Hof, S. (2014). The crisis of consent: how stronger legal protection may lead to weaker consent in data protection. Ethics and Information Technology, 16 (2), 171-182. Disponible en: https://doi.org/10.1007/s10676-014-9343-8. |
|
Soriano Arnanz, A. (2021). Decisiones automatizadas: problemas y soluciones jurídicas. Más allá de la protección de datos. Revista de Derecho Público: Teoría y Método, 3, 85-127. Disponible en: https://doi.org/10.37417/RPD/vol_3_2021_535. |
|
Soto, C. J. (2018). Big five personality traits. En M. H. Bornstein, M. E. Arterberry, K. L. Fingerman y J. E. Lansford (eds.). The SAGE encyclopedia of lifespan human development (pp. 240-241). Sage: Thousand Oaks, C. A. |
|
Spanga, C. (2015). Dei beni in generale. En P. Schlesinger (dir.). Il Codice Civile Commentario: art. 810-821 (pp. 1-259). Milano: Giuffrè Editore. |
|
Supervisor Europeo de Protección de Datos (2017). Opinion 4/2017 on the Proposal for a Directive on certain aspects concerning contracts for the supply of digital content (Report SEPD.). Brussels: SEPD Disponible en: https://tinyurl.com/yckvj9yh. |
|
Troncoso Reigada, A. (2021). Los principios relativos al tratamiento. Comentario al art. 5 Reglamento General de Protección de Datos y al art. 4 Ley Orgánica de Protección de Datos Personales y Garantía de los Derechos Digitales. En A. Troncoso Reigada (dir.). Comentario al Reglamento General de Protección de Datos y a la Ley Orgánica de Protección de Datos personales y Garantía de los Derechos Digitales (pp. 847-907). Navarra: Thomson Reuters Aranzadi. |
|
Valls Prieto, J. (2021). Inteligencia artificial, derechos humanos y bienes jurídicos. Navarra: Thomson Reuters Aranzadi. |
|
Van Dalen, S., Gilder, A., Hooydonk, E. y Ponsen, M. (2016). System risk indication: an assessment of the dutch anti-fraud system in the context of data protection and profiling. Public Interest Litigation Project, Nederlands Juristen Comité voor de Mensenrechte. London: University of London. Disponible en: https://tinyurl.com/3udmxr87. |
|
Veliz, C. (2020). Privacy is power. Madrid: Penguin Random House. |
|
Warren, S. D. y Brandeis, L. D. (1890). The right to privacy. Harvard Law Review, 4 (5), 193-220. Disponible en: https://doi.org/10.2307/1321160. |
|
Zuboff, S. (2020). La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder. Barcelona: Paidós. |