RESUMEN
Este trabajo aborda la regulación, práctica y problemática del perfilado ideológico en relación con la protección de datos, teniendo en consideración tanto el RGPD como la regulación específica adoptada en España mediante la reforma de la LOREG. En primer lugar, se explica en qué consiste el perfilado ideológico y su metodología a partir de experiencias recientes, para, posteriormente, hacer referencia a la inacabada respuesta jurídica y su admisibilidad en el marco del Estado de partidos. Finalmente, se plantean garantías y salvaguardas técnico-jurídicas que contribuirían a dimensionar la aplicación de esta técnica, y se reflexiona acerca de la posible sobredimensión de su impacto sobre la democracia y las decisiones electorales a la luz de campañas recientes, como las realizadas por Cambridge Analytica.
Palabras clave: Big data; inteligencia artificial; perfilado ideológico; campañas electorales; protección de datos; Cambridge Analytica.
ABSTRACT
This paper deals with the regulation, practice and problems of political profiling in relation to data protection, taking into consideration both the RGPD and the specific regulation adopted in Spain through the reform of the LOREG. Firstly, it explains what political profiling consists of and its methodology based on recent experiences. Secondly, it refers to the lack of a adequated legal response and its admissibility within the framework of the State of Parties. Finally, the paper proposes technical and legal safeguards that will help to measure the application of this technique, and reflects on the possible overdimensioning of its impact on the democratic system and electorate decisions in the light of recent campaigns, such as those conducted by Cambridge Analytica.
Keywords: Big Data; artificial intelligence; political profiling; electoral campaigns; data protection; Cambridge Analytica.
Las campañas irregulares basadas en big data y analítica avanzada realizadas por Cambridge Analytica (CA) llevaron a autoridades de distintas jurisdicciones a realizar investigaciones relacionadas con vulneraciones de la normativa de protección de datos y la regulación electoral. La preocupación alcanzaba, también, posibles afectaciones de derechos fundamentales o el riesgo de socavar los fundamentos básicos de los sistemas democráticos.
No obstante, la utilización de técnicas estadísticas o analítica de datos en campañas electorales es muy anterior. Aprovechar el avance del big data o técnicas de inteligencia artificial no es más que el paso siguiente de un proceso de asimilación permanente de las tecnologías que se inició con la radio en los años veinte, incorporó la televisión en los cincuenta e internet desde finales de los años noventa. El surgimiento y la penetración de las redes sociales vendrían a apuntalar un nuevo estadio que, unido a la popularización de las técnicas del big data, el abaratamiento de la potencia computacional y la cesión inadvertida de ingentes cantidades de datos por los usuarios, generaría un movimiento tectónico que borraría las asentadas y aceptadas fórmulas de transacción de la información política, introduciendo elementos que han generado enorme perplejidad ante los que la regulación no debe permanecer inerme.
Los expertos centran la campaña electoral de Barack Obama de 2008 cómo el inicio de este cataclismo que podría erosionar las bases del sistema electoral y de la democracia (Rubio, 2011: 330-331), aunque la campaña del brexit y la presidencial norteamericana de 2016 se diferencian en cuanto al nivel de complejidad técnica y opacidad que informes de diversas autoridades han intentado dilucidar. A esto hay que sumar las consideraciones éticas y, más importante aún, la vulneración reiterada del insuficiente marco protector global de la privacidad, que en buena medida dejaba el control de los datos en manos de la autorregulación de las empresas dominantes del sector. Quizá esta combinación de elementos es la que ha generado tanta fascinación mediática respecto al uso del microtargeting y el perfilado ideológico, así como un enorme debate acerca de la influencia en los resultados electorales, desatando respuestas regulatorias de diverso alcance.
La reforma incorporada en la ley española de protección de datos, posteriormente recurrida y anulada por el Tribunal Constitucional español, es el capítulo local del reto que presenta este naciente estadio de alienación tecnológica y concentración de poder en el mercado datos, cuyos efectos —se argumenta— amenazan con irradiarse sobre los fundamentos mismos de la democracia. Esto invita al análisis, así como a la discusión sosegada, acerca de la respuesta regulatoria a una de las manifestaciones más cuestionadas de esta transformación: el perfilado aplicado a electores con fines electorales. Para ello debemos conocer cómo funcionan el perfilado y la microsegmentación electorales a efectos de acertar respecto a su regulación, así como dimensionar su impacto y ajustar las medidas de intervención a la realidad del avance tecnológico, las exigencias del Estado de derecho y la protección de los derechos fundamentales.
Nuestro foco de atención, aclaramos, serán los partidos políticos, y no las grandes plataformas que también podrían realizar perfilados y ponerlos a disposición de partidos, organizaciones y candidatos. La problemática jurídica que deriva de la actuación de estos intermediarios se aleja de nuestro enfoque, y aconseja un análisis separado que no podemos abordar en este momento, tanto por la extensión limitada de nuestro estudio como porque la respuesta jurídica —a nuestro juicio— debe darse a nivel comunitario, cuestión que aún se está pergeñando en el marco de iniciativas recientes, como la propuesta del nuevo paquete digital europeo.
El perfilado ideológico se relaciona estrechamente con el microtargeting, y tiene como objetivo ganar en influencia estratégica e inclinar el voto de los electores. Supone el desarrollo de una serie de fases que incluyen la recolección de información personal de los votantes, con el objetivo de enviar mensajes personalizados (Zuiderveen et al., 2018: 82). El big data y la analítica avanzada de datos —se sostiene— permiten afinar en la perfilación de usuarios e incorporar incluso elementos o puntos de información obtenidos a partir de inferencias derivadas de puro poder computacional. El resultado, o al menos su reclamo públicamente anunciado, es alcanzar una elevadísima precisión al depurar audiencias de nicho. Esto permitiría, bien activar la base de votantes de un partido, bien personalizar mensajes para persuadir a votantes indecisos. También permitiría desactivar o desmotivar, con el mensaje adecuado, a la base electoral de partidos contendientes.
Estas promesas han llevado a sostener que, con la mediación de Cambridge Analytica, se manipuló el referéndum que llevó a la salida del Reino Unido de la UE, o que Donald Trump obtuviera la presidencia de Estados Unidos, simplificando buena parte de las complejas causas que explican ambos resultados.
No obstante, ni el microtargeting ni los intentos de segmentación de mensajes, resultan ajenos a las campañas electorales de los últimos lustros, si bien tejidas con mimbres más simples. La metodología que se aplica se ha desarrollado desde la ciencia y la comunicación política, incorporando técnicas de machine learning o deep learning testadas en el ámbito tecnológico-empresarial, añadiendo, así, grados de sofisticación y teórica efectividad respecto a la propaganda electoral generalizada. La acumulación masiva y la permeabilidad social respecto a la cesión de datos facilitarían este cambio cualitativo y derivarían en una ruptura respecto a la predicción tradicional basada en modelos diseñados a partir de variables generales.
El proceso de perfilado y microsegmentación de mensajes no está exento de complejidad, y requiere del desarrollo de tres fases. En primer lugar, la construcción de una infraestructura de datos con información de los posibles electores; en segundo término, un proceso de perfilado de usuarios y predicción basado en modelos estadísticos avanzados, y, finalmente, una fase centrada en la comunicación con los usuarios. Las dos primeras fases se centran en el target de los electores que interesan de cara a la campaña, y la última, en la intervención mediante el envío de mensajes específicos que animen o desactiven el voto. Como se ve, el proceso no se agota con el perfilado, aunque en España el debate político y jurídico, así como la repercusión mediática, se haya centrado sobre todo en este aspecto. Por otra parte, y a efectos de dimensionar y clarificar el impacto de las prácticas desarrolladas por Cambridge Analytica de cara a reformular o aquilatar marcos regulatorios futuros, destacaremos algunos aspectos patológicos de sus campañas al hilo de la explicación general.
La recolección de datos en las campañas electores responde a un proceso incremental. Esto es, se parte de bases de datos que se van actualizando a lo largo de distintas contiendas con miras a aumentar el conocimiento de los votantes. En algunos países, como Estados Unidos, el núcleo de las bases de datos lo constituye información pública, que se complementa con información comercial. En España, por el contrario, la Ley Orgánica 5/1985, de 19 de junio, del Régimen Electoral (LOREG), regula el acceso a los datos censales (art. 41.5), permitiendo a los candidatos proclamados obtener una copia del censo del distrito en un formato que admita tratamientos informáticos[2].
Desde el punto de vista de la protección de datos, la utilización de información pública no supone excesivos problemas, si bien no son extraños los conflictos durante el período electoral, como recuerda García Mahamut (2015: 314), aunque, al considerarse tratamiento de datos, se somete a los principios generales del RGPD y resto de regulación aplicable. Por otra parte, el acceso a este tipo de datos no aporta ninguna ventaja comparativa, puesto que todos los partidos, teóricamente, podrían tener acceso a ellos. En el caso de España, esto se debe a que la regulación electoral responde a un modelo de igualdad de oportunidades (Sánchez Muñoz, 2007: 23).
Distinto es el caso del enriquecimiento posterior de esos datos, bien se haga mediando cesión de los propios electores, bien recurriendo a empresas dedicadas a la intermediación en el mercado de datos. Aquí no es baladí señalar que, si el proceso deriva en tratamientos ilegales, las autoridades nacionales están habilitadas para imponer las sanciones correspondientes.
Ante la popularidad de las técnicas de big data, este proceso de recopilación y enriquecimiento de datos ha alcanzado niveles sin precedentes[3], con un elevado riesgo de vulneración de las regulaciones de protección de datos. En el caso de campañas como las de Cambridge Analytica, por la obtención ilegítima de datos no estructurados de Facebook, como demostraron las investigaciones desarrolladas en distintas jurisdicciones.
Esto, cabe señalar, fue también consecuencia de la ineficacia y vulnerabilidad del
modelo de autorregulación defendido por los operadores dominantes del mercado de datos Cabe dejar constancia de que, cuando hablamos de autorregulación, no queremos referir
que no exista normativa vinculante aplicable. Como es bien sabido, existe, tanto en
Europa como en Estados Unidos. No obstante, junto con esta coexisten modelos internos
de autorregulación que voluntariamente se imponen las empresas, dentro de los que
es habitual contemplar ciertas cláusulas de apertura de acceso a los datos para fines
de interés público o social, como es el caso de investigación científica.
No obstante, para sortear estas restricciones, a Cambridge Analytica le fue suficiente con recurrir a medidas de elusión de escasa complejidad. Para tales fines, le bastó con explotar abusivamente las cláusulas de apertura de datos cedidos con fines de investigación científica.
En el caso de las presidenciales americanas, recurrió a una empresa intermediaria especializada en estudios de mercado online (Qualtrics), que ofreció una pequeña retribución a usuarios a cambio de completar cuestionarios de personalidad vinculados al test OCEAN. Los participantes eran informados de que serían parte de un estudio científico, y debían acceder a los cuestionarios identificándose con sus cuentas de Facebook. Una vez que accedían se exigía el consentimiento para un tratamiento amplísimo de los datos, incluyendo los datos de su red de contactos. Con este ardid, consiguieron dos objetivos. Por una parte, generaron una base de datos con información psicográfica para hacer el perfilado ideológico, y, por otro, crearon un «semillero», que permitió escalar el número de puntos de información desde las poco más de 200 000 personas que respondieron a los cuestionarios hasta los 30 millones de usuarios.
Poca argumentación exige señalar que esta estratagema supuso una meridiana vulneración de la normativa de protección de datos con independencia del prisma jurisdiccional con el que se enfoque. Por tanto, conviene recordar que estamos ante un supuesto patológico que, si bien invita a tomar medidas regulatorias para aquilatar el marco normativo, no debe tomarse como el estándar habitual del proceso de recolección de datos en las contiendas electorales europeas, ni el paradigma que justifique una estridente y obturante regulación.
La siguiente fase se centra directamente en el tratamiento de los datos. Supone utilizar la base de datos para construir un modelo de predicción del comportamiento y preferencias políticas de los electores, extrayendo inferencias a partir de los datos recopilados. En esta fase, se busca clasificar o agrupar a los individuos en un punto concreto del espectro político, a partir de características comunes. Para ello se utilizan scores que arrojan una probabilidad, pero que no están exentas de errores (falsos positivos o negativos).
Cabe señalar que el perfilado o segmentación de electores no es especialmente novedoso en el ámbito político. La disrupción de las campañas recientes radica en la predicción de preferencias de voto a partir de modelos estadísticos mucho más complejos. No se excluyen modelos estadísticos generalizados, pero se complementan con técnicas y algoritmos, como el clustering, que permite afinar clasificaciones a partir de características no evidentes, resultado de poder algorítmico.
Parte de la información de los electores se puede inferir de su huella digital, especialmente
de datos depositados en redes sociales (likes en Facebook, retuits de Twitter, etc.), pero también de informaciones más asépticas
que pueden correlacionarse con preferencias políticas mediante la construcción de
modelos complejos. Es decir, a partir de manifestaciones sin inmediato contenido político
sería posible extraer información latente, correlacionarla con la de usuarios de características
similares, e inferir preferencias de naturaleza política o el espectro político con
el que más simpatizan (
Por otra parte, retomando el caso de Cambridge Analytica, un aspecto que merece mención
es la incorporación en su modelo predictivo de técnicas psicográficas. Estos análisis
parten de una aproximación psicológica de la personalidad a partir del test OCEAN
Ahora, aunque la psicografía se vale de fundamentos y conceptos asentados de la psicología, es ante todo una técnica de segmentación de mercados implementada en el campo del marketing. Su fin es analizar estos rasgos de la personalidad, para, posteriormente, enriquecerlos con puntos de información que reflejen estilos de vida y valores. Se pretende entender las razones que motivan a los consumidores a adquirir determinados productos o servicios, así como los mecanismos que desencadenan estas decisiones. Por tanto, resulta tan importante identificar y segmentar a los consumidores o usuarios como diseñar un mensaje que apele a rasgos de personalidad que les movilicen.
Bajo este prisma, y en lo que a nosotros refiere, las decisiones de voto de los ciudadanos podrían teóricamente correlacionarse con su estilo de vida, valores y ciertos rasgos de personalidad, y utilizarse para persuadir el sentido de su voto. Su efectividad radicaría en valerse de los rasgos predominantes de la personalidad para persuadir a grupos de ciudadanos mediante mensajes microsegmentados que activen su mecanismo de decisión electoral.
Ahora bien, hay que señalar que el método que subyace a este proceso de perfilado
nace de la propia red social, que desarrolló y patentó una metodología predictiva
basada en las interacciones de sus usuarios Véase patente US8825764B2, Determining user personality characteristics from social
networking system communications and characteristics.
Como se señaló, del proceso de recopilación de datos se obtenían los resultados de los test psicológicos de 200 000 voluntarios, y la información de Facebook para enriquecer los datos psicográficos y desarrollar su modelo predictivo. De los terceros que formaban parte de la red de contactos de los voluntarios obtenían datos de identificación, demográficos, y, más importante aún, información para realizar inferencias psicográficas, como likes de mensajes, personajes públicos, marcas o programas de televisión de interés.
El modelo predictivo correlacionaba rasgos de personalidad e inclinaciones políticas, extrayendo scores de personalidad vinculadas a los denominados cinco grandes. Con base en estas scores de personalidad, se procedía a su agrupación y microsegmentación, y se decidía sobre su intervención en la fase siguiente del proceso.
Obtenido el perfilado ideológico, se procede a la intervención. En esta fase, se diseñan mensajes que se adapten a las preocupaciones o rasgos dominantes, y se envían mensajes —teóricamente— muy afinados para influir en los electores. Estos mensajes estarían vinculados a temas de especial interés o preocupación para cada nicho específico. Resulta obvio señalar que aquí jugará un papel importante el contexto político y social, así como las limitaciones que impongan las regulaciones electorales.
Ahora bien, realizar microtargeting para grupos electorales no es novedoso. No obstante, realizar el proceso de perfilado correlacionando scores de personalidad obtenidas a partir de información extremadamente heterogénea, obtenida ilegítimamente con total desprecio a las restricciones del modelo autorregulador de Facebook y las normativas occidentales de protección de datos, con el fin de enviar mensajes microsegmentados que se han calificado como desinformación descarnada y sistemática, parece ser mérito atribuible a Cambridge Analytica.
En este sentido, una vez identificados y microsegmentados los votantes, se seleccionaban temas por los que mostraran especial sensibilidad (inmigración, control de armas, sanidad, etc.). Se diseñaban mensajes que encajaran con los rasgos de personalidad predominantes y se enviaban a través de Facebook, en no pocas ocasiones mediante los denominados dark post. Este tipo de publicaciones permanecían ocultas para el resto de usuarios no segmentados, y no se registraban en las páginas de Facebook de los anunciantes, por lo que se minimizaba la transparencia, así como cualquier posibilidad de debatir acerca de su veracidad.
Respecto a la aplicación de técnicas psicográficas en el diseño de mensajes, algunas pistas pueden rastrearse en internet. El quid radicaría en identificar rasgos de personalidad dominantes o extremos, que inclinaran o activaran el proceso de decisión electoral. Recogiendo la explicación del director general de CA, Alexander Nix, los perfiles con elevado grado de neuroticismo y responsabilidad responderían mejor a mensajes racionales que exploten el miedo. Aquellos con un bajo factor O (apertura a nuevas experiencias), pero elevado factor A (amabilidad), serían más receptivos a mensajes centrados en la familia y en las tradiciones. Así, para promover el derecho a poseer armas —tema central de las campañas norteamericanas—, en el primer caso, el mensaje se centraría en la imagen de un criminal irrumpiendo en la propiedad de un ciudadano y la protección que ofrecen para defender a su familia. En el segundo caso, el mensaje buscaría explotar la tradición —arraigada en algunos países— de los padres que enseñan a sus hijos a disparar desde edades tempranas, considerándolo un medio para transmitir valores relacionados con la libertad o la disciplina.
Finalmente, en el marco de algunos procesos electorales también se llevaron a cabo campañas de desinformación. No obstante, parece razonable sostener que ambos procesos no están ni deben considerarse, necesariamente, relacionados. Esto es, pueden utilizarse mensajes con información cierta diseñados a partir de la explotación de rasgos de personalidad para mejorar su efectividad y contribuir a diluir la ola de permanente infoxicación a la que estamos sometidos. También pueden ser resultado de estrategias dirigidas a manipular la información que reciben los usuarios y poner en riesgo el funcionamiento de la sociedad democrática. Ambos fenómenos no deben confundirse, y su tratamiento jurídico debe ser independiente.
Como es sabido, la protección de datos está sometida a una doble regulación. Por una parte, el Reglamento General de Protección de Datos (RGPD), que configura el marco común a nivel comunitario, y la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de los Derechos Digitales (LOPDGDD), con eficacia interna. Como ha recordado el TC, en la Sentencia 76/2019, de 22 de mayo, ambas «configuran conjuntamente, de forma directa o supletoria, el desarrollo del derecho fundamental a la protección de datos que exigen los arts. 18.4 y 81.1 CE» (FJ 3).
La regulación del perfilado ideológico no está exenta de esta dinámica normativa.
Poco cabe añadir respecto a la eficacia directa del Reglamento General de Protección
de Datos, o las interacciones entre ambos dispositivos, aspectos que exceden los objetivos
de este trabajo Sobre esto, véase, entre otros, García Mahamut (
La norma comunitaria no reguló de manera exhaustiva el perfilado ideológico, aunque sí estableció el marco general del perfilado. Tampoco lo prohibió expresamente, y dejó en manos del legislador interno determinar si esta figura exigía un marco específico, así como las condiciones admisibles para su aplicación. El RGPD se encargó, principalmente, de lo referente a la exigencia de base jurídica para la recopilación y tratamiento, y de resolver ausencias normativas internas.
Dicho esto, y como punto de partida, la recopilación y tratamiento de datos personales
por partidos, asociaciones políticas y similares está sujeta a la normativa comunitaria Así lo ha señalado claramente la propia Comisión Europea ( No obstante, Hoffmann-Riem (
El perfilado y la microsegmentación electoral encajan en esta definición, y alcanza
también —al menos, desde nuestra opinión— la información inferida acerca de preferencias
políticas recurriendo a técnicas de analítica avanzada (e. g., machine learning o deep learning). Además, esta actividad supone recopilación y tratamiento de datos de categorías
especiales Sobre el concepto y significado de estas categorías, véase, entre otros, Rebollo
Delgado (
Cabe enfatizar que el reglamento comunitario no proscribe la recopilación ni el tratamiento
de datos personales de naturaleza política realizados por partidos o asociaciones
políticas, aunque los somete a un régimen particular que extrema las salvaguardas
y garantías. En este sentido, establece una excepción a la prohibición general de
tratamiento de datos de categorías especiales (considerando 56 RGPD), pero que vincula
a una necesidad exigible para el funcionamiento del sistema democrático, sujeta, además,
a autorización normativa de los Estados miembros La excepción se justifica por el legislador comunitario en la concurrencia de un
interés público que legitima suficientemente su tratamiento. En este sentido, informe
N/Ref 210070/2018, Gabinete Jurídico de la Agencia Española de Protección de Datos,
p. 6.
El refuerzo garantista también se refleja en la aplicación más estricta del marco
normativo general y su interpretación restrictiva. Así ocurre, por ejemplo, respecto
a la aplicación de principios como el de limitación en la finalidad, que acota los
usos ulteriores y, además, eleva el examen del estándar de compatibilidad Esta es la interpretación del Supervisor Comunitario, según se extrae del Dictamen
03/2013, p. 25, del Grupo de Trabajo del artículo 29, asumido por el Supervisor Europeo
de Protección de Datos. Misma conclusión deriva, por otra parte, del análisis sistemático
del RGPD, que solo admite su tratamiento excepcional.
Por otra parte, la recopilación y el tratamiento deben radicarse necesariamente en
una base jurídica legítima que respete los principios de necesidad y proporcionalidad Como es sabido, la construcción del derecho a la protección de datos en conexión
con el derecho a la privacidad se cimienta sobre la inadmisión de interferencias salvo
que sean exigidas por la ley o se consideren necesarias en el marco de una sociedad
democrática. Esto dio pie a la exigencia de base jurídica para el tratamiento de los
datos, que actualmente recoge en el art. 6 del RGPD. Han abordado este aspecto desde
diversas perspectivas, entre otros, Lucas Murillo (
En relación con el consentimiento El WP29 ha recogido las directrices para interpretar el alcance y limitaciones del
consentimiento. Véase Grupo de trabajo del artículo 29, Directrices sobre el consentimiento
en el sentido del Reglamento (UE) 2016/679, versión del 10 de abril de 2018 (reconocidas
y asumidas posteriormente por el Comité Europeo de Protección de Datos, EDPB).
Entendemos que el rechazo a levantar la prohibición obedece a que hacerlo supondría
introducir riesgos excesivos para los afectados del tratamiento. También porque podrían
derivarse problemas de legitimidad o incluso llegar a cuestionarse si el consentimiento
se ha otorgado libremente, como exige el art. 7.4 RGPD. Tal sería el caso si el tratamiento
excediera los datos necesarios, especialmente en supuestos de tratamientos realizados
por intermediarios Nuevamente, aunque no es el objeto específico de este trabajo, este aspecto podría
predicarse y debe ser objeto de análisis en la futura normativa comunitaria que regule
a los intermediarios y plataformas digitales.
Como hemos señalado, la base jurídica admisible para que el legislador orgánico regulara el perfilado ideológico solo podría justificarse en la existencia de una misión de interés público. Esta base jurídica la recoge el art. 9.2.g RGPD. El interés público al que hace referencia ha de conectarse con la previsión del considerando 56 del propio Reglamento, esto es, el funcionamiento del Estado democrático puede exigir que se recopilen y traten datos relacionados con opiniones políticas, aunque sujetos a restricciones y salvaguardas.
Lo dicho exige, por una parte, la mediación de una norma jurídica que concrete las
circunstancias y justificaciones del interés público invocado ( Algunos de estos aspectos se abordan en epígrafes siguientes, por lo que en este
momento daremos cobertura solo a algunos de ellos.
La justificación de lo que podría considerarse necesario para el «funcionamiento del
sistema democrático» se relaciona con la identificación y formación de la voluntad
popular (
Temporalmente se circunscriben a las actividades electorales mediante actos de campaña
electorales dirigidos a la captación de votos, y en el período habilitado a tales
efectos en aplicación de la LOREG. Respecto a esto último, cabe recordar, con García
Mahamut ( La reforma se introdujo durante la tramitación parlamentaria, mediante la enmienda
331 propuesta por el Partido Socialista, y generó un gran revuelo entre algunos partidos
políticos y medios de comunicación.
Aunque la propuesta recogía como motivación evitar casos como el de Cambridge Analytica, la redacción inicial legitimaba ampliamente el tratamiento de opiniones políticas por parte de los partidos. Además, admitía la elaboración sistemática y exhaustiva de perfiles electorales, así como el envío de propaganda mediante microsegmentación. Debido a que la propuesta soliviantó a parte de los grupos políticos de la Cámara, así como a la opinión pública, fue edulcorada recogiéndose en los términos del art. 58.bis de la LOREG. No obstante, la redacción final de manera excesivamente laxa consideraba amparada en interés público la recopilación y tratamiento de cualesquiera datos relativos a opiniones políticas realizadas por partidos políticos siempre que se hiciera en el marco de actividades electorales (art. 58.bis.1).
Una vez aprobada, el artículo fue objeto de recurso de inconstitucionalidad promovido por el Defensor del Pueblo. Los argumentos del recurrente se centraron especialmente en que las técnicas de perfilado o microtargeting plantean riesgos ineludibles. En propias palabras del defensor, «la posibilidad, o más bien la certeza como acredita el todavía reciente asunto de Cambridge Analytica, de la utilización de estas técnicas para modular, cuando no manipular, opiniones políticas evidencia la necesidad de que las garantías normativas y las limitaciones legales sean contundentes, precisas y efectivas» (recurso del Defensor del Pueblo, FJ 1).
Pese a lo que comentaremos posteriormente, compartimos la preocupación del alto comisionado de las Cortes, así como la apremiante necesidad de un marco regulatorio efectivo, aunque ajustándolo a las posibilidades reales de la tecnología, que alcance a todos los actores responsables y sin obturar su desarrollo irrazonablemente.
El recurso sostiene, entre otros argumentos, la vulneración del contenido esencial del derecho a la protección de datos personales (art. 18.4), en conexión con el derecho a la libertad ideológica (art. 16) y el derecho a la participación política (art. 23.1), debido a que el legislador nacional hacía referencias a la recopilación de datos sujetos a garantías adecuadas, pero con dejación de la mínima concreción exigida por la doctrina pacífica y lineal del Tribunal Constitucional. La ausencia de desarrollo supondría la vulneración del contenido esencial del derecho a la protección de datos, y las exigencias propias de la reserva de ley, al estar constreñido un derecho fundamental.
Para el Defensor, la libertad ideológica también se vería vulnerada, dado que el perfilado puede suponer la inferencia de preferencias políticas. De ahí que considerara que la norma lo afectaba en su vertiente negativa (FJ 5); y un razonamiento similar mantiene respecto al art. 23 CE. La participación política deriva en la elección libre de los representantes de los electores, y esta libre elección «difícilmente puede darse en el entorno tecnológico en el que las modernas técnicas de análisis de conducta sobre la base del tratamiento masivo de datos y la inteligencia artificial permiten procedimientos complejos orientados a modificar, forzar o desviar la voluntad de los electores y sin que estos sean conscientes de ello» (FJ 6). Este cambio tecnológico, por tanto, justificaría modificar la doctrina restrictiva del Tribunal acerca de la manipulación electoral, y declarar la inconstitucionalidad de la norma, al afectar en su vertiente negativa el derecho a la participación política.
Aunque discrepamos con parte de los razonamientos sostenidos por el Defensor del Pueblo, que admiten ciertas matizaciones, no cabe duda de que las razones son de suficiente gravedad para ameritar su revisión por el máximo tribunal, que admitió el recurso a trámite y lo resolvió declarando la inconstitucionalidad parcial de la norma.
El alto tribunal centró la controversia en liza en la vulneración del derecho fundamental a la protección de datos personales y en la reserva de ley, ante la renuncia del legislador a completar el marco normativo.
Entendemos que, por exceder su misión, el Tribunal no se pronuncia sobre la legalidad del perfilado ideológico o la microsegmentación, como tampoco lo hace respecto a las garantías adecuadas para dar cumplimiento al canon de constitucionalidad. Tampoco se pronuncia completamente acerca de las justificaciones admisibles en atención a la especial posición de los partidos políticos, que tanto la CE como la propia la doctrina del TC reconocen.
Se trata de cuestiones que merecen cierta atención, y respecto a las que realizaremos algunas reflexiones en los apartados siguientes.
La admisibilidad del perfilado ideológico exige el análisis de algunas aristas. Así, debemos reflexionar acerca de justificaciones que pudieran resistir el canon de constitucionalidad, sin descuidar la peculiaridad de los partidos políticos, a los que la propia Constitución encarga funciones vinculadas al correcto funcionamiento del sistema democrático.
Por otra parte, la restricción del derecho fundamental a la protección de datos exige la intermediación de fines particulares de entidad suficiente. En este sentido, la STC 76/2019, de 22 de mayo, constata como la dejación del legislador impidió examen alguno de constitucionalidad sobre este aspecto. Pero también hay que considerar entre las coordenadas de valoración que el Tribunal no rechaza expresamente, ni de la letra o sentido de la sentencia puede extraerse una prohibición absoluta del perfilado ideológico. Más aún para el Tribunal, la sentencia no puede llevar a sospechar que una restricción del derecho a la protección de datos como la analizada persiga una finalidad per se inconstitucional, o que la recopilación y el tratamiento de los datos con contenido político supongan siempre una lesión de los derechos de los particulares (FJ 7).
De ahí que exista margen para reflexionar sobre el papel y los riesgos del perfilado y la microsegmentación de mensajes, aparejándolos a las funciones que corresponden a los partidos en el marco del Estado democrático.
La regulación de los partidos políticos, así como el especial papel que atribuye la
propia constitución en su art. 6, ha sido objeto de estudio por la doctrina ( Sobre el surgimiento y significado de esta construcción, véase García-Pelayo (
La jurisprudencia del Tribunal Constitucional reconoce su especial relevancia constitucional
(STC 18/1984, de 7 de febrero, FJ 3), que asimila a una cierta función pública a la
que anuda no solo limitaciones, sino también determinados privilegios (STC 3/1981,
de 2 de febrero, FJ 2). Estas funciones, de clara trascendencia política, las apuntala
con el máximo rango el art. 6 CE: expresión del pluralismo político, concurrencia
en la formación y manifestación de la voluntad popular, e instrumento de participación
política, en perfecta sintonía con las que recoge el Consejo de Europa y la Comisión
de Venecia Al respecto, OSCE/ODIHR y Comisión de Venecia, Guidelines On Political Party Regulation (2010), apdo. 10.
La proyección práctica y trascendental de estas funciones en el ejercicio democrático
fue tempranamente recogida por la mejor doctrina. Como señala García-Pelayo (
En este sentido, ejercen un importante rol de movilización del electorado (Blais, 2008: 17-21), que puede encontrar conexión con el perfilado ideológico. Desde esta perspectiva, la microsegmentación electoral puede resultar positiva para el sistema democrático en la medida que incrementaría la competencia electoral, estimulando, a la vez, la participación electoral, o, al menos, contribuyendo a reducir la apatía de los votantes. Encontramos aquí una primera justificación que apoyaría la admisión del perfilado ideológico, siempre sujeta a garantías adecuadas, como exige la jurisprudencia del TC y el Tribunal de Estrasburgo.
Por otra parte, la racionalidad democrática exige que los electores dispongan de información
para ejercer el derecho al sufragio activo. Aunque los efectos de la comunicación
política en el voto se siguen discutiendo, en las democracias occidentales se espera
que los partidos políticos contribuyan con los medios de comunicación a poner en disposición
de los electores información sobre los asuntos públicos, así como su oferta de soluciones
o alternativas legítimas. En el mercado político de ideas, a los partidos corresponde
simplificar los complejos problemas sociales y exponerlos a la población, aunque,
generalmente, los orienten hacia su electorado preponderante (
Un aspecto más rico en matices, y que requiere mayor reflexión, es el atinente a la microsegmentación de mensajes. De partida, asumimos que esta microsegmentación no debe per se considerarse siempre perniciosa para la democracia, a pesar de que el discurso generalizado haya recalado en señalar algunos efectos perversos que, como es obvio, no desdeñamos. No obstante, desde una perspectiva objetiva, la segmentación de votantes y, en consecuencia, el envío de mensajes ajustados a sus intereses en un entorno de extremo ruido mediático pueden ofrecer algunas ventajas cuya utilidad puede valorarse con miras a aquilatar el siempre criticado sistema democrático, así como el rol de medios de comunicación y partidos políticos en la transmisión de información valiosa para los electores. Esta información puede servir de acicate para movilizar a los votantes, para informarles acerca de sus preferencias electorales y programas de los partidos, y, en consecuencia, para tomar decisiones electorales informadas.
Desde esta perspectiva, la microsegmentación de los mensajes puede amplificar efectos
positivos (
Aunado a esto, la microsegmentación puede suponer una ventaja para ganar en diversidad
en el mercado electoral de ideas (
Por tanto, la microsegmentación acompasando las legítimas funciones de los partidos políticos vertería ventajas para el proceso democrático y contribuiría también a facilitar la información a la que acceden los electores en el mercado de las ideas, y, en último término, fomentaría la pluralidad y el diálogo democrático.
En sentido opuesto, no obstante, deben reconocerse las posibles patologías que se
le asocian y que no resultan fútiles. Así, en primer lugar, el microtargeting puede contribuir a la manipulación electoral La Comisión Europea ha expresado esta preocupación, especialmente mediante el uso
de publicidad segmentada que aproveche las vulnerabilidades de los individuos. Véase,
Free and Fair Elections. Commission Guidance on the Application of Union Data Protection
Law in the Electoral Context. COM (2018) 638 final, p. 8.
Por otra parte, plantea el riesgo de agudizar infrarrepresentaciones existentes Ha alertado sobre las nuevas tecnologías y los riesgos de la infra- y sobrerrepresentación
Cotino Hueso ( Así, Kreiss (
Finalmente, la microsegmentación de mensajes también puede generar desinformación,
polarización del electorado o propagación de discursos contrarios a los valores democráticos.
La desinformación, como ha destacado la Comisión Europea, no solo promueve ideas radicales
o extremistas, sino que erosiona la confianza de los ciudadanos en las instituciones
y en los medios de comunicación, perjudicando en el camino la democracia, al obstaculizar
su capacidad de tomar decisiones informadas Así lo ha destacado la Comunicación de la Comisión Europea, COM (
No obstante, desde el plano regulatorio, cabe destacar que el problema de la manipulación
y la desinformación no se agota en la protección de datos Esta es la conclusión del Supervisor Europeo de Protección de Datos. EDPS, Opinion
3/2018, pp. 13-17. También la de los relatores especiales sobre libertad de expresión
de Naciones Unidas y los sistemas regionales de protección de derechos humanos, que
han abogado por incorporar un enfoque basado en derechos humanos. Véase la Declaración
conjunta sobre libertad de expresión y noticias falsas, desinformación y propaganda
de la ONU, OSCE, CIDH y la Comisión Africana de Derechos Humanos, de 3 de marzo de
2017. La misma opinión comparte el Grupo de Alto Nivel de la Comisión Europea sobre
fake news y desinformación online en su informe A multi-dimensional approach to disinformation, de 12 de marzo de 2018.
Esta es también la opinión que sostiene la Declaración conjunta sobre libertad de
expresión y noticias falsas, ya citada, apdo. 3.b.
En resumen, el microtargeting puede reforzar la movilización electoral y facilitar que los electores tomen decisiones
informadas Cómo señalara Madison, el derecho a elegir a los miembros del Gobierno constituye
la esencia de un Gobierno libre y responsable. El valor y eficacia de este derecho
depende del conocimiento acerca de los méritos y deméritos de los candidatos, y la
posibilidad de discutir acerca de ellos, en igualdad de condiciones.
Es decir, los algoritmos estarían dirigiendo y filtrando la información que los usuarios
recibimos con el objetivo de ajustarla a nuestros gustos o perfiles, actuando como
una suerte de editores encubiertos que pueden condicionar nuestra percepción de la
realidad. Sobre el filtro burbuja o burbujas de información, véase Pariser (
Aunque nos veamos inclinados a proponer la regulación del perfilado ideológico, bajo
la sujeción de garantías como las que comentaremos posteriormente, la valoración última
de sus riesgos y ventajas corresponde al legislador, como depositario de la voluntad
popular, que debe aquilatarlo eligiendo, además, entre un modelo en el que preponderen,
bien la neutralidad del Estado y la menor interferencia sobre el mercado de ideas,
bien la democracia militante, que no es extraña a la tradición europea y se ha ensayado
en otros ámbitos con los que existen ciertos puntos de conexión Sobre estos modelos y su aplicación al discurso del odio, véase Alcacer Guirao (
El Tribunal Constitucional ha establecido que, incluso ante supuestos de recopilación y tratamiento que cuenten con base jurídica y cobijo en fines legítimos, es menester la mediación de garantías adecuadas que reduzcan o mitiguen los efectos intrusivos sobre el derecho a la protección de datos. La presencia de estas garantías, que derivan del Convenio 108, como depositario común de los valores fundamentales de los miembros del Consejo de Europa (STC 254/1993, de 20 de julio, FJ 4), son requisito necesario para la adecuada protección del derecho y su reconocimiento e identidad constitucional (STC 292/2000, de 30 de noviembre, FJ 10). Su no previsión o adopción equivale llanamente a la vulneración del derecho (STC 143/1994, de 9 de mayo de 1994, FJ 7), al constituir una injerencia, de similar gravedad a la que causarían intromisiones ilegítimas en su contenido esencial (STC 76/2019, de 22 de mayo, FJ 6).
La propia sentencia del Tribunal Constitucional relativa al perfilado ideológico dibuja las líneas que debe atender el legislador a efectos de no vulnerar la reserva de ley. Aunque reconoce que la solución que adopte el legislador no sería definitiva, y parece admitir la incorporación de una cláusula de adaptación para responder a riesgos no previsibles, recoge algunos lineamientos aplicables a todos los supuestos. A efectos de nuestro estudio, solo nos resulta de especial interés hacer referencia a la naturaleza de los datos, por una parte, y, por otra, abordar —así sea someramente— posibles medidas que, al menos a título ejemplificativo o especulativo, pudieran conjurar riesgos de abusos o el ilícito tratamiento que preocupan al alto tribunal, en atención a que estamos ante un supuesto que podría derivar en tratamientos a gran escala de categorías especiales de datos, así como un riesgo importante para los derechos fundamentales.
Respecto a lo primero, el perfilado y la microsegmentación electorales llevan de suyo el tratamiento de datos que el RGPD califica como categorías especiales, y que exige cautelas y salvaguardas adicionales de conformidad con su art. 9. Precisan adoptar un estándar de protección más elevado, puesto que comprenden datos especialmente sensibles para los afectados, y cuyo tratamiento podría suponer un riesgo para sus derechos y libertades fundamentales (considerando 50 RGPD). Se incluyen, entre otros, datos que revelen el origen étnico o racial, convicciones religiosas o filosóficas, opiniones políticas o de afiliación sindical, datos relativos a la salud, y aquellos relativos a orientaciones sexuales.
Al perfilado ideológico le son inherentes la recopilación y el tratamiento de datos de naturaleza política, bien sea por registrar manifestaciones directas de los electores, bien por obtenerlos mediante las problemáticas técnicas de machine learning o deep learning, que permiten extraer inferencias acerca de inclinaciones políticas. En cualquier caso, la consecuencia es la misma, la obligación de recoger medidas que supongan un plus de protección, dada la gravedad de los riesgos y afectaciones ante tratamientos ilegítimos.
La cuestión se centra, por tanto, en la adecuación de las medidas y salvaguardas, que debía establecer a modo de muro de contención el legislador nacional, tal como exige el RGPD para los Estados que hagan uso del margen de apreciación recogido en el art. 9.2.g al levantar la prohibición de tratamiento de categorías especiales.
Como hemos mencionado, la reforma de la LOREG no se detuvo a dar cumplimiento a este
extremo, lo que dio pie al Tribunal Constitucional para declarar la inconstitucionalidad
del art. 58.bis.1. No obstante, el regulador español de protección de datos se pronunció
sobre las salvaguardas admisibles en la Circular 1/2019, que está en sintonía con
la interpretación sistemática del RGPD, y, en particular, de las exigencias del art. 9.2.g.
También se pueden extraer criterios y algunas medidas del Código de Buenas Prácticas para Proyectos Big Data (
Así pues, y con ánimo meramente propositivo, sujeto a los límites que admite este
trabajo, las mínimas medidas exigibles deberían partir de incorporar la privacidad
desde el diseño, ya recogido por el art. 25 RGPD. Este principio se traduce en una
serie de prácticas dirigidas a todos los participantes en la recopilación y tratamiento
de los datos, que, en definitiva, reducirían los riesgos para la privacidad y la consecuente
vulneración del derecho a la protección de datos El principio exige que se adopten medidas preventivas y no meramente reactivas, anticipándose
a las pérdidas de privacidad. Además, exige, entre otros, que la protección de la
privacidad esté embebida en el diseño, y no se considere un añadido más que afecte
a la funcionalidad de los modelos. Finalmente, exige considerar la primacía de la
privacidad del usuario, así como adoptar una política de transparencia que facilite
el ejercicio de derechos de los afectados (
Más allá de lo previsto por el regulador nacional (pseudonimización, agregación, etc.),
puede acudirse también a la división de controles de seguridad que se han depurado
en las ciencias informáticas y recoge, entre otras, la norma ISO 27002. Esta alude
a controles de carácter físico (para, e. g., evitar el acceso indiscriminado a dispositivos con información sensible), o controles
de carácter técnico, que admiten un nutrido grupo de técnicas como el encriptado,
el uso de tarjetas inteligentes, listas de control, etc. También contribuirían a aquilatar
la protección de los datos y la reducción de riesgos, medidas relacionadas con la
seguridad lógica de los dispositivos y la información sensible, dentro de lo que podrían
incluirse, especialmente, aquellas dirigidas a restringir la accesibilidad de la información Aunque no lo establezca la AEPD, consideramos que, a efectos de ser más garantistas,
podría recurrirse a modelos como el de Brewer-Nash, también conocido como modelo de
murallas chinas, que restringen el acceso a la información y ofrecen elevados niveles
de confidencialidad.
Por otra parte, además de las mínimas obligaciones exigibles relacionadas con el nombramiento
de un delegado de protección de datos (art. 37 RGPD) y el registro de actividades
de tratamiento (art. 30 RGPD), sería imprescindible exigir la realización de una evaluación
de impacto en la protección de datos, en atención al art. 35 RGPD. En este sentido,
el modelo europeo de protección de datos adopta un enfoque basado en el análisis y
mitigación del riesgo residual que admite la adopción de medidas compensatorias (
Si se obtuvieran datos de terceros, y en atención a casos como los comentados, es razonable exigir garantías adicionales respecto a que los datos utilizados cumplan con la normativa de protección de datos y, en particular, con el principio de licitud, que derivaría en la comprobación de que se cuenta y documenta con una base de legitimación ajustada a derecho. También ejerce una función garantista la suscripción de un contrato, atendiendo las previsiones del art. 28.3 RGPD, en caso de que el tratamiento se externalizara en un encargado de tratamiento.
Una mención, así sea somera, merece el ámbito temporal de aplicación de las medidas. Así, y siguiendo la referida circular de la AEPD, el nombramiento del delegado de protección de datos, la evaluación de impacto, las consultas a las agencias de protección de datos y la suscripción del contrato entre responsables y encargados de tratamiento deberían realizarse antes del comienzo del período electoral. Al iniciarse dicho período, como no podría ser de otra forma, deben extremarse las obligaciones de información y cumplimiento de la normativa de protección de datos. Una vez terminado, deben bloquearse, primero, y suprimirse, después, los datos personales tratados, siguiendo para ello los estándares técnicos más elevados.
Finalmente, aunque el propio RGPD recoge el haz de derechos para garantizar los intereses de los ciudadanos (acceso, oposición, limitación del tratamiento, etc.), su protección también debe extremarse exigiendo a los partidos políticos, o sus intermediarios, instrumentar mecanismos simples y transparentes para su ejercicio. A tales efectos, el refuerzo de las competencias supervisoras y sancionadoras del regulador interno parece aconsejable.
Como fuera señalado, uno de los reclamos habituales de las campañas data-driven y del perfilado ideológico radica en la posibilidad de predecir tendencias políticas y de voto a partir de modelos estadísticos y de datos complejos. También en línea con lo explicado anteriormente, se sostiene que, a partir de la huella digital de los electores, depositada, por ejemplo, en redes sociales, se podrían inferir sus opiniones o preferencias ideológicas.
Estos rastros pueden ser las expresas manifestaciones políticas de los usuarios (likes en Facebook, retuits de Twitter, etc.), pero también informaciones y opiniones asépticas que pudieran correlacionarse con preferencias políticas. Es decir, y esto es el elemento que exige mayores cautelas, a partir de manifestaciones sin inmediato contenido político sería posible extraer información latente, correlacionarla con la de usuarios de características similares, e inferir el espectro político con el que más simpatizan, eludiendo, así, las restricciones del RGPD y la normativa interna respecto a datos de categorías especiales.
No exige una gravosa argumentación sostener la inconstitucionalidad de este tipo de prácticas, más allá de su discutible efectividad y acierto, a la que haremos referencia posteriormente.
Como ha recordado la doctrina ( Cabe señalar que esta conclusión fue sostenida también por el Gabinete Jurídico de
la Agencia Española de Protección de Datos en su informe N/REF: 2100070/2018, apdo.
3.d. Igualmente parece deducirse del referido recurso presentado por el Defensor del
Pueblo (FJ 5).
Los poderes públicos vendrían a ser, bien sujetos pasivos directos de la libertad
ideológica, imposibilitados para vulnerar este derecho fundamental, bien mediato en
caso de que la vulneración provenga de particulares, asumiendo la obligación de tutela.
En cualquier caso, recaen en estos las obligaciones positivas dirigidas a garantizar
el ejercicio del derecho tanto en su vertiente agere licere como en su fuero negativo de no exteriorización (
Es cierto que la prohibición deriva de la propia Constitución y de la jurisprudencia pacífica del TC, y que alcanza también a sujetos de relevancia constitucional, como son los partidos políticos, así como a las relaciones entre particulares sobre los que recae el deber negativo de abstenerse de cualquier actuación que vulnere el art. 16.1 CE (STC 101/1983, de 18 de noviembre, FJ 3), pero es razonable exigir la expresa declaración del legislador, dada la grosera vulneración del ordenamiento constitucional, así como de las restricciones del RGPD. Esta era, por otra parte, la solución que había previsto el art. 5.2 de la Circular 1/2019 de la Agencia Española de Protección de Datos, y que, desde nuestro punto de vista, era menester que el Tribunal proscribiera de manera radical, y debe mantenerse en cualquier propuesta futura como límite absoluto al perfilado ideológico.
Preguntarse acerca de la influencia real de las campañas data-driven y la microsegmentación electoral no resulta estéril a efectos de valorar su admisibilidad por el legislador orgánico o la proporcionalidad de restricciones frente a riesgos o intromisiones sobre los derechos fundamentales.
Un sector de la doctrina ha denunciado una cierta tendencia a sobredimensionar la
influencia de campañas como las de Cambridge Analytica (
Pese a que los medios de comunicación hacen llamativas declaraciones sobre el casi omnipotente poder de empresas y estrategas para manipular el voto de los ciudadanos, lo cierto es que los principios que rigen la construcción de los modelos han sido desarrollados durante décadas, y como todo modelo estadístico complejo, están sujetos a limitaciones.
En este caso, contar con cantidades de información tan elevadas puede dificultar la construcción y acierto del modelo predictivo, no solo porque incrementa los riesgos legales, sino porque genera riesgos de overfitting. La dimensionalidad de los datos, por tanto, debe reducirse, eliminando características o extrayendo las que sean comunes a un grupo de variables, y, en este proceso de expansión y reducción, puede afectarse a la efectividad del modelo construido.
Algo similar puede decirse respecto a la calidad de los datos. A efectos de un modelo
de análisis, no toda información resulta relevante ni aporta utilidad, pese al deseo
de estrategas de recopilar cientos o miles de datos. Los datos comerciales usados
para enriquecer las campañas pueden ser erróneos y, en consecuencia, afectar a los
resultados del modelo predictivo (
A esto hay que sumar, en el contexto europeo, que el exceso de información introduce
nuevos problemas legales ante la previsible vulneración de los principios de limitación
en los fines y minimización de datos, recogidos por el RGPD (
Es innegable que se deben valorar y conjurar los riesgos tecnológicos a límites admisibles
para la salud del sistema democrático. Pero también es razonable mantener una aproximación
cauta y un tanto escéptica, a partir de todo el conocimiento asentado respecto al
funcionamiento de los modelos predictivos o del comportamiento social. Así, y por
dimensionar lo señalado con un ejemplo, parece más razonable sostener que la información
que aportan las encuestas electorales posee mayor solidez y capacidad predictiva que
la predicha a partir de algunos likes de Facebook obtenidos con metodologías experimentales. A su vez, tampoco es descabellado
señalar que los likes de usuarios directamente relacionados con partidos o tendencias políticas en una red
social (
De cara a valorar el diseño y alcance de la regulación, debe considerarse que, contrario a la extendida creencia del poder de acierto de estos modelos, la predicción que desarrollan sigue siendo probabilística, y, por tanto, sujeta a falsos positivos. El modelo estadístico dará una respuesta, en este caso una score resultado del perfilado ideológico, pero no debe obviarse que no se trata de la única respuesta posible, o que la respuesta se busca a partir de un modelo construido. Esto quiere decir que, si el modelo está incorrectamente construido, se cometieron errores de especificación, o, sin más, está sesgado buscando respuestas predeterminadas, las predicciones simplemente serán erróneas, y su capacidad de influencia, reducida, cuando no nula.
Otro tanto puede decirse respecto a la combinación de estos modelos con técnicas psicográficas.
Se han cuestionado tanto la efectividad del perfilado como su capacidad para influir
en la decisión de los votantes. Incluso Kogan (
Desde nuestra perspectiva, y a efectos de su regulación, debe valorarse lo dicho respecto a la limitada influencia del perfilado ideológico, y no desdeñar los posibles efectos positivos para la propia democracia. Por tanto, consideramos que no debería prohibirse per se su utilización, ni su regulación debe aparejarse, sin más, a la desinformación que plantea matices diferenciados.
En opinión contraria a la mantenida por el Defensor del Pueblo en su recurso de inconstitucionalidad, consideramos razonable sostener que debería valorarse detenidamente si los riesgos del perfilado y la microsegmentación son suficientes para modificar la asentada opinión del Tribunal Constitucional respecto a la excepcionalidad para admitir la posibilidad de que «un mensaje tenga capacidad suficiente para forzar o desviar la voluntad de los electores, dado el carácter íntimo de la decisión del voto» (STC 136/1999, de 20 de julio, FJ 16).
Es incuestionable que el derecho debe reducir o conjurar posibles riesgos, especialmente si colisionan con derechos fundamentales. Sin embargo, su intervención debe ser comedida y meditada, dando cuenta, en primer lugar, de la realidad de las cosas que se pretende regular, identificando los verdaderos riesgos potenciales de aquellos que representan futuribles remotamente realizables o sobredimensionan las posibilidades de la propia técnica con fines discutibles.
La coyuntura actual se asemeja a la de otras revoluciones tecnológicas que afectaron
el concepto de privacidad y los medios de desarrollo de las campañas electorales.
En el siglo xix, Warren y Brandeis (
Estos avances fueron domesticados por la regulación y la sociedad, y la extensión
de sus efectos y riesgos, aquilatados a su justa dimensión Sobre los efectos limitados de los medios de comunicación en las campañas, véase
Crespo Martínez y Moreno Martínez (
[1] |
La investigación que ha dado lugar a estos resultados ha sido impulsada por la Obra Social “la Caixa” y la Fundación Bancaria Caja Navarra, en colaboración con el Centro Asociado a la UNED de Tudela. También se enmarca en el proyecto de investigación «Problemas jurídicos que plantea el uso de Blockchain», Ministerio de Ciencia, Innovación y Universidades, Programa Estatal de I+D+i Orientada a los Retos de la Sociedad, referencia RTI2018-100946-B-10. Agradezco a los revisores sus valiosos comentarios y recomendaciones para mejorar el manuscrito. |
[2] |
Más allá de esto, el derecho español carece de una regulación pormenorizada que afronte la utilización intensiva de datos en las contiendas electorales. El anulado art. 58.1.bis de la LOREG incorporó brevemente a España entre los países que contaban con un modelo de regulación específico. |
[3] |
Se ha sostenido que Cambridge Analytica recopiló miles de datos de enorme heterogeneidad
que incluían historiales de compras online, información de buscadores y, muy especialmente, datos extraídos de Facebook referentes
a 230 millones de personas ( |
[4] |
Cabe dejar constancia de que, cuando hablamos de autorregulación, no queremos referir que no exista normativa vinculante aplicable. Como es bien sabido, existe, tanto en Europa como en Estados Unidos. No obstante, junto con esta coexisten modelos internos de autorregulación que voluntariamente se imponen las empresas, dentro de los que es habitual contemplar ciertas cláusulas de apertura de acceso a los datos para fines de interés público o social, como es el caso de investigación científica. |
[5] |
Sobre el test OCEAN, es canónico el trabajo de McCrae y John ( |
[6] |
Véase patente US8825764B2, Determining user personality characteristics from social networking system communications and characteristics. |
[7] |
Sobre esto, véase, entre otros, García Mahamut ( |
[8] |
Así lo ha señalado claramente la propia Comisión Europea ( |
[9] |
No obstante, Hoffmann-Riem ( |
[10] |
Sobre el concepto y significado de estas categorías, véase, entre otros, Rebollo
Delgado ( |
[11] |
La excepción se justifica por el legislador comunitario en la concurrencia de un interés público que legitima suficientemente su tratamiento. En este sentido, informe N/Ref 210070/2018, Gabinete Jurídico de la Agencia Española de Protección de Datos, p. 6. |
[12] |
Esta es la interpretación del Supervisor Comunitario, según se extrae del Dictamen 03/2013, p. 25, del Grupo de Trabajo del artículo 29, asumido por el Supervisor Europeo de Protección de Datos. Misma conclusión deriva, por otra parte, del análisis sistemático del RGPD, que solo admite su tratamiento excepcional. |
[13] |
Como es sabido, la construcción del derecho a la protección de datos en conexión
con el derecho a la privacidad se cimienta sobre la inadmisión de interferencias salvo
que sean exigidas por la ley o se consideren necesarias en el marco de una sociedad
democrática. Esto dio pie a la exigencia de base jurídica para el tratamiento de los
datos, que actualmente recoge en el art. 6 del RGPD. Han abordado este aspecto desde
diversas perspectivas, entre otros, Lucas Murillo ( |
[14] |
El WP29 ha recogido las directrices para interpretar el alcance y limitaciones del consentimiento. Véase Grupo de trabajo del artículo 29, Directrices sobre el consentimiento en el sentido del Reglamento (UE) 2016/679, versión del 10 de abril de 2018 (reconocidas y asumidas posteriormente por el Comité Europeo de Protección de Datos, EDPB). |
[15] |
Nuevamente, aunque no es el objeto específico de este trabajo, este aspecto podría predicarse y debe ser objeto de análisis en la futura normativa comunitaria que regule a los intermediarios y plataformas digitales. |
[16] |
Algunos de estos aspectos se abordan en epígrafes siguientes, por lo que en este momento daremos cobertura solo a algunos de ellos. |
[17] |
La reforma se introdujo durante la tramitación parlamentaria, mediante la enmienda 331 propuesta por el Partido Socialista, y generó un gran revuelo entre algunos partidos políticos y medios de comunicación. |
[18] |
Sobre el surgimiento y significado de esta construcción, véase García-Pelayo ( |
[19] |
Al respecto, OSCE/ODIHR y Comisión de Venecia, Guidelines On Political Party Regulation (2010), apdo. 10. |
[20] |
La Comisión Europea ha expresado esta preocupación, especialmente mediante el uso de publicidad segmentada que aproveche las vulnerabilidades de los individuos. Véase, Free and Fair Elections. Commission Guidance on the Application of Union Data Protection Law in the Electoral Context. COM (2018) 638 final, p. 8. |
[21] |
Ha alertado sobre las nuevas tecnologías y los riesgos de la infra- y sobrerrepresentación
Cotino Hueso ( |
[22] |
Así, Kreiss ( |
[23] |
Así lo ha destacado la Comunicación de la Comisión Europea, COM ( |
[24] |
Esta es la conclusión del Supervisor Europeo de Protección de Datos. EDPS, Opinion 3/2018, pp. 13-17. También la de los relatores especiales sobre libertad de expresión de Naciones Unidas y los sistemas regionales de protección de derechos humanos, que han abogado por incorporar un enfoque basado en derechos humanos. Véase la Declaración conjunta sobre libertad de expresión y noticias falsas, desinformación y propaganda de la ONU, OSCE, CIDH y la Comisión Africana de Derechos Humanos, de 3 de marzo de 2017. La misma opinión comparte el Grupo de Alto Nivel de la Comisión Europea sobre fake news y desinformación online en su informe A multi-dimensional approach to disinformation, de 12 de marzo de 2018. |
[25] |
Esta es también la opinión que sostiene la Declaración conjunta sobre libertad de expresión y noticias falsas, ya citada, apdo. 3.b. |
[26] |
Cómo señalara Madison, el derecho a elegir a los miembros del Gobierno constituye la esencia de un Gobierno libre y responsable. El valor y eficacia de este derecho depende del conocimiento acerca de los méritos y deméritos de los candidatos, y la posibilidad de discutir acerca de ellos, en igualdad de condiciones. |
[27] |
Es decir, los algoritmos estarían dirigiendo y filtrando la información que los usuarios
recibimos con el objetivo de ajustarla a nuestros gustos o perfiles, actuando como
una suerte de editores encubiertos que pueden condicionar nuestra percepción de la
realidad. Sobre el filtro burbuja o burbujas de información, véase Pariser ( |
[28] |
Sobre estos modelos y su aplicación al discurso del odio, véase Alcacer Guirao ( |
[29] |
El principio exige que se adopten medidas preventivas y no meramente reactivas, anticipándose
a las pérdidas de privacidad. Además, exige, entre otros, que la protección de la
privacidad esté embebida en el diseño, y no se considere un añadido más que afecte
a la funcionalidad de los modelos. Finalmente, exige considerar la primacía de la
privacidad del usuario, así como adoptar una política de transparencia que facilite
el ejercicio de derechos de los afectados ( |
[30] |
Aunque no lo establezca la AEPD, consideramos que, a efectos de ser más garantistas, podría recurrirse a modelos como el de Brewer-Nash, también conocido como modelo de murallas chinas, que restringen el acceso a la información y ofrecen elevados niveles de confidencialidad. |
[31] |
Cabe señalar que esta conclusión fue sostenida también por el Gabinete Jurídico de la Agencia Española de Protección de Datos en su informe N/REF: 2100070/2018, apdo. 3.d. Igualmente parece deducirse del referido recurso presentado por el Defensor del Pueblo (FJ 5). |
[32] |
Sobre los efectos limitados de los medios de comunicación en las campañas, véase
Crespo Martínez y Moreno Martínez ( |
Agencia Española de Protección de Datos. (2017). Código de Buenas Prácticas en Protección de Datos para proyectos Big Data. Agencia Española de Protección de Datos. |
|
Agencia Española de Protección de Datos. (2018). Guía práctica para las evaluaciones de impacto en la protección de los datos sujetas al Reglamento General de Protección de Datos. |
|
Aguado Renedo, C. (2010). La protección de los datos personales ante el Tribunal Constitucional español. Cuestiones Constitucionales. Revista Mexicana de Derecho Constitucional, 23, 3-25. Disponible en: https://doi.org/10.22201/iij.24484881e.2010.23.5929. |
|
Alcacer Guirao, R. (2015). Víctimas y disidentes. El «discurso del odio» en EE. UU. y Europa. Revista Española de Derecho Constitucional, 103, 45-86. |
|
Baldwin-Philippi, J. (2017). The Myths of Data-Driven Campaigning. Political Communication, 34 (4), 627-633. Disponible en: https://doi.org/10.1080/10584609.2017.1372999. |
|
Barocas, S. (2012). The price of precision: Voter microtargeting and its potential harms to the democratic process. En Proceedings of the first edition workshop on Politics, elections and data (pp. 31-36). New York: Association for Computing Machinery. Disponible en: https://doi.org/10.1145/2389661.2389671. |
|
Comisión Europea (2018). 638 Commission Guidance on the application of Union data protection law in the electoral context (pp. 1-13). Contribution to the leaders’ meeting, September 2018. |
|
Cotino Hueso, L. (2011). Tratamiento jurídico y normativo de la democracia, participación y transparencia electrónicas: presente y perspectivas. En J. Barrat, I. Esteve y R. Fernández Rivera (coords.). Derecho de sufragio y participación ciudadana a través de las nuevas tecnologías (pp. 289-315). Cizur Menor: Civitas Thomson Reuters. |
|
Crespo Martínez, I. y Moreno Martínez, C. (2015). Los efectos de la comunicación política en el comportamiento electoral. Revista de Derecho electoral, 20, 76-110. |
|
García Mahamut, R. (2015). Partidos políticos y derecho a la protección de datos en campaña electoral: Tensiones y conflictos en el ordenamiento español. Teoría y Realidad Constitucional, 35, 309-338. Disponible en: https://doi.org/10.5944/trc.35.2015.14921 |
|
García Mahamut, R. (2019). Del Reglamento General de Protección de Datos a la Ley 3/2018, de protección de datos personales y garantías de los derechos digitales. En R. García Mahamut y B. Tomás Ballén (eds.). El Reglamento General de Protección de Datos: Un enfoque nacional y comparado. Especial referencia a la Ley 3/2018 de protección de datos y garantía de los derechos digitales (pp. 95-131). Valencia: Tirant lo Blanch. |
|
García Sanz, R. M. (2019). La difícil relación del instituto de la opinión pública y los procesos de comunicación pública en Internet: La desinformación desafiando las garantías constitucionales. Revista de Derecho Político, 106, 77-104. Disponible en: https://doi.org/10.5944/rdp.106.2019.26148. |
|
García-Pelayo, M. (1986). El Estado de partidos. Madrid: Alianza. |
|
Garriga Domínguez, A. (2009). Tratamiento de datos personales y derechos fundamentales. Madrid: Dykinson. |
|
Gómez Montoro, A. J. (2004). Asociación, Constitución, Ley: sobre el contenido constitucional del derecho de asociación. Madrid: Centro Estudios Políticos y Constitucionales. |
|
Hall Jamieson, K. (2013). Messages, Micro-Targeting, and New Media Technologies. The Forum, 11 (3), 419-435. Disponible en: https://doi.org/10.1515/for-2013-0052. |
|
Hernández Peña, J. C. (2020). Decisiones algorítmicas de perfilado: Régimen y garantías jurídicas. Revista Española de Derecho Administrativo, 203, 281-322. |
|
Hersh, E. (2015). Hacking the Electorate. How Campaigns Perceive Voters. Cambridge: Cambridge University Press. Disponible en: https://doi.org/10.1017/CBO9781316212783. |
|
Hersh, E. (2018). Hearing before the United States Senate. Committee on the Judiciary. Written Testimomy, 16-05-2018. Disponible en: https://bit.ly/3sjDSUi. |
|
Hoffmann-Riem, W. (2018). Big Data: desafíos también para el Derecho. Cizur Menor: Civitas. |
|
Isaak, J. y Hanna, M. J. (2018). User Data Privacy: Facebook, Cambridge Analytica, and Privacy Protection. Computer, 51 (8), 56-59. Disponible en: https://doi.org/10.1109/MC.2018.3191268. |
|
Kogan, A. (2018). Written evidence submitted by Aleksandr Kogan. Text Submitted to The Digital, Culture, Media and Sport Committee of the UK Parliament. Disponible en: https://bit.ly/3AWIL9M. |
|
Kosinski, M., Stillwell, D. y Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences, 110 (15), 5802-5805. Disponible en: https://doi.org/10.1073/pnas.1218772110. |
|
Kreiss, D. (2012). Yes We Can (Profile You): A Brief Primer on Campaigns and Political Data. Stanford Law Review, 64, 70-74. |
|
Kristensen, J. B., Albrechtsen, T., Dahl-Nielsen, E., Jensen, M., Skovrind, M. y Bornakke, T. (2017). Parsimonious data: How a single Facebook like predicts voting behavior in multiparty systems. Plos One, 12 (9), 1-12. Disponible en: https://doi.org/10.1371/journal.pone.0184562. |
|
Lucas Murillo, P. (1990). El derecho a la autodeterminación informativa. Madrid: Tecnos. |
|
Martínez Cuevas, M. D. (2006). Régimen jurídico de los partidos políticos. Madrid: Marcial Pons. |
|
McCrae, R. R. y John, O. P. (1992). An Introduction to the Five-Factor Model and its Applications. Journal of Personality, 60 (2), 175-215. Disponible en: https://doi.org/10.1111/j.1467-6494.1992.tb00970.x. |
|
Morodo Leoncio, R. y Murillo de la Cueva, P. L. (1996). Art. 6. Los partidos políticos. En O. Alzaga Villamil (dir.). Comentarios a la Constitución española de 1978 (pp. 301-389). Madrid: Cortes Generales. |
|
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: The Penguin Press. |
|
Presno Linera, M. A. (2000). Los partidos y las distorsiones jurídicas de la democracia. Madrid: Ariel. |
|
Rebollo Delgado, L. (2010). Origen y fundamento de la protección de datos: Datos especialmente protegidos. En A. Troncoso Reigada (dir.). Comentario a la Ley Orgánica de Protección de Datos de Carácter Personal (pp. 578-597). Cizur Menor: Civitas-Thomson Reuters. |
|
Rollnert Liern, G. (2002). La libertad ideológica en la jurisprudencia del Tribunal Constitucional (1980-2001). Madrid: Centro Estudios Políticos y Constitucionales. |
|
Rubio Núñez, R. (2011). Nuevas tendencias de regulación del uso de las nuevas tecnologías en campaña electoral. En J. Barrat, I. Esteve y R. M. Fernández Rivera. Derecho de sufragio y participación ciudadana a través de las nuevas tecnologías (pp. 313-333). Madrid: Civitas-Thomson Reuters. |
|
Sánchez Muñoz, O. (2007). La igualdad de oportunidades en las campañas electorales. Madrid: Centro Estudios Políticos y Constitucionales. |
|
Serrano Pérez, M. M. (2003). El derecho fundamental a la protección de datos. Derecho español y comparado. Madrid: Civitas. |
|
Sumpter, D. (2018). Outnumbered: From Facebook and Google to fake news and filter-bubbles. The algorithms that control our lives. London: Bloomsbury Sigma. Disponible en: https://doi.org/10.5040/9781472947451. |
|
Supervisor Europeo de Protección de Datos (2018). Opinion 3/2018, European Data Protection Supervisor (pp. 1-31). Opinion on online manipulation and personal data. |
|
Voigt, P. y Von dem Bussche. A. (2017). The EU General Data Protection Regulation. A Practical Guide. Cham: Springer. Disponible en: https://doi.org/10.1007/978-3-319-57959-7. |
|
Warren, S. y Brandeis, L. (1890). The Right to Privacy. Harvard Law Review, 4 (5), 193-220. Disponible en: https://doi.org/10.2307/1321160. |
|
Zuiderveen, B. F., Möller, J., Kruikemeier, S., Ó Fathaigh, R., Irion, K., Dobber, T. y De Vreese, C. (2018). Online Political Microtargeting: Promises and Threats for Democracy. Utrecht Law Review, 14 (1), 82-96. Disponible en: https://doi.org/10.18352/ulr.420. |