En la actualidad, uno de los mayores desafíos para los gobiernos democráticos en todo el mundo es encontrar el punto de equilibrio entre garantizar la seguridad de sus ciudadanos y, al mismo tiempo, evitar vulnerar sus libertades personales más básicas y esenciales, como el derecho a la privacidad. Un ejemplo de esto son las cámaras de videovigilancia con tecnología de reconocimiento biométrico impulsada por inteligencia artificial. Su implementación masiva no ha sido aceptada como algo natural, y mucho menos sin cuestionamientos, ya que su uso plantea dilemas éticos y legales que no pueden ser ignorados.
Las preocupaciones sobre el potencial abuso de poder por parte de los gobiernos, la falta de transparencia en el manejo y almacenamiento de los datos biométricos y el siempre latente riesgo de falibilidad en los algoritmos de verificación han llevado a algunos países y ciudades a aplicar restricciones o prohibiciones en su uso, especialmente en espacios públicos. Así, ciudades como San Francisco, Boston y Portland, en los Estados Unidos, prohíben su uso por parte de fuerzas policiales locales, mientras que en Europa, países como Bélgica y Luxemburgo limitan esta tecnología a circunstancias excepcionales y bajo estricta supervisión judicial.

Incluso la recientemente aprobada Ley de Inteligencia Artificial de la Unión Europea, vigente desde agosto de 2024, prohíbe expresamente la identificación biométrica remota en tiempo real (como el reconocimiento facial) en espacios públicos, salvo en casos concretos, como la prevención de actos terroristas o la búsqueda de delincuentes peligrosos. También prohíbe la creación de bases de datos biométricos mediante recolección indiscriminada de imágenes, enfocándose así en la privacidad de los ciudadanos.
Pese a estas medidas que priorizan la protección de derechos esenciales para la vida democrática, la presentación del plan “ProtectEU” el pasado martes 1 de abril de 2025 por parte de la Comisión Europea, es, al menos, chocante. Se trata de una iniciativa que busca fortalecer la seguridad de los ciudadanos frente a amenazas como el terrorismo, el crimen organizado y ciberataques patrocinados por estados, mediante la modernización y ampliación de las capacidades operativas de agencias como Europol. Entre sus medidas clave, se incluye un “mapa tecnológico sobre cifrado” para 2026, buscando explorar formas de acceder “de manera legal y efectiva a datos” en las plataformas de comunicaciones.

En otras palabras, la Comisión Europea parece estar buscando maneras de debilitar el cifrado de extremo a extremo, la tecnología que asegura que solo el emisor y el receptor puedan leer los mensajes en plataformas como WhatsApp o Signal. La justificación esgrimida por la CE es directa pero controvertida: el acceso a las comunicaciones cifradas es necesario para combatir el crimen. Sin embargo, esta medida, interpretada por muchos como un intento de introducir puertas traseras, amenaza directamente las libertades fundamentales de la ciudadanía que se pretende proteger.
Según Henna Virkkunen, vicepresidenta ejecutiva de la Comisión Europea para la Soberanía Tecnológica, la Seguridad y la Democracia, en casi el 85% de los casos “la policía pierde terreno frente a los delincuentes porque los investigadores no tienen acceso a los datos”. Sin decirlo explícitamente, esta afirmación sugiere una clara intención de facilitar el acceso a comunicaciones privadas mediante puertas traseras, es decir, mecanismos que permitirían a las autoridades -o incluso hackers- descifrar mensajes protegidos por el cifrado de extremo a extremo, como los de WhatsApp. Aunque presentada como una herramienta contra el crimen, esta medida podría comprometer la privacidad y la seguridad de millones de usuarios, al exponer sus conversaciones no solo a posibles abusos por parte de gobiernos, sino también de ciberdelincuentes.

La implementación de ProtectEU no solo es una decisión difícil de entender si el objetivo principal es priorizar la seguridad, sino que tampoco es la única en esa dirección. En febrero de 2025, el Reino Unido ordenó a Apple permitir el acceso a datos cifrados almacenados en iCloud, incluyendo la galería de fotos, de cualquier usuario a nivel mundial que tenga activada la Protección Avanzada de Datos (ADP), una función de seguridad opcional que encripta la información almacenada en la nube.
La empresa de la manzana mordida expresó públicamente su preocupación ante esta medida, ya que no solo amenaza la privacidad de los usuarios sino que además aumenta la vulnerabilidad frente a posibles fugas de información. Sin embargo, Apple eliminó la función ADP para nuevos usuarios en el Reino Unido y anunció que aquellos que la utilizan, eventualmente deberán desactivarla.

En la práctica, esto significa que las copias de respaldo de iCloud ya no tienen el mismo nivel de cifrado, permitiendo a la empresa acceder a esos datos y compartirlos con las autoridades si se les requiere legalmente. Si bien Apple judicializó la orden presentando una apelación ante el Tribunal de Poderes de Investigación del Reino Unido, esta es una batalla legal que recién comienza, y su desenlace podría sentar un importante precedente para la privacidad digital en todo el mundo.
Resulta profundamente irónico que Europa, un continente que lideró la defensa de los derechos humanos fundamentales y consagró la privacidad con el GDPR, esté ahora recorriendo un peligroso camino hacia la vigilancia desmedida, invocando una vez más la seguridad pública para justificar la erosión de libertades esenciales. Si estas políticas se consolidan como modelo, podrían inspirar a gobiernos alrededor del mundo a replicarlas, extendiendo esta amenaza más allá de las fronteras europeas y arriesgando a convertir la privacidad no solo en un lujo del pasado, sino en un privilegio inalcanzable.