Virginia Dignum, Ricardo Vinuesa, Andreas Theodoru y yo escribimos un paper científico, dirigido a gobiernos y tomadores de decisiones, describiendo el marco ético por el cual deben estar ideadas y confeccionadas las aplicaciones de contact-tracing.
En sus esfuerzos por enfrentar la crisis de COVID-19, los tomadores de decisiones están considerando el desarrollo y uso de aplicaciones de teléfonos inteligentes para el rastreo de contactos. Aunque estas aplicaciones difieren en tecnología y métodos, existe una creciente preocupación por sus implicaciones para la privacidad y los derechos humanos. En nuestro paper proponemos un marco para evaluar su idoneidad en términos de impacto en los usuarios, la tecnología empleada y los métodos de gobernanza. Ilustramos su uso con tres aplicaciones y con las pautas de la Junta Europea de Protección de Datos (EDPB), destacando sus limitaciones.
En todo el mundo, los políticos y expertos en salud pública están pidiendo el uso de aplicaciones de rastreo de contactos como un medio para combatir COVID-19.
El objetivo es rastrear a quienes entran en contacto con personas infectadas con la ayuda de aplicaciones de teléfonos inteligentes (referidas como apps en el paper). La premisa básica detrás de estas aplicaciones es que cada vez que a una persona se le diagnostica el coronavirus, cada persona que posiblemente haya estado cerca de esa persona infectada durante el período en que fueron contagiosas es notificada y se le dice que se auto-ponga en cuarentena o solicite la prueba COVID-19.
Los defensores de este enfoque señalan que las aplicaciones pueden ayudar a detener la cadena de transmisión para controlar el brote sin la necesidad de un bloqueo completo.
Muchas aplicaciones de seguimiento se están introduciendo a través de un círculo de desarrollo acelerado, a menudo pagado con recursos públicos, con una evaluación de impacto socioeconómico muy limitada y preocupación por los derechos y valores fundamentales como la equidad y la inclusión.
Por lo tanto, es importante considerar críticamente la utilidad, la necesidad y la efectividad reales de las aplicaciones, así como su impacto en el sistema social más amplio, incluidos nuestros derechos y libertades fundamentales, considerando que estas aplicaciones sientan un precedente para el uso futuro de tecnologías invasivas similares, incluso después de la crisis COVID-19.
La cuestión central de la decisión de emplear tales aplicaciones es la cuestión de su efectividad para contener la propagación. Algunos estudios sugieren que se necesitaría una penetración del 60% de la población ( Ferretti, L. et al. Quantifying SARS-CoV-2 transmission suggests epidemic control with digital contact tracing. Science 368, no. 6491 (2020)), mientras que otros muestran que se requeriría una penetración de hasta el 80-90%.
Las implementaciones actuales en diferentes países no parecen alcanzar una penetración superior al 25%. Además, como lo indica la Organización Mundial de la Salud (OMS), puede surgir discriminación contra los usuarios, o contra aquellos que por diversas razones no pueden usar la aplicación, y la historia ha demostrado que la interacción de la vigilancia y la epidemiología desafortunadamente también puede conducir a las amenazas y la violencia contra ciertos grupos.
Para ayudar en la evaluación de estas aplicaciones, aquí proponemos un marco adaptado del utilizado en nuestro artículo reciente sobre inteligencia artificial (IA) y los Objetivos de Desarrollo Sostenible (ODS) (Vinuesa, R., et al. . The role of artificial intelligence in achieving the Sustainable Development Goals. Nat. Commun. 11, 233 (2020)), para evaluar los enfoques actuales y preocupaciones relacionadas con el desarrollo, implementación y uso de aplicaciones de seguimiento.
Criterios de evaluación y casos de ejemplo
El marco de evaluación propuesto se basa en un total de 19 criterios, divididos en las tres categorías siguientes: Impacto en los ciudadanos, Tecnología y Gobernanza. Estos criterios se derivan de diferentes reglamentos y documentos de orientación [4,5] y de las preocupaciones planteadas por los expertos. Véase, por ejemplo, una carta al primer ministro de los Países Bajos por un grupo de científicos. O, una carta similar al gobierno de España.
Cada criterio se mide en una escala de 0 a 2 como se discute a continuación.
Impacto en los ciudadanos.
1. Respeto de los derechos fundamentales de las personas: esto incluye los derechos a la seguridad, la salud, la no discriminación y la libertad de asociación (2). La información poco clara / que solo respeta parcialmente estos derechos (1), o que no los respeta (0) no es adecuada.
2. Privacidad y protección de datos: la recopilación de datos debe cumplir con el Reglamento General de Protección de Datos (RGPD) y respetar la privacidad de la persona. Se debe realizar una Evaluación de Impacto de Protección de Datos (DPIA) antes del despliegue de cualquier sistema de rastreo de contactos. El propósito de la aplicación y los mecanismos para evaluar su uso deben estar claramente definidos. Todos estos requisitos deben cumplirse (2), mientras que cumplirlos solo parcialmente (1) o nada (0) no son adecuados.
3. Derechos de transparencia: incluyen el derecho de los usuarios a ser notificados, a controlar sus propios datos, a la transparencia con respecto a qué datos personales se recopilan y a la explicación del resultado producido por la aplicación. La aplicación debe ser auditable. El cumplimiento de todos los requisitos (2) es adecuado, mientras que cumplirlos solo parcialmente (1) o nada (0) no es adecuado.
4. Evitar la discriminación: la aplicación debe evitar la estigmatización debido a la sospecha de infección (2). La información / medidas poco claras para evitar esto (1), o la falta de un plan para abordar este problema (0) no son adecuadas.
5. Accesibilidad: posibilidad de ser utilizado por todos, independientemente de la demografía, el idioma, la discapacidad, la alfabetización digital y la accesibilidad financiera. Todos estos requisitos deben cumplirse (2), mientras que abordarlos solo parcialmente (1) o nada (0) no son adecuados.
6. Educación y tutoriales: asegúrese de que los usuarios estén informados y sean capaces de usar la aplicación correctamente, incluidos, p. ayuda en la aplicación (2) o materiales externos, p. sitio web (1). La ausencia (0) no es adecuada.
Tecnología
7. Protocolo descentralizado: p. Ej. uso de la arquitectura descentralizada de seguimiento de proximidad para preservar la privacidad (DP-3T). Además, la aplicación debe permitir la interoperabilidad. Se prefiere Bluetooth sobre el GPS. Un protocolo totalmente descentralizado es el mejor (2), mientras que los enfoques mixtos (1) o completamente centralizados no son adecuados (0).
8. Gestión de datos: garantizar el principio de minimización de datos, el uso del almacenamiento local y temporal, y el cifrado, según los principios de protección de datos por diseño. Asegurarse de que sólo se traten los datos estrictamente necesarios. Todos estos requisitos son necesarios (2), la documentación es poco clara (1) el incumplimiento de todos ellos (0) o no son adecuados.
9. Seguridad: autenticación del usuario para evitar riesgos como el acceso, modificación o divulgación de los datos. Utilizar identificadores únicos y pseudoaleatorios, renovados regularmente y criptográficamente fuertes. El cumplimiento de estos requisitos es necesario (2), no está claro (1) o la falta de cumplimiento (0) no es adecuado.
10. Aplicación fácil de desactivar / eliminar: ya sea a través de instrucciones claras o automáticamente mediante la cláusula de suspensión (2). No está claro (1) o las dificultades para eliminar la aplicación y los datos (0) no son adecuados.
11. Aplicación de código abierto: desarrollo participativo y multidisciplinario, acceso al código y métodos utilizados para la adaptación a nuevos conocimientos sobre el virus (2). No se recomienda el código de fuente abierta sin la posibilidad de contribuir (1), y el código de fuente no abierta no es deseable (0).
Gobernanza
12. Propiedad pública: es preferible la propiedad por el Estado (2), mientras que la Autoridad Sanitaria (1), un instituto de investigación (1) o una parte privada / comercial (0) son menos adecuados.
13. La gobernanza de datos debe hacerse pública: es preferible la gobernanza de datos abiertos (2), mientras que las configuraciones intermedias (1) o privadas / opacas (0) no son adecuadas.
14. Uso: la descarga de la aplicación debe ser voluntaria (2). Además, el uso de la aplicación no puede ser obligatorio para acceder a ciertos lugares (1) o ser legalmente obligado (0).
15. Cláusula de extinción: Esto debe especificarse claramente con una fecha y un procedimiento claros (2), mientras que la información poco clara (1) o la falta de dicha cláusula (0) no son adecuadas.
16. Legislación y política: Marco legal claro y más amplio votado por el parlamento (2), política gubernamental parcial (1) mientras que no es deseable ninguna política o desconocida (0).
17. Hallazgos incidentales y política de doble uso: los propósitos más allá del rastreo de contactos (por ejemplo, colocar a las personas en escenas del crimen, identificación de patrones de comportamiento) están estrictamente prohibidos (2). De lo contrario, debe existir al menos una política que establezca cuáles son los otros usos potenciales de los datos recopilados (1).
18. Evaluación del impacto del diseño y proceso de desarrollo abierto: proceso de diseño explícito, que incluye una descripción clara sobre los objetivos y la motivación, las partes interesadas, el proceso de consulta pública y la evaluación del impacto (2). La información poco clara (1) o la falta de dicha evaluación (0) no son adecuadas.
19. Derecho a no ser objeto de una decisión automatizada. Los usuarios deben poder impugnar las decisiones de la app, o exigir intervención humana (2). El cumplimiento parcial / poco claro (1) o la falta de esta característica (0) no son adecuados.
Como ejemplo de aplicación de este marco, el diagrama muestra el resultado de tres aplicaciones: Stopp Corona (la app desarrollada en Austria), NHS COVID-19 (en desarrollo en el Reino Unido) y TraceTogether (que se ha implementado y utilizado en Singapur desde el 20 de marzo de 2020).
Además, también analizamos las directrices del Consejo Europeo de Protección de Datos (EDPB) y evaluamos en qué medida cumplen con nuestro marco. Observamos que todas las aplicaciones tienen puntajes bajos en Gobernanza, y ninguna de ellas cumple con los criterios 15, 17 y 19, que son, a nuestro juicio, áreas importantes para cualquier rastreo de contactos digitales.
Las pautas de EDBP proporcionan una cláusula para detener el uso de este tipo de aplicaciones una vez que la situación vuelve a «normal». Esto puede verse como vago, ya que «normal» está abierto a interpretación considerando los cambios socioeconómicos que trajeron los bloqueos.
Se preferiría una fecha más clara, a menos que se tomen medidas adicionales. Las pautas EDPB también requieren el criterio 19, pero no incluyen ningún requisito con respecto al geo-etiquetado (relevante para el criterio 17).
También es importante destacar la importancia de utilizar un protocolo descentralizado (criterio 7), una característica que no se muestra en la aplicación NHS COVID-19 y que no es requerida por las pautas de EDPB, mientras que TraceTogether solo lo cumple parcialmente a través de un protocolo mixto centralizado / descentralizado.
Creemos que este enfoque debe implementarse en cualquier aplicación digital de rastreo de contactos, para garantizar completamente la seguridad de los datos de los ciudadanos.
Discusión y comentarios finales
La pandemia de COVID-19 está revelando dos perspectivas en conflicto: los gobiernos necesitan suficiente información epidemiológica para manejar la pandemia, mientras que los ciudadanos que quieren seguridad están preocupados por la privacidad, la discriminación y la protección de datos personales.
Para garantizar que se logren los objetivos desde ambas perspectivas, es esencial la transparencia con respecto a los problemas asociados con la recopilación y el procesamiento de datos personales [11,12].
La información sobre qué medidas existen para salvaguardar los derechos humanos y las libertades, y sobre cómo se desarrolla y gobierna la aplicación es una condición principal para la aceptación de estas aplicaciones. Este trabajo contribuye a este objetivo al proporcionar a los tomadores de decisiones que están considerando la introducción de aplicaciones digitales de rastreo de contactos un marco para evaluar posibles alternativas en términos de impacto social, tecnología y principios de desarrollo responsable y gobernanza.
La herramienta también puede ser utilizada por personas que consideren el uso de estas aplicaciones para evaluar cómo se alinean con sus necesidades y preocupaciones.

Referencias
[1] Dignum, V. Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way. Springer International Publishing (2019).
[2] Vinuesa, R., Azizpour, H., Leite, I., Balaam, M., Dignum, V., Domisch, S., Felländer, A., Langhans, S.D., Tegmark, M. and Fuso Nerini, F. The role of artificial intelligence in achieving the Sustainable Development Goals. Nat. Commun. 11, 233 (2020).
[3] Ferretti, L., Wymant, C., Kendall, M., Zhao, L., Nurtay, A., Abeler-Dörner, L., Parker, M., Bonsall, D. and Fraser, C. Quantifying SARS-CoV-2 transmission suggests epidemic control with digital contact tracing. Science 368, no. 6491 (2020). 5
[4] European Data Protection Board (EDPB). Guidelines 04/2020 on the use of location data and contact tracing tools in the context of the COVID-19 outbreak (2020). Available at: https://edpb.europa.eu/our-work-tools/ourdocuments/usmernenia/guidelines-042020-use-location-data-and-contact-tracing_en
[5] O’Neill, P. H., Ryan-Mosley, T. and Johnson, B. A flood of coronavirus apps are tracking us. Now it’s time to keep track of them. MIT Technol. Rev. (2020) Available at: https://www.technologyreview.com/2020/05/07/1000961/launching-mittrcovid-tracing-tracker/
[6] European Union General Data Protection Regulation (2016). Available at: https://eur-lex.europa.eu/eli/reg/2016/679/oj
[7] Decentralized Privacy-Preserving Proximity Tracing (DP-3T) Protocol (2020). Available at: https://github.com/DP3T/documents [8] Tschohl, C., Scheichenbauer, H., Kastelitz, M., Hötzendorfer, W., Hospes, J., Eisenberger, T. and Rothmund-Burgwall, M. W. Stopp Corona-App des Österreichischen Roten Kreuzes (2020). Available at: https://www.roteskreuz.at/fileadmin/user_upload/Bericht_Datenschutzfolgeabschaetzung_StoppCorona_App.pdf
[9] National Health Service (NHS) COVID-19 (2020). Available at: https://covid19.nhs.uk/
[10] Bay, J., Kek, J., Tan, A., Sheng Hau, C., Yongquan, L., Tan, J. and Quy, T. A. BlueTrace: A privacy-preserving protocol for community-driven contact tracing across borders. White Paper (2020). Available at: https://bluetrace.io/static/bluetrace_whitepaper-938063656596c104632def383eb33b3c.pdf
[11] Battaglini, M. and Rasmussen, S. Transparency, automated decision-making processes and personal profiling. J. Data Protection & Privacy 2, 331–341 (2019).
[12] Mello, M. M. and Wang, C. J. Ethics and governance for digital disease surveillance. Science, DOI: 10.1126/science.abb9045 (2020).