¿La ética digital es una disciplina que sólo se aplica a la innovación en las tecnologías físicas, o tecnología a secas, como se le conoce? ¿O también se aplica a las tecnologías sociales, o instituciones, universidades, gobiernos, cultura, educación, etc?
La tecnología avanza, y las instituciones, no. Pero es lo más difícil. Se trata de relaciones entre personas y parece que se ha quedado totalmente rezagada.
Se escucha muy a menudo el mismo discurso sobre Ética Digital. De hecho, desde que empezó la pandemia y mi profesión se volvió un hit, sólo oigo en los eventos el «Necesitamos», pero mucho menos, o casi no se ha escuchado, el «Cómo».
Se habla de necesidad de transparencia algorítimica, explicabilidad, auditoría de los algoritmos, etc. Mi pregunta es: ¿Hacen falta la transparencia algorítmica, la explicabilidad y la auditoría de los algoritmos? POR SUPUESTO. Y, ¿es lo que nos salvaría de un mundo desigual y discriminatorio? NI DE BROMA.
Desde el gobierno, el ahorro de costes y la eficiencia no pueden ser prioridades. ¿Por qué?
(i) Es necesario reconocer que hacer las cosas bien a veces lleva más tiempo y cuesta más, y en muchos casos las decisiones automatizadas (ADM) no son el enfoque correcto ni adecuado.
(ii) Hay que dar prioridad al Estado de Derecho, a los Principios Fundamentales del buen gobierno, como la legitimidad democrática, la responsabilidad pública, la no discriminación y poner los DDHH en el centro, no sólo los derechos civiles y políticos, sino también, los derechos socioeconómicos, tan denostados y olvidados.
Cuando hablamos del gobierno y de sus instituciones recordemos que tienen que actuar bajo el imperio de la ley y no bajo el imperio de la tecnología, y la ley debe seguir siendo el punto de referencia. ¿Por qué digo esto?
Voy a poner un ejemplo real: Se habla del uso de las decisiones automatizadas para tomar decisiones administrativas. Este tipo de decisiones automatizadas pone en tela de juicio el principio del Estado de Derecho por la imposibilidad de explicar el resultado de tales decisiones. Debemos re-interpretar la transparencia y la responsabilidad en la era de la IA. Y este es el punto al que quiero llegar cuando formulé las preguntas acerca de si la transparencia, explicabilidad y auditabilidad de los algoritmos nos salvarán de un mundo desigual y discriminatorio.
¿Se imaginan preguntar el por qué de una decisión administrativa, o pedir explicaciones en nuestro Ayuntamiento y que nos den por respuesta «porque sí» o «no tengo ni idea», o «la decisión fue tomada por un algoritmo a mí no me digas nada»? Esto es inadmisible, y vulnera los Derechos Fundamentales de los ciudadanos.
Mi punto es: La transparencia es muy útil, pero no es un objetivo en sí mismo, sino un medio para un fin. Muchos de los problemas que vemos con estos sistemas automatizados no están relacionados con la transparencia o la rendición de cuentas, sino con la legitimidad del uso de las decisiones automatizadas. En otras palabras, los sistemas de decisiones automatizadas no sirven para tomar según qué decisiones.
¿Las personas sometidas a decisiones automatizadas necesitan entender cómo se han tomado esas decisiones en el sector público? La realidad e hoy en día es que no tenemos más opción que comprometernos con esos sistemas que, a su vez, no tienen otra opción que tomar la decisión que ha tomado. Y a nosotros, nos toca defendernos como podemos. No hay otra salida en este momento.
Pero no, no necesitamos entender cómo se ha tomado una decisión automatizada. Como ciudadanos, necesitamos innovación institucional. Necesitamos eliminar ciertas instituciones que ya no nos sirven de nada, y crear otras que se adapten a la circunstancias y que estén a la altura. Es decir, que nos protejan de forma colectiva, en lugar de obligarnos a entender a preguntar de manera individual cómo funcionan estos sistemas y tener que protegernos de tal decisión como podamos uno a uno. También necesitamos más interacción humana y menos investigación tecnológica dependiendo del escenario que estamos tratando.
Se habla mucho de que estamos dejando de lado a los mayores y a las personas sin educación tecnológica. ¿Creen que esto se resuelve con más innovación en tecnología? Pongamos un ejemplo, el caso de los bancos y los servicios en los cajeros. ¿Cómo educamos a una población mayor de 70 años? Imposible. Solución: interacción humana = tecnología social para combatir la discriminación producida por la tecnología física. No hay otra.
Por lo tanto, necesitamos entender el sistema desde su concepción hasta cualquier investigación de las consecuencias del uso de ese sistema. Esto incluye el diseño, a quién se le encargó, su desarrollo e implementación, una auditoría posterior acompañada de una Evaluación de Impacto de Derechos Fundamentales, que es muy buen comienzo para detectar problemas legales y éticos. Esta es la transparencia que necesitamos.
Pero esto sólo pasa por centrar nuestros esfuerzos en innovación institucional, o de las tecnologías sociales. Mientras sigamos hablando SÓLO DE TECNOLOGÍA y no de cómo ADAPTAR LAS INSTITUCIONES A INNOVACIÓN TECNOLÓGICA, como es el caso de fomentar la interacción humana, estaremos bajo el imperio de la tecnología y no bajo el imperio de la ley.