Controlar los algoritmos que nos controlan

La pandemia de la COVID-19 es un reto que como sociedad debemos encarar y superar. La diferencia respecto a otras pandemias que ha habido a lo largo de la historia es la posibilidad de hacer frente a este reto a partir de mecanismos y herramientas tecnológicas basadas en datos digitales.

Controlar los algoritmos que nos controlan

En la actualidad, nos encontramos en un contexto de revolución de los datos masivos, en el que los algoritmos son cada vez más presentes tanto en el ámbito público como en el privado. Cuando hablamos de algoritmo, debemos ser capaces de distinguir entre el algoritmo (ecuación que ayuda a resolver problemas a partir de datos) y el programa o aplicación informática (que incorpora un conjunto de algoritmos).

Los algoritmos nos dan la posibilidad de tomar decisiones a través de procesos automatizados (no es necesaria la intervención de una persona) y encontrar correlaciones que pueden pasar inadvertidas. Uno de los ejemplos que tiene más sentido comentar a día de hoy es el caso de la aparición de Google Flu Trends en medio de la pandemia de gripe A (H1N1) de 2009 en Estados Unidos. La gripe A (H1N1), que surgía como un nuevo cepo de los virus de la gripe aviar y porcina, se extendió a lo largo de los 50 estados con más de 90.000 casos confirmados y más de 2.100 muertes en todo el territorio. La situación que se vivía en los Estados Unidos era de alarma; tanto el gobierno como el Centro de Control y Prevención de Enfermedades (CDC) pedían a los servicios sanitarios que alertaran de los nuevos casos de gripe, pero la transmisión de esta información a las organizaciones centrales tardaba más de lo necesario, mientras el virus se propagaba a una velocidad alarmante.

Es en este momento, Google lanza Flu Trends, en colaboración con el CDC de los Estados Unidos, como un servicio web que consistía en detectar e identificar a los afectados por el virus de la gripe a través de las palabras más buscadas en Google, comparándolas con los datos de epidemias de gripe registradas en diferentes zonas de los Estados Unidos entre 2003 y 2007. A partir de esta investigación se descubrieron 45 palabras y expresiones que se buscaban con más frecuencia en los lugares donde aparecían más casos de gripe. Flu Trends hizo un pasó más y empezó, de manera prospectiva, a prever la evolución del virus. El resultado fue que la aplicación pudo detectar, con mucha precisión y diez días antes que el CDC, donde aparecerían más casos de gripe e infecciones similares en los Estados Unidos.

Controlar los algoritmos que nos controlan

Como podemos ver, la aparición de los algoritmos supone un antes y un después de las metodologías de diagnosis y control de los problemas. Gracias a ellos tenemos la oportunidad, más que nunca, de poder hacer frente a grandes retos de la humanidad como pueden ser las pandemias, el cambio climático, la pobreza, las desigualdades, etc., desde una visión puramente matemática y precisa. Pero no todo es tan positivo como parece, ya que los algoritmos no siempre son ni precisos ni perfectos.

Como hemos dicho anteriormente, los algoritmos parten de una ecuación matemática en base a datos, en la que el problema no deviene en el momento del cálculo de las variables, sino en la selección de estas. Quién diseña el algoritmo está determinando las reglas bajo las cuales se tomará la decisión final. Uno de los casos en los que nos podemos fijar es el del programa COMPAS en los Estados Unidos, con el que se analiza la posibilidad que tiene una persona de reincidir en un delito. Se descubrió que su algoritmo tenía una desviación con la que consideraba que las personas de etnia afroamericana tenían una tendencia mayor al delito respecto a las de origen caucásico, provocando así decisiones injustas.

Controlar los algoritmos que nos controlan

De la misma manera que existen algoritmos en la justicia, también los encontramos en el servicio sanitario. Decidir quién tiene más probabilidades de recaer o quién es más susceptible de recuperarse de una enfermedad, es una decisión estricta que requiere de una alta complejidad y control sobre los datos. Por lo tanto, para conseguir que un algoritmo tome decisiones justas, debemos asegurarnos de que los expertos puedan acceder al código fuente del algoritmo, a la base de datos de éste, y evitar desviaciones debidas, en muchos casos, a la sobrerrepresentación de la población o a la exclusión de una parte.

Aún así, esta necesidad de transparencia de los algoritmos choca de frente con el derecho a la propiedad intelectual de quien los desarrolla. En muchos casos no se puede accedes al código fuente ni entender en profundidad el algoritmo en sí, porqué se entiende como una violación a la propiedad intelectual. Por esta razón, necesitamos cambios normativos en los que la legislación prevea una obligación de explicar las decisiones tomadas a través de los algoritmos.

Una de las propuestas plantea diferentes herramientas de control como:

  • Necesidad de controles jurídicos (administrativos y judiciales)
    • Derecho a una explicación, auditoría de algoritmos, prevención y control de desviaciones, etc
    • Responsabilidad patrimonial
  • Necesidad de un ente público específico regulador

En definitiva, tecnología y progreso social deben ir de la mano a partir de mecanismos que fortalezcan la ciudadanía y la protección de esta frente al uso de los algoritmos. Es un momento crucial en el que, como sociedad, tenemos que vigilar el uso de las tecnologías y como aprovecharlas para obtener un beneficio social que repercuta de la manera más extensa posible. Como pasa en la vida, el problema no reside en la herramienta en sí, sino en quién le da uso, cómo, y para qué.

 

*Este artículo recoge algunas de las ideas principales expuestas en la sesión ‘La transparencia de los algoritmos en la administración' organizada por la Agencia de Transparencia del AMB el pasado 11 de marzo de 2020. La vinculación de las nuevas tecnologías con el progreso social será una de las cuestiones importantes que planteará la elaboración del nuevo plan estratégico metropolitano 2030.

Las opiniones de los autores y las autoras no representan necesariamente el posicionamiento del PEMB.

  • Participa o sigue el debate

    0 comentarios:

    Deja tu comentario:

Política de cookies