Los 22 Estados que forman parte de la Federación Iberoamericana del Ombudsperson (FIO) recibieron una invitación para que implementen políticas tendientes a fortalecer sus actuaciones en el ciberespacio y el mundo digital, donde actualmente campean numerosos riesgos para los derechos sustanciales de las personas.
El Grupo de Trabajo de Nuevas Tecnologías y DD. HH. de la FIO, en consecuencia, preparó un documento que contempla la creación de la figura del defensor especializado en inteligencia artificial (IA), llamado a abogar por el equilibrio entre el acelerado desarrollo tecnológico y la prevalencia de las garantías sustanciales de las personas. La propuesta, que comenzó a ser estudiada en el desarrollo de las deliberaciones del primer día de la asamblea y congreso de la FIO, fue citado por el defensor Gabriel Sandro Savino, Defensor del Pueblo de la provincia argentina de Santa Fe. Basó sus recomendaciones en un estudio preparado por el experto argentino Juan Belikow, cuyo destino es la comunidad internacional de instituciones defensoras de derechos humanos.
Para los comisionados de la FIO, el mundo digital está lleno de paradojas que no pocas veces derivan en peligros. Por un lado, sus herramientas ofrecen una plataforma invaluable para la denuncia de abusos, promoción de la justicia y la democratización de voces activistas o documentación de violaciones de derechos humanos.
Por otro, representan una “espada de doble filo” por la exacerbación de la vigilancia estatal, el establecimiento de formas de censura en línea y la propagación de desinformación. En el caso concreto de la IA, el Grupo de Trabajo identificó diez tipos de riesgos para los derechos humanos. La lista la encabezan las amenazas para la privacidad y la protección de datos, ya que los sistemas dependen cada día más de datos personales para la capacitación y la toma de decisiones.
“El mal uso de esos documentos puede conducir a importantes infracciones de privacidad y violaciones del derecho de las personas a controlar su información”, advierte el documento de trabajo. Otro riesgo es el de la discriminación y el sesgo que se producen cuando los algoritmos perpetúan inadvertidamente clasificaciones que generan resultados discriminatorios, lo cual da al traste con principios como la no discriminación y la igualdad de las personas ante la ley. Como a menudo la inteligencia artificial se percibe como una “caja negra”, asegurada con claves y secretos, surge un tercer riesgo: la falta de transparencia que afecta la cultura de la rendición de cuentas e impide a las personas impugnar decisiones que afectan sus condiciones y calidad de vida.
Tras insistir en el riesgo de que la IA desplace millones de empleos a cargo de personas y perturbe los mercados laborales, el Grupo de Trabajo invitó a los Defensores del Pueblo a desplegar esfuerzos para lograr que las nuevas tecnologías respeten los derechos de los trabajadores.
“Los algoritmos de la IA empleados en las plataformas de redes sociales y los sistemas de moderación de contenidos pueden sofocar inadvertidamente la libertad de expresión mediante la excesiva eliminación de contenido y la censura”, coincidieron los integrantes del Grupo de Trabajo.
Además del riesgo siempre presente del hackeo, advirtieron que los derechos asociados al acceso y a la inclusión también pueden verse vulnerados porque la tecnología no siempre tiene en cuenta a las personas con discapacidad o a las comunidades marginadas, sobre todo cuando se refiere al acceso de servicios y oportunidades esenciales.
Integrantes del Grupo de Trabajo de Nuevas Tecnologías destacaron los pasos dados en este frente por el Defensor del Pueblo de Colombia, Carlos Camargo Assis, con la creación de la Delegada para la Protección de Derechos en Ambientes Digitales y Libertad de Expresión.