Justicia Algorítmica – Hacia una Política de Protección Social basada en Inteligencia Artificial inclusiva, transparente y ética en Ecuador
Justicia Algorítmica – Hacia una Política de Protección Social basada en Inteligencia Artificial inclusiva, transparente y ética en Ecuador

Justicia Algorítmica – Hacia una Política de Protección Social basada en Inteligencia Artificial inclusiva, transparente y ética en Ecuador

ANTECEDENTES

En diciembre de 2024, CLACSO y UNESCO Ecuador lanzaron la Convocatoria de Investigación «Justicia Algorítmica. Una Inteligencia Artificial ética para América Latina y el Caribe», cuyo objetivo principal es la producción de policy briefs que promuevan la sinergia entre investigación académica y toma de decisiones públicas informadas, a través de la elaboración de análisis, recomendaciones de política y acciones de intervención social basadas en el uso ético y responsable de la IA.

Se abrieron 75 formularios y se recibieron 35 postulaciones, que luego de la revisión técnica y formal, estuvieron en condiciones de ser evaluadas cualitativamente por el Comité Internacional para considerar la calidad, pertinencia y coherencia de las mismas de acuerdo con lineamientos estabecidos.

El proceso de evaluación estuvo a cargo de un Comité Internacional compuesto por 9 expertos y expertas de 4 países: Marco Benalcázar (Ecuador), Marta Bianchi (Argentina), Carolina Hevia (Ecuador), Silvia Lago Martínez (Argentina), Fernando Laredo (Argentina), Graciela Nathanson (Argentina), Isabel Ramos (Ecuador), Carla Texeira (Brasil) y Stephane Vinolo (Francia). Dicho comité realizó la primera fase de valoración de los proyectos presentados.

Como segunda fase, el equipo organizador, integrado por CLACSO y UNESCO, revisó las propuestas tomando en cuenta las bases de la convocatoria, la calidad técnica, la pertinencia de los temas a ser trabajados en el marco de la «Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO», el balance de áreas para el desarrollo de investigaciones, entre otros criterios de carácter técnico y metodológico. 

Luego de todo el proceso de evaluación realizado, que reconoció la excelente calidad, relevancia y rigurosidad de la mayoría de las postulaciones, se generó un dictamen con las 5 propuestas ganadoras para el desarrollo de las policy briefs. En 3 de ellas se destaca la presencia de investigadores/as con trabajos en y/o sobre Ecuador.

ACERCA DEL PROYECTO: HACIA UNA POLÍTICA DE PROTECCIÓN SOCIAL BASADA EN INTELIGENCIA ARTIFICIAL INCLUSIVA, TRANSPARENTE Y ÉTICA EN ECUADOR

El objetivo del proyecto es abordar el desafío de la datificación y digitalización de la Política Social del Ecuador, mediante la elaboración de un policy brief con recomendaciones de política pública y la construcción de un modelo de simulación para una Política de Protección Social basada en IA inclusiva, transparente y ética. Esta iniciativa se alinea y busca fortalecer las “Recomendación sobre la Ética de la Inteligencia Artificial” de UNESCO.

PLAN DE OBRA Y OBJETIVOS ESPECÍFICOS

La propuesta se basa en el desarrollo de dos productos: un policy brief de la transformación digital de la política social en Ecuador y un modelo de simulación.

Objetivo específico 1: Realizar un documento conciso que analice la transformación digital de la política social en Ecuador y proponga recomendaciones de política basadas en los resultados del modelo de simulación. El análisis se enfocará en el uso de sistemas de datos y machine learning. Proporcionará a los tomadores de decisión un marco para comprender los impactos de la transformación digital de la política social y guiará la implementación de soluciones de IA éticas, transparentes e inclusivas.

Objetivo específico 2: Construir un modelo para simular diferentes escenarios de política social a partir de los criterios de modularidad y flexibilidad, para motivar el aprendizaje y facilitar la implementación de soluciones basadas en IA éticas, transparentes e inclusivas.

ALINEACIÓN DEL PROYECTO CON LA "RECOMENDACIÓN SOBRE LA ÉTICA DE LA ITELIGENCIA ARTIFICIAL" - UNESCO

La propuesta se alinea y contribuye a los siguientes ámbitos de actuación (UNESCO, 2022):

 

Evaluación del impacto ético: aportar a la generación de marcos de evaluación de impacto ético y mecanismos de supervisión para la anticipación, atenuación y seguimiento de: i) los riesgos de la IA en el ejercicio de los derechos de los beneficiarios de programas sociales; y ii) los efectos socioeconómicos de los sistemas de IA en la pobreza.

Gobernanza y administración éticas: a partir de la utilización del mecanismo de prototipo, contribuir a la adaptación de los marcos jurídicos existentes y al establecimiento de normas para garantizar la transparencia y explicabilidad de la IA en el sistema de protección social ecuatoriano.

Política de datos: promover una estrategia de gobernanza de datos en la política social contemplando: i) la calidad de los datos de entrenamiento de IA; ii) la idoneidad de los procesos de recopilación datos (incluyendo información autoreportada, fichas sociales en línea, encuestas en territorio); iii) la construcción transparente y accesible para el usuario de los sistemas de datos e índices de caracterización; iv) el monitoreo del mecanismo de focalización para identificar posibles anomalías; v) el perfeccionamiento de los instrumentos de caracterización con indicadores que abarquen condiciones de vulnerabilidad amplias y no solo la situación estructural de los hogares; y vi) la privacidad y derechos sobre los datos de los beneficiarios.

EQUIPO DE TRABAJO

Alexandra Belén Gualavisí  – Coordinadora

Ángel Gutiérrez

María Belén Albornoz

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Translate »