En marzo de este año, la Asamblea General de la ONU adoptó lo que denominó "una resolución histórica sobre la inteligencia artificial (IA)", instando a los Estados miembros a promover sistemas de IA "seguros y fiables". En el documento, firmado por más de 120 países, se reconoce el potencial que tiene la IA para acelerar y permitir el progreso hacia la consecución de los 17 Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030 de la ONU, pero pone énfasis también en el respeto, la protección y la promoción de los derechos humanos en el diseño, desarrollo, despliegue y uso de la IA.
La trayectoria del uso de la IA no ha estado exenta de escándalos como lo han sido los casos de filtraciones o robo de datos personales sin consentimiento que han involucrado, por ejemplo, a Cambridge Analytics y Facebook (2018) y a OpenAI (2023). Y la sorprendente evolución de esta tecnología, que ha dado un salto tremendo con el surgimiento de la IA Generativa (IAG), sobre todo desde el estreno del Chat GPT (2022) que en su primera semana de vida atrajo a más de 1 millón de usuarios, ha puesto en máxima alerta a las naciones. Experiencias como la del columnista de Tecnología del periódico estadounidense The New York Times Kevin Roose remecieron, al mundo al publicar una conversación que sostuvo con un chatbot que tituló "Conversation With Bing's Chatbot Left Me Deeply Unsettled". Los riesgos de sesgos ideológicos o raciales están a la orden del día en las redes sociales que usan algoritmos personalizados, creando las llamadas "cámaras de eco", donde las y los usuarios sólo ven información que refuerza sus propias creencias; difusión de perfiles falsos para denostar o propagación de noticias falsas son parte de las preocupaciones. Y, por supuesto, tal como ha sucedido con las anteriores revoluciones tecnológicas, el mundo del trabajo está cambiando con la automatización de funciones, pero esta vez, en ámbitos tan asombrosos como la Educación, Medicina, Geofísica, reclutamiento de personal y chatbots con interacciones más humanas y personalizadas en el campo del servicio al cliente y soporte técnico.
Considerando la IA una herramienta poderosa que contribuye al progreso de la humanidad, pero entendiendo todos los riesgos y desafíos asociados a su uso, es lo que está motivando a establecer protocolos de resguardo ético en su desarrollo y aplicación. Ya la Unesco, en noviembre de 2021, adoptó "Recomendación sobre la ética de la Inteligencia Artificial". El propio Fondo Monetario Internacional (FMI), en diciembre del año pasado, publicó "Los pilares fundamentales de la gobernanza de la IA", En la región, en octubre 2023, se realizó en Chile el "Primer Foro de Altas Autoridades sobre la Ética de la Inteligencia Artificial de América Latina y el Caribe". También es materia de preocupación mundial el resguardo de los denominados neuroderechos ante los avances de la neurociencia y las neurotecnologías. De hecho, Chile ya estableció constitucionalmente (reforma al Artículo 19, en octubre 2021) que el desarrollo científico y tecnológico está al servicio de las personas y, en segundo trámite legislativo, está el proyecto de ley (Boletín N° 13.828-19) que regulará estos derechos -considerados como la cuarta generación en derechos humanos- en los que se incluye el "Derecho a la protección de sesgos de algoritmos o procesos automatizados de toma de decisiones".
Y, efectivamente, es posible desplegar el buen hacer de la IA. Un ejemplo es Metasports: "IA para el reconocimiento del talento deportivo desde Arica y Parinacota para el mundo", proyecto financiado por el GORE de Arica y Parinacota y ejecutado por la Universidad Alberto Hurtado (UAH). Se trata de una app. vanguardista en el campo del scouting deportivo, basada en Computer Vision y Machine Learning que reconoce patrones técnicos destacables en la práctica del fútbol de niños, niñas y adolescentes de sectores más vulnerables, uniendo así tecnología con innovación social, promoviendo no sólo el fútbol profesional, sino también recreación, deporte en general y bienestar de los niños, niñas y jóvenes, contribuyendo así a una sociedad más saludable y activa.
Transparentar el cómo funcionan los algoritmos de IA es importante; en el caso de Metasports se realiza una documentación exhaustiva en la que se consignan explicaciones sobre la captura de videos, procesamiento de imágenes y evaluación del desempeño. Para generar confianza y facilitar la adopción de la tecnología, hay que asegurarse que las decisiones tomadas por la IA y sus resultados sean comprensibles tanto para los usuarios como para los profesionales del ámbito, difundiendo de manera transparente los logros y aprendizajes obtenidos. Asimismo, es del todo pertinente realizar campañas informativas y educativas para que la comunidad comprenda los beneficios y el funcionamiento de la IA aplicada, en este caso, al deporte.
Eliminar sesgos es fundamental, por lo tanto, es un deber desarrollar y entrenar los modelos IA utilizando datos diversos, como también ser accesible en igualdad de oportunidades, al igual que es imprescindible implementar políticas de privacidad y seguridad para proteger la información personal, esto incluye el uso de técnicas de anonimización y cifrado de datos. Antes de recolectar y analizar datos personales es exigible el consentimiento -en el caso de Metasports, como se trata de datos de menores de edad, se le pidió a los padres o tutores- asegurando que entienden cómo se utilizará la información. La accesibilidad debe dar pie a la igualdad de oportunidades
Realizar validaciones en entornos reales para asegurar que los algoritmos funcionan correctamente fuera del laboratorio; esto también permite ajustar y mejorar el sistema. Retroalimentación continua con usuarios, es otra característica del buen hacer de la IA para iterar y mejorar constantemente la tecnología, asegurando que cumple con las expectativas y necesidades de los usuarios. Formar equipos de trabajo multidisciplinarios que incluyan no sólo expertos en IA; en el desarrollo y éxito de Metasports ha sido crucial la participación de entrenadores deportivos, psicólogos y otros profesionales relevantes.
Éstas son algunas características que debiese tener cualquier herramienta basada en IA. Se requiere un enfoque holístico que tome en cuenta dimensiones no puramente tecnológicas, sino también resguardos de la privacidad, impacto social, sostenibilidad, diversidad e inclusión, es decir, ante todo una gobernanza de la IA basada en la ética del respeto y promoción de los derechos humanos en su conjunto.
Desde Facebook:
Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado