Confianza y ética como bases para el correcto funcionamiento de la IA
El mundo sigue en constante evolución. Las distintas crisis que estamos viviendo, junto al desarrollo tecnológico, hace que las organizaciones innoven y se transformen constantemente. Un contexto en el que ha irrumpido con gran vehemencia la Inteligencia Artificial (IA). Tanto es así que la velocidad de adopción por parte de las organizaciones y de la sociedad fomenta a menudo su utilización, en ocasiones, sin evaluar suficientemente cuáles son los riesgos de su uso.
Por ello, hay que comprender el papel fundamental de la ética y la transparencia en un elemento tan disruptivo como la IA. Aunque ya haya normativas que intenten acotar su posible mal uso, es primordial fomentar un uso responsable de esta tecnología, porque solo así obtendrá la confianza necesaria por parte de la población para convertirse en “la fuerza impulsora de la economía y la sociedad”, como pronosticaron en el World Economic Forum de Davos.
En este sentido, la Unión Europea, en el reglamento europeo sobre IA, clasifica los riesgos en función de su uso en cuatro categorías: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. Cada una de ellas tiene una consecuencia, por ejemplo, una utilización de la IA que conlleve la vulneración de los derechos y valores fundamentales de la UE (riesgo inaceptable), conllevaría su prohibición. Pero el reglamento solo explica qué consecuencias debería suponer el mal uso y no cómo llevarlas a cabo.
Para ayudar a las organizaciones, nos encontramos con dos estándares ISO, alineados con el mencionado Reglamento Europeo de la IA. La primera es la ISO/IEC 42001, de Sistema de Gestión de la IA, cuyo objetivo principal es garantizar que los sistemas de IA se desarrollen, implementen y utilicen de forma responsable, transparente y fiable. La segunda es la ISO/IEC TR (Technical Report) 24368, de Aspectos Sociales y Éticos en la IA, que proporciona una guía de aspectos y consideraciones para abordar las preocupaciones éticas y sociales en el desarrollo, implementación y utilización de los sistemas de IA.
Con todo ello, AENOR, fiel a su propósito de crear confianza entre organizaciones y personas, ha diseñado un conjunto de soluciones, basadas en las nuevas normas mencionadas, que permiten acompañar a las compañías en este desafío. La conclusión de AENOR, plasmada en sus certificaciones y en línea con ISO/IEC 42001, es que para garantizar que los sistemas de IA se desarrollan de forma segura y responsable deben ser fiables, transparentes y responsables. Y para ello han de ser capaces de realizar sus tareas de forma precisa, coherente, consistente e íntegra; siendo comprensibles y explicables para usuarios y stakeholders en general; además de minimizar el riesgo de daños y perjuicios al ser humano y al medio ambiente, siendo en definitiva una herramienta útil para la gestión de cumplimiento del Reglamento.
Para conseguir estos requisitos, los sistemas de IA se deben construir considerando, como mínimo, una gestión de riesgos, que minimice su impacto negativo aplicando los controles adecuados, sobre los aspectos éticos, seguridad y privacidad; un factor humano enmarcado en la colaboración, la formación y la supervisión; y una validación de casos de uso con una evaluación rigurosa e interacción continua.
Todos los avances tecnológicos significativos en la historia del ser humano han tenido cierta controversia inicial, seguida de un impacto social y de una respuesta legislativa. Desde AENOR tenemos muy claro que, en este caso, la respuesta ha de ser también ética porque un mal uso de la IA es muy peligroso para la sociedad, pero también para el desarrollo de una herramienta que tiene un potencial incalculable, cuyo cimiento principal es la confianza que la población tenga en ella.
Boris Delgado Riss, director de Industria y TIC de AENOR.