Fujitsu ayuda a evaluar con criterios éticos el impacto social de la inteligencia artificial

28/03/2022

diarioabierto.es. Ofrece un kit de recursos basados en las mejores prácticas.

Con el auge del uso de la inteligencia artificial para valorar, por ejemplo, la aprobación o no de un préstamo a un ciudadano, o la selección del mejor empleado para cubrir un puesto de trabajo, surgen riesgos derivados de los sesgos en los datos analizados. Así las cosas, los desarrolladores de sistemas de IA deberían poder identificar una dependencia excesiva de los usuarios de los resultados de un sistema de IA, que puede contener sesgos y llevar a decisiones injustas, así como poder ajustar adecuadamente el sistema para prevenir riesgos futuros.

Para ayudar a los desarrolladores y operadores de sistemas de inteligencia artificial a identificar tales riesgos, la empresa tecnológica japonesa Fujitsu les ofrece un conjunto de recursos útiles para su trabajo. Se trata de un kit con el que podrán evaluar el impacto ético y los riesgos de utilizar sistemas de IA. Basados en las directrices internacionales de ética de la IA, este kit que por el momento sólo está disponible en japonés, si bien en un futuro próximo lo estará en inglés, pretende garantizar el despliegue seguro de los sistemas de IA en la sociedad.

Este kit de herramientas consiste en una variedad de estudios de casos y materiales de referencia, incluyendo un método recientemente desarrollado para aclarar los requisitos éticos en las directrices de ética de la IA escritas en lenguaje natural, así como para aplicar los requisitos éticos a los sistemas de IA reales. Con esta guía, Fujitsu pretende evitar malentendidos y riesgos potenciales causados por las diferencias en la interpretación de las descripciones de las directrices, ofreciendo a los desarrolladores y operadores de sistemas de IA nuevas herramientas para identificar y prevenir a fondo posibles problemas éticos en las primeras etapas del proceso de desarrollo, de acuerdo con las mejores prácticas internacionales.

Fujitsu trabajará a partir de ahora para asociarse con organismos gubernamentales, empresas privadas e investigadores de primera línea, con el fin de continuar perfeccionando y promocionando su recién desarrollada metodología. Igualmente, se propone publicar una versión ampliada del conjunto de recursos este mismo año.

Fujitsu Group AI Commitment
La Comisión Europea publicó en 2021 un borrador para un marco regulatorio que pedía una respuesta ética integral para los desarrolladores de sistemas de IA, los usuarios y las partes interesadas. La elaboración de ese documento estuvo motivado por las crecientes preocupaciones que rodean el sesgo algorítmico y la toma de decisiones discriminatorias en las aplicaciones de IA y el aprendizaje automático.

Para comprometerse plenamente con el uso responsable de la tecnología, y ganarse la confianza de la sociedad en los sistemas de IA, Fujitsu formuló el año pasado su promesa de ofrecer una tecnología de IA segura y transparente. Aquella intención quedó reflejada en su Fujitsu Group AI Commitment. Igualmente, creo una Oficina de Ética y Gobernanza de la IA, a fin de desarrollar y aplicar políticas sólidas para la ética de la IA y garantizar su eficacia. Ahora, Fujitsu pasará de los principios a la práctica, mediante la implementación constante de las mejores prácticas en el mundo real. Su meta será garantizar la realización de tecnologías éticas, seguras y transparentes de IA y aprendizaje automático.

En la actualidad, es una práctica común en el desarrollo de sistemas de IA identificar los posibles riesgos éticos basándose en las directrices de ética de la IA emitidas por las autoridades gubernamentales y las empresas. Sin embargo, estas directrices están escritas en un lenguaje natural. Esto puede dar lugar a errores de interpretación y malentendidos entre diseñadores y desarrolladores, que pueden llevar a medidas inadecuadas o insuficientes. Con este método también es difícil juzgar si el contenido de las directrices ha sido revisado de forma exhaustiva y adecuada. Además, siguen existiendo muchos problemas derivados de la interpretación de las directrices en la fase de diseño de las nuevas tecnologías, lo que puede dar lugar a medidas insuficientes o inadecuadas para contrarrestar el riesgo.

Criterios éticos
Al preparar este nuevo conjunto de herramientas y orientaciones para los desarrolladores, Fujitsu analizó incidentes anteriores relacionados con la IA, recogidos en la base de datos del consorcio internacional Partnership on AI. Este proceso llevó a la conclusión de que las cuestiones éticas relacionadas con los sistemas de IA pueden contextualizarse con el intercambio de información («interacciones») entre elementos discretos dentro de un sistema de IA y entre un sistema de IA y sus usuarios y otras partes interesadas.

Sobre la base de estos resultados, Fujitsu ha desarrollado con éxito un método de evaluación para identificar sistemáticamente las cuestiones éticas relevantes relacionadas con los sistemas de IA. Esto ha permitido la creación de modelos de ética de la IA capaces de aclarar la interpretación de las directrices éticas de la IA.

Fujitsu aplicó su nuevo método de evaluación a 15 casos representativos de la Base de Datos de Incidentes de IA (164 casos globales registrados hasta el 21 de febrero de 2022, los ejemplos incluían casos de áreas como el sector financiero y de recursos humanos). Aplicando el nuevo método, todos los problemas éticos que se produjeron en casos de uso del mundo real se identificaron con éxito como riesgos por adelantado durante las pruebas de verificación, cuyos resultados se han publicado.

Fujitsu ofrecerá recursos y orientaciones para que los desarrolladores puedan consultarlos en su propio trabajo. De momento, solo están disponibles en japonés: 

  1. Whitepaper: una visión general de la metodología
  2. Manual del procedimiento de evaluación del impacto ético de la IA: diagrama del sistema de IA, procedimiento de preparación del modelo ético de IA y explicación del método de correspondencia de problemas
  3. Modelo ético de IA: basado en las directrices éticas de IA publicadas por la Comisión Europea (creado por Fujitsu)
  4. Estudios de casos de análisis de ética de la IA: resultados del análisis de los principales problemas éticos de la IA, a partir de la base de datos de incidentes de la Asociación sobre la IA (hasta el 21 de febrero, había seis casos, que se añadieron secuencialmente).

 

Más información
⇒ Descargar aquí el kit de Fujitsu en japonés
⇒ Seguir en Twitter a @Fujitsu_ES

¿Te ha parecido interesante?

(Sin votos)

Cargando...

Aviso Legal
Esta es la opinión de los internautas, no de diarioabierto.es
No está permitido verter comentarios contrarios a la ley o injuriantes.
Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
Su direcciónn de e-mail no será publicada ni usada con fines publicitarios.