La ética y el uso de la inteligencia artificial: en busca de la confianza digital

13/04/2021

Kalliopi Spyridaki, de SAS Europa y Asia. Qué tener en cuenta al implementar IA.

La inteligencia artificial (IA) está en todas partes, tocando todos los aspectos de nuestras vidas. Hablamos de, por ejemplo, algoritmos de clasificación que sugieren preferencias para elegir un libro u hotel, o de modelos que ayudan con el diagnóstico de imágenes médicas, pero también de los dispositivos virtuales del hogar inteligente o de los coches autónomos.

La mercantilización de la IA y la rápida adopción de las tecnologías basadas en ella han aumentado la conciencia sobre las implicaciones éticas de su uso. En la actualidad, gobiernos, empresas y consumidores debaten fervientemente sobre la privacidad, equidad, transparencia y la responsabilidad de las decisiones tomadas por este tipo de aplicaciones.

Los recientes movimientos sociales que se han dado en el mundo en torno a la diversidad y la inclusión han reforzado la demanda de ética en todos los ámbitos de la vida. Al mismo tiempo, la pandemia ha acelerado un profundo cambio en nuestra actitud y comportamiento hacia el intercambio de información. Esto es positivo para las aplicaciones de IA que requieren de flujos de datos en los que no haya fisuras, como son los que incluyen datos sensibles o personales.

Esta apertura sin precedentes hacia el intercambio de datos puede proporcionar un valioso ejemplo de cómo crear confianza en las soluciones de inteligencia artificial en el futuro. Concretamente, para sentar las bases de una IA fiable, debemos desarrollar una tecnología sólida y segura, fundar una cultura de confianza digital que fomente el intercambio de datos, y diseñar un marco normativo que promueva su uso responsable.

Imagen: Andrea Piacquadio (obtenida en pexels.com y modificada).

La ética y los asuntos relacionados con la gestión de riesgos ya no son sólo una cuestión de debate conceptual. La confianza es esencial en el intercambio de valor que se produce entre un consumidor y una organización. La gente no confía en el uso que se hace de sus datos y le preocupa que se utilicen para perjudicarles de alguna manera, por lo que pueden volverse infieles a la marca; si se descubre que se están desplegando sistemas de IA que no son éticos, la reputación de una organización puede quedar dañada y afectar significativamente a los resultados.

Uso ético de los datos e IA
La confianza digital es esencial para la adopción de herramientas de IA. Una serie de asociaciones públicas y privadas actuales, como la Organización para la Cooperación y el Desarrollo Económicos (OECD), han definido un conjunto cada vez más amplio de marcos para guiar el uso ético de los datos y la IA. Estos principios pretenden informar sobre estándares de aplicación general, así como orientar el desarrollo de regulaciones aplicables y ayudar a las organizaciones a definir e instituir sus propios principios de IA y sus límites operativos.

En esta línea, la Unión Europea (UE) propondrá este mes de abril la primera legislación horizontal sobre IA a escala mundial. Establecerá los requisitos para el desarrollo y el uso fiables de la IA de alto riesgo. En general, la legislación tendrá como objetivo avanzar en la transparencia, la responsabilidad y la protección del consumidor para todas las aplicaciones que requieran de esta tecnología.

Al igual que los conocimientos sin acción son inútiles, también lo son los principios que no se ponen en práctica. Si se hace bien, la instauración de la gobernanza ayuda a establecer la responsabilidad y la transparencia de los resultados y las prácticas impulsadas por la IA.

En paralelo, la UE ha propuesto una reglamento relativo a la gobernanza europea de datos, con el fin de promulgar una Ley de Gobernanza de Datos este mismo año. Cuando entren en vigor, fomentará el aumento de un intercambio de datos más significativo entre empresas y gobiernos, lo cual apoyará aún más la innovación y una mayor adopción de las aplicaciones de IA por parte de todos los agentes socioeconómicos.

Ética y tecnología
A medida que la adopción de la IA se acelera y se integra en nuestras vidas de forma cada vez más impactante, los ciudadanos, gobiernos y grupos de interés están cada vez más preocupados por su uso justo y equitativo. El uso ético de la inteligencia artificial es fundamental para una organización moderna y responsable con visión de futuro. Este enigma de desafíos éticos —que incluye la equidad, la transparencia, la responsabilidad y la el posicionar a las personas en el centro— puede parecer desalentador.

De hecho, para que los principios éticos de la IA tengan sentido, deben ser aplicables y operativos. Este es un reto para los gobiernos y las organizaciones por igual. Ahora es el momento de dar los primeros pasos prácticos a fin de establecer los elementos necesarios para el uso y el despliegue responsables de la IA. Empezando por la calidad de los datos y su gestión sólida, y garantizando la integridad de los modelos y la gobernanza, las organizaciones tendrán que establecer un marco que permita la transparencia y la rendición de cuentas.

Frente a los rápidos y esperados desarrollos normativos en Europa, todas las organizaciones que operan en el mercado de la IA deberán ir más allá. Tendrán que innovar en torno a las características de los productos y servicios que les darán una ventaja competitiva, a tenor de la creciente demanda por una IA ética y responsable.


Kalliopi Spyridaki es directora de Estrategia de Privacidad (Chief Privacy Strategist) de SAS Europa y Asia, empresa especializada en analítica de datos e IA, para optimizar la inteligencia de negocio de sus empresas cliente. 

 

Más información
⇒ Seguir en Twitter a @SASEspana

¿Te ha parecido interesante?

(+1 puntos, 1 votos)

Cargando...

Aviso Legal
Esta es la opinión de los internautas, no de diarioabierto.es
No está permitido verter comentarios contrarios a la ley o injuriantes.
Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
Su direcciónn de e-mail no será publicada ni usada con fines publicitarios.