¿Sueñan los robots con ser personas?

28/04/2019

Miguel Ángel Valero.

Interesantísima la nueva edición de Conversaciones en la Azotea de Lefebvre, que  analiza el papel que desempeñan la inteligencia artificial (IA) y las nuevas tecnologías en el sector legal con los expertos Ramón López de Mántaras, director del Instituto de Inteligencia Artificial del CSIC; Pablo Fernández Burgueño, socio en Abanlex, NevTrace y Escila; y Paloma Llaneza, CEO de Razona y fundadora de The Llaneza Firm.

En las Conversaciones, donde se trataron los retos, oportunidades y amenazas que conlleva la aplicación de la IA en el sector legal y en la sociedad en general, Paloma Llaneza plantea la cuestión de si las máquinas realmente sustituirán a los profesionales del sector legal o si, por el contrario, éstos seguirán siendo relevantes.

Para Pablo Fernández Burgueño, la inteligencia artificial y la robótica son sistemas de reconocimiento cognitivo que pueden ayudar a los profesionales, pero descarta que eliminen puestos de trabajo. “La entrada de este tipo de herramientas va a ser progresiva, por lo que nos va a ayudar a ir adaptándonos para poder hacer las cosas mejor, más rápido y de manera más eficiente”, razona.

Ramón López de Mántaras afirma que “la IA será un colaborador o partner del ser humano». «Podrá automatizar ciertas tareas, pero no desplazar a la persona de un puesto de trabajo”, recalca.

Pero la pregunta clave es ¿quién será el responsable de determinadas acciones de una máquina inteligente con total autonomía? Ramón López de Mántaras reconoce “sí que se plantean cuestiones éticas y legales de causalidad duras y complicadas”. Y tiene clara su respuesta: “Soy completamente contrario a dotar de algún tipo de ‘personalidad jurídica’ a una máquina. Hay que mantener las máquinas separadas del ser humano, no tenemos que verlas como sustitutos sino como colaboradores, coworkers y herramientas”.

Pablo Fernández Burgueño cree que es el momento de empezar a plantearse estos aspectos y que “crear normativa a día de hoy sobre posibles desarrollos que vayan a crearse en el futuro es bastante razonable». «El problema es que estas normas tienen que estar basadas no solamente en lo que existe, o lo que se cree que va a existir en el futuro, sino en la forma de pensar de la sociedad”, precisa.

Otra cuestión importante: ¿está el sector legal preparado para reaccionar a la velocidad a la que se mueve la tecnología? Pablo Fernández Burgueño contesta que «tenemos herramientas suficientes para dar respuesta a todos los incidentes». «El problema será para el juez, quien tendrá que decidir, entendiendo por qué un programa de ordenador ha tomado una decisión determinada, que ha causado daños a personas”, advierte.

Para Paloma Llaneza son los desarrolladores quienes deben explicar cómo toman las decisiones las máquinas. Aunque, como matiza Ramón López de Mántaras, “existe un problema con las nuevas tendencias de la inteligencia artificial basadas en el ‘deep learning’, que se fundamenta en la detección de patrones, es imposible encontrar la explicación de por qué hacen bien algo, cuando lo han hecho bien, o por qué han fallado”.

La solución a todas estas trascendentales cuestiones es cuánta autonomía estamos dispuestos a dar a un sistema de Inteligencia Artificial, como es un robot o una máquina.

¿Te ha parecido interesante?

(+2 puntos, 2 votos)

Cargando...

Aviso Legal
Esta es la opinión de los internautas, no de diarioabierto.es
No está permitido verter comentarios contrarios a la ley o injuriantes.
Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
Su direcciónn de e-mail no será publicada ni usada con fines publicitarios.