Los límites de la Inteligencia Artificial

29/07/2017

Francisco Canós.

 

 

 

 

 

 

 

Hay que establecer los límites en donde se puede mover la Inteligencia Artificial. Si no lo hacemos e ignoramos este deber, seremos cómplices de sus consecuencias. Esta es la opinión de los mayores expertos, empresas e instituciones a nivel mundial. Estamos hablando de gente como Stephen Hawking o Elon Musk, de empresas como Amazon, Facebook, IBM o Microsoft. Cuanto antes tengamos este debate, mejor.

Que quede claro que soy un apasionado de la tecnología y un firme defensor de los avances en todos estos campos. La razón es bien simple, gracias a lo que ya hemos evolucionado y a lo que aún nos queda por evolucionar, está en nuestras manos crear un mundo mejor, más sano, más justo, más solidario y que nos cree las bases de lo que sin duda es nuestra siguiente frontera, que no es la Tierra sino el Universo.

Aclarado esto, el impacto de la Inteligencia Artificial va más allá de una mera herramienta manejada por nosotros. Estamos creando el origen de algo que no ha existido nunca antes. Es “algo” que aprende por sí mismo y puede llegar a tomar sus propias decisiones sin que estas estén necesariamente controladas por los humanos. Incluso a poder realizar acciones que ni tan siquiera hayan sido “programadas” por sus creadores. Es decir, estamos adentrándonos cada vez más en la creación de “algo” con capacidad de voluntad propia.

Se habla mucho de Inteligencia Artificial, pero ¿qué es realmente? Desde un punto de vista técnico, se define la Inteligencia Artificial como la capacidad que pueda tener un ordenador para realizar operaciones compatibles con el proceso de aprendizaje y toma de decisiones humana. El ser humano es algo prodigioso desde el punto de vista científico. Siempre me ha sorprendido la capacidad innata que tiene una tía mía para observar a un bebé recién nacido y establecer con absoluta rotundidad que la naricita es de la madre, los ojos del abuelo, o las orejitas de aquel tío segundo que las tenía exactamente igual. Bien, detrás de esta observación aparénteme tan “científica” se esconden unos procesos de aprendizaje, de cálculo comparativo, de memoria y de toma de decisión absolutamente prodigiosos. Sólo en los últimos años, con grandes inversiones y procesos de cálculo muy avanzados se está empezando a poder tener sistemas computerizados de reconocimiento facial fiables más allá de las típicas películas de ciencia-ficción o series de resolución de crímenes. Lo que los humanos (incluyo a las suegras) son capaces de hacer con la mayor naturalidad y sin aparente esfuerzo, esconde unos procesos que son la base de lo que conocemos como Inteligencia Artificial.

Recordemos, el proceso básico es el aprendizaje y la toma de decisiones basadas en ese aprendizaje. Ahí entra en juego la potencia de cálculo y memoria de los ordenadores (en sentido amplio). Nada que comparar con la humana. Es muchísimo mayor, y el distanciamiento entre lo que puede hacer un ordenador y el ser humano se va a incrementar exponencialmente. Los ordenadores cuánticos ya están aquí, y eso va a representar un salto cualitativo tremendo, dejando los actuales y potentes ordenadores en el más absoluto de los ridículos. ¿Qué significa esto? Pues que la capacidad de aprendizaje de un ordenador es, y va a ser aún más, muy superior a la de un ser humano. Eso significa capacidad no sólo de memorizar datos, sino de procesarlos y buscar relaciones entre ellos. Lo que los técnicos definen como la búsqueda de patrones. Ya saben lo que diría de esto mi tía.

Una vez hemos encontrado patrones, lo siguiente es analizar una situación nueva, ver qué patrón sigue o a cuál se parece, y por tanto estar en disposición de predecir la evolución de dicha situación. Siguiendo con mi querida tía, la pobre hace un tiempo se rompió la cadera. Desde entonces, cada vez que le duele observa que suele llover. Así que, si se levanta con esa sensación y tiene que salir de casa, se lleva un paraguas, aunque luzca el sol. Es decir, si fuese un ordenador con sistemas de Inteligencia Artificial, habría observado este patrón, y en caso de detectar ese dolor, establecería que va a llover ese día con gran probabilidad. Ahora estamos ante el punto crucial, el que realmente puede cambiar el mundo. La toma de decisiones basado en ese aprendizaje y en ese descubrimiento de patrones que hemos descrito. El caso de mi tía es bastante inocuo y se limita a llevar consigo un paraguas. En el caso de un ordenador sin límites puede ser muy grave. El cine nos ilustra con muchos ejemplos que por suerte se han limitado al celuloide. Quien no recuerda a Hal de Odisea en el espacio 2001, que decidía que su “vida” era más importante que la de los humanos. O del sistema Skynet de Terminator, que entendía que los humanos eran un peligro y había que tomar el control y eliminarlos. De las últimas aportaciones cinematográficas recomiendo ExMachina, en la que se plantea la creación de un “robot” humanoide (Ava) con Inteligencia Artificial y su evolución hasta tomar conciencia de su propia existencia. Animo a ver las consecuencias en la peli, pero no me gustaría hacer aquí un “spoiler”.

IBM está muy avanzado en este tema y tiene un proyecto multimillonario en el que ya lleva varios años desarrollándolo. Sus orígenes fueron las famosas versiones del Deep Blue que vencieron por primera vez a grandes maestros del ajedrez. Le llaman Watson y ya fue capaz de ganar un concurso en la tele denominado “jeopardy” allá en el año 2011. Microsoft tuvo que desconectar el año pasado a un bot (robot en redes sociales) denominado @tayandyou y diseñado con Inteligencia Artificial para mantener conversaciones automáticas en Twitter… porque se volvió racista!

Esto sigue siendo básicamente inocuo, entretenido y en algunos casos hasta jocoso, pero la base está ahí. Este mismo proceso que sirve para aprender y tomar decisiones en las redes sociales o en un juego de entretenimiento en la tele, también sirve para decidir si una persona puede ser potencialmente un terrorista y decidir eliminarla, bombardear una zona en conflicto, suplantar tu identidad, manipular una central nuclear, modificar una cirugía, o cambiar los componentes que se añaden al agua potable.

Ya en el siglo pasado, el genial Isaac Asimov proclamó sus famosas tres leyes de la robótica. Igual es necesario volver a ellas, ya no desde un punto de vista literario sino legal. Si no, las consecuencias ya las sabemos: “Volveré!”.

¿Te ha parecido interesante?

(+1 puntos, 3 votos)

Cargando…