El ‘padrino’ de la IA abandona Google para alertar de los riesgos para la sociedad

02/05/2023

diarioabierto.es. Geoffrey Hinton cree que la regulación no frenará la escalada en la inteligencia artificial, y pide a los científicos que la controlen.

Geoffrey Hinton, conocido como ‘el padrino’ de la inteligencia artificial (IA), deja su puesto de vicepresidente de Google para alertar sobre los desarrollos que actualmente se están haciendo con esta tecnología y los riesgos que plantean para la sociedad.

Los desarrollos más recientes de inteligencia artificial generativa han puesto sobre la mesa los riesgos que esta herramienta plantea para la sociedad y la humanidad, como recogen algunos de los líderes del sector en una carta abierta compartida a finales de marzo, entre los que figuran Steve Wozniak, Jaan Tallinn o Elon Musk.

Días después apareció una segunda carta abierta, en esta ocasión firmada por miembros de la Asociación por el Avance de la Inteligencia Artificial, como Francesca Rossi, de IBM, o Eric Horvitz, de Microsoft.

Ninguna de ellas contó con la firma de Hinton, quien llevaba diez años trabajando para Google precisamente en el área de IA, y no quería criticar abiertamente a la empresa para la que trabajaba.

El sobrenombre del ‘padrino’ de la inteligencia artificial nace de su larga carrera dedicada por convicción al desarrollo y uso de la IA, de la que en cierta forma se arrepiente. «Me consuelo con la excusa normal: si yo no lo hubiera hecho, alguien más lo habría hecho», explica en una entrevista a The New York Times.

Le preocupa que los contenidos generados por herramientas de IA como ChatGPT o Dall-E llenen Internet de textos, fotografías y vídeos que no permitan a una persona media distinguir lo que es real. También el impacto que tendrá en el mercado laboral, donde cree que podría quitar más que el trabajo pesado.

También advierte sobre las empresas que permiten que las herramientas de IA no solo generen su propio código sino también ejecuten dicho código por sí solas, y sobre el desarrollo de armas autónomas.

«La idea de que estas cosas podrían ser más inteligentes que las personas, algunas personas lo creyeron. Pero la mayoría de la gente pensó que estaba muy lejos», apunta, reconociendo que él también veía este desarrollo a más distancia, a 30 años o a 50 años.

Hinton no cree que Google y Microsoft «deban escalar esto más hasta que hayan entendido si pueden controlarlo». Entiende que es necesaria una regulación que ponga freno a la escalada, pero no cree que sea suficiente y por ello apunta a la necesidad de que los principales científicos colaboren para controlar la tecnología.

¿Te ha parecido interesante?

(Sin votos)

Cargando...

Aviso Legal
Esta es la opinión de los internautas, no de diarioabierto.es
No está permitido verter comentarios contrarios a la ley o injuriantes.
Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
Su direcciónn de e-mail no será publicada ni usada con fines publicitarios.