El ‘padrino de la IA’ deja Google y advierte sobre los peligros de la tecnología

El científico informático Geoffrey Hinton, que estudia las redes neuronales utilizadas en aplicaciones de inteligencia artificial, posa en la sede de Google en Mountain View, California, el miércoles 25 de marzo de 2015. Hinton, el hombre ampliamente considerado como el “padrino” de la inteligencia artificial, dejó Google — con un mensaje compartiendo sus preocupaciones sobre los peligros potenciales derivados de la misma tecnología que ayudó a construir. (Foto AP/Noah Berger)  

Dijo que se retiró de Google para poder hablar sobre los riesgos potenciales como alguien que ya no trabaja para el gigante tecnológico.


WASHINGTON (AP) — Hacer sonar las alarmas sobre la inteligencia artificial se ha convertido en un pasatiempo popular en la era de ChatGPT, adoptado por figuras de alto perfil tan variadas como el industrial Elon Musk, el intelectual de izquierda Noam Chomsky y el estadista retirado de 99 años Henry Kissinger.

Pero son las preocupaciones de los expertos en la comunidad de investigación de IA las que están atrayendo una atención particular. Un investigador pionero y el llamado “padrino de la IA”, Geoffrey Hinton, renunció a su cargo en Google para poder hablar más libremente sobre los peligros de la tecnología que ayudó a crear.

A lo largo de su carrera de décadas, el trabajo pionero de Hinton sobre el aprendizaje profundo y las redes neuronales ayudó a sentar las bases de gran parte de la tecnología de inteligencia artificial que vemos hoy.

Algunos de los peligros de los chatbots de IA son “bastante aterradores”, dijo Hinton a la BBC . “En este momento, no son más inteligentes que nosotros, por lo que puedo decir. Pero creo que pronto lo serán”.

En una entrevista con MIT Technology Review , Hinton también señaló a los “malos actores” que pueden usar la IA de maneras que podrían tener un impacto perjudicial en la sociedad, como manipular elecciones o instigar la violencia.

Hinton, de 75 años, dice que se retiró de Google para poder hablar abiertamente sobre los riesgos potenciales como alguien que ya no trabaja para el gigante tecnológico.

“Quiero hablar sobre cuestiones de seguridad de la IA sin tener que preocuparme por cómo interactúa con el negocio de Google”, dijo a MIT Technology Review. “Mientras me pague Google, no puedo hacer eso”.

Google confirmó que Hinton se había retirado de su cargo después de 10 años supervisando el equipo de investigación de Google en Toronto.

Hinton no respondió de inmediato a una solicitud de comentarios de The Associated Press.

En el centro del debate sobre el estado de la IA está si los principales peligros están en el futuro o en el presente. Por un lado, están los escenarios hipotéticos de riesgo existencial causados ​​por computadoras que superan a la inteligencia humana. Por otro lado, están las preocupaciones sobre la tecnología automatizada que las empresas y los gobiernos ya están implementando ampliamente y que puede causar daños en el mundo real.

“Para bien o para mal, lo que ha hecho el momento del chatbot es hacer de la IA una conversación nacional e internacional que no solo incluye a expertos y desarrolladores de IA”, dijo Alondra Nelson, quien hasta febrero dirigió la Oficina de Ciencia y Tecnología de la Casa Blanca. Política tecnológica y su impulso para elaborar pautas sobre el uso responsable de las herramientas de IA.

“La IA ya no es abstracta, y tenemos este tipo de apertura, creo, para tener una nueva conversación sobre cómo queremos un futuro democrático y un futuro sin explotación con tecnología”, dijo Nelson en una entrevista el mes pasado.

Varios investigadores de IA han expresado durante mucho tiempo su preocupación por los prejuicios raciales, de género y de otro tipo en los sistemas de IA, incluidos los modelos de lenguaje extenso basados ​​en texto que se entrenan en grandes cantidades de escritura humana y pueden amplificar la discriminación que existe en la sociedad.

“Necesitamos dar un paso atrás y pensar realmente en las necesidades de quién se están poniendo al frente y en el centro de la discusión sobre los riesgos”, dijo Sarah Myers West, directora general de la organización sin fines de lucro AI Now Institute. “Los daños que están siendo promulgados por los sistemas de IA hoy en día en realidad no están distribuidos de manera uniforme. Está exacerbando en gran medida los patrones existentes de desigualdad”.

Hinton fue uno de los tres pioneros de la IA que en 2019 ganó el Premio Turing, un honor que se conoce como la versión del Premio Nobel de la industria tecnológica. Los otros dos ganadores, Yoshua Bengio y Yann LeCun, también expresaron su preocupación por el futuro de la IA.

Bengio, un académico y experto en IA, firmó una petición a fines de marzo en la que pedía a las empresas de tecnología que acordaran una pausa de 6 meses en el desarrollo de potentes sistemas de IA, mientras que LeCun, uno de los principales científicos de IA en la empresa matriz de Facebook, Meta, adoptó un enfoque más optimista.

KJ