Inicio Tecnología «Padrino de la IA» deja Google, advierte sobre los peligros de la...

«Padrino de la IA» deja Google, advierte sobre los peligros de la tecnología

25
El científico informático Geoffrey Hinton, que estudia las redes neuronales utilizadas en aplicaciones de inteligencia artificial, posa en la sede de Google en Mountain View, California

WASHINGTON (AP) — Hacer sonar las alarmas sobre la inteligencia artificial se ha convertido en un pasatiempo popular en la era de ChatGPT, adoptado por figuras de alto perfil tan variadas como el industrial Elon Musk, el intelectual de izquierda Noam Chomsky y el estadista retirado de 99 años Henry Kissinger.

Pero son las preocupaciones de los expertos en la comunidad de investigación de IA las que están atrayendo una atención particular. Un investigador pionero y el llamado «padrino de la IA», Geoffrey Hinton, renunció a su cargo en Google para poder hablar más libremente sobre los peligros de la tecnología que ayudó a crear.

A lo largo de su carrera de décadas, el trabajo pionero de Hinton sobre el aprendizaje profundo y las redes neuronales ayudó a sentar las bases de gran parte de la tecnología de inteligencia artificial que vemos hoy.

Ha habido un espasmo de introducciones de IA en los últimos meses. La startup OpenAI con sede en San Francisco, la empresa respaldada por Microsoft detrás de ChatGPT, lanzó su último modelo de inteligencia artificial, GPT-4, en marzo . Otros gigantes tecnológicos han invertido en herramientas de la competencia, incluido «Bard» de Google.

Algunos de los peligros de los chatbots de IA son «bastante aterradores», dijo Hinton a la BBC . “En este momento, no son más inteligentes que nosotros, por lo que puedo decir. Pero creo que pronto lo serán”.

En una entrevista con MIT Technology Review , Hinton también señaló a los «malos actores» que pueden usar la IA de maneras que podrían tener un impacto perjudicial en la sociedad, como manipular elecciones o instigar la violencia.

Hinton, de 75 años, dice que se retiró de Google para poder hablar abiertamente sobre los riesgos potenciales como alguien que ya no trabaja para el gigante tecnológico.

“Quiero hablar sobre cuestiones de seguridad de la IA sin tener que preocuparme por cómo interactúa con el negocio de Google”, dijo a MIT Technology Review. “Mientras me pague Google, no puedo hacer eso”.

Desde que anunció su partida, Hinton ha sostenido que Google ha “actuado de manera muy responsable” con respecto a la IA. Le dijo a MIT Technology Review que también hay «muchas cosas buenas sobre Google» de las que le gustaría hablar, pero esos comentarios serían «mucho más creíbles si ya no estoy en Google».

Google confirmó que Hinton se había retirado de su cargo después de 10 años supervisando el equipo de investigación de Google en Toronto.

Hinton declinó hacer más comentarios el martes, pero dijo que hablaría más al respecto en una conferencia el miércoles.

En el centro del debate sobre el estado de la IA está si los principales peligros están en el futuro o en el presente. Por un lado, están los escenarios hipotéticos de riesgo existencial causados ​​por computadoras que superan a la inteligencia humana. Por otro lado, están las preocupaciones sobre la tecnología automatizada que las empresas y los gobiernos ya están implementando ampliamente y que puede causar daños en el mundo real.

“Para bien o para mal, lo que ha hecho el momento del chatbot es hacer de la IA una conversación nacional e internacional que no solo incluye a expertos y desarrolladores de IA”, dijo Alondra Nelson, quien hasta febrero dirigió la Oficina de Ciencia y Tecnología de la Casa Blanca. Política tecnológica y su impulso para elaborar pautas sobre el uso responsable de las herramientas de IA.

“La IA ya no es abstracta, y tenemos este tipo de apertura, creo, para tener una nueva conversación sobre cómo queremos un futuro democrático y un futuro sin explotación con tecnología”, dijo Nelson en una entrevista el mes pasado.

Varios investigadores de IA han expresado durante mucho tiempo su preocupación por los prejuicios raciales, de género y de otro tipo en los sistemas de IA, incluidos los modelos de lenguaje extenso basados ​​en texto que se entrenan en grandes cantidades de escritura humana y pueden amplificar la discriminación que existe en la sociedad.