Conoce las 3 etapas de la Inteligencia Artificial y cuál podría ser un peligro para la especie humana

Las 3 etapas de la Inteligencia Artificial: en cuál estamos y por qué muchos piensan que la tercera puede ser fatal

Desde que se lanzó a finales de noviembre 2022, ChatGPT, el chatbot que usa inteligencia artificial (IA) para responder preguntas o generar textos a pedido de usuarios, se ha convertido en la aplicación de internet con el crecimiento más rápido de la historia.

En apenas dos meses llegó a tener 100 millones de usuarios activos. A la popular app TikTok le tardó nueve meses alcanzar ese hito. Y a Instagram dos años y medio, según datos de la empresa de monitoreo tecnológico Sensor Town.

«En los 20 años que llevamos siguiendo internet, no podemos recordar un incremento más veloz de una aplicación de internet para consumidores», afirmaron analistas de UBS, quienes reportaron el récord en febrero.

La masiva popularidad de ChatGPT, desarrollado por la empresa OpenAI, con respaldo financiero de Microsoft, ha despertado todo tipo de discusiones y especulaciones sobre el impacto que ya está teniendo y que tendrá en nuestro futuro cercano la inteligencia artificial generativa.

Se trata de la rama de la IA que se dedica a generar contenido original a partir de datos existentes (usualmente sacados de internet) en respuesta a instrucciones de un usuario.

Los textos (desde ensayos, poesías y chistes hasta códigos de computación) e imágenes (diagramas, fotos, obras de arte de cualquier estilo y mucho más) producidos por IA generativas como ChatGPT, DALL-E, Bard y AlphaCode -para nombrar solo algunas de las más conocidas- son, en algunos casos, tan indistinguibles del trabajo humano, que ya han sido usados por miles de personas para reemplazar su labor habitual.

Desde estudiantes que los usan para hacerle los deberes hasta políticos que les encomiendan sus discursos -el representante demócrata Jake Auchincloss estrenó el recurso en el Congreso de EE.UU.- o fotógrafos que inventan instantáneas de cosas que no ocurrieron (e incluso ganan premios por ello, como el alemán Boris Eldagsen, quien obtuvo el primer puesto en el último Sony World Photography Award por una imagen creada por IA).

Esta misma nota podría haber sido escrita por una máquina y probablemente no te darías cuenta.

El fenómeno ha llevado a una revolución de los recursos humanos, con empresas como el gigante tecnológico IBM anunciando que dejará de contratar a personas para cubrir cerca de 8.000 puestos de trabajo que podrán ser manejados por IA.

Un informe del banco de inversión Goldman Sachs estimó a finales de marzo que la IA podría reemplazar a un cuarto de todos los empleos realizados hoy por humanos, aunque también creará más productividad y nuevos trabajos.

A medida que avanza la IA, mayor es su capacidad de reemplazar nuestro trabajo.

Si todos estos cambios te abruman, prepárate para un dato que podría resultarte aún más desconcertante.

Y es que, con todos sus impactos, lo que estamos viviendo ahora es apenas la primera etapa en el desarrollo de la IA.

Según los expertos, lo que podría venir pronto -la segunda etapa- será muchísimo más revolucionaria.

Y la tercera y última, que podría ocurrir muy poco tiempo después de aquella, es tan avanzada que alterará completamente al mundo, incluso a costa de la existencia del ser humano.

3. Súper Inteligencia Artificial (ASI)

La preocupación de estos científicos informáticos tiene que ver con una teoría muy establecida que sostiene que, cuando alcancemos la AGI, poco tiempo después se arribará al último estadio en el desarollo de esta tecnología: la Artificial Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana.

El filósofo de la Universidad de Oxford y experto en IA Nick Bostrom define a la súper inteligencia como «un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales».

La teoría es que cuando una máquina logre tener una inteligencia a la par con la humana, su capacidad de multiplicar esa inteligencia de forma exponencial a través de su propio aprendizaje autónomo hará que en poco tiempo nos supere ampliamente, alcanzando la ASI.

«Los humanos para ser ingenieros, enfermeros o abogados debemos estudiar por muchísimo tiempo. El tema con la AGI es que es escalable de inmediato», señala Gutiérrez.

Esto es gracias a un proceso llamado superación personal recursiva (recursive self-improvement) que permite a una aplicación de IA «continuamente mejorarse, en un tiempo que nosotros no podríamos hacerlo».

Si bien existe mucho debate sobre si una máquina realmente puede adquirir el tipo de inteligencia amplia que tiene un ser humano -en especial en lo que hace a la inteligencia emocional-, es una de las cosas que más preocupa a quienes creen que estamos cerca de lograr la AGI.

Recientemente, el llamado «padrino de la inteligencia artificial» Geoffrey Hinton, pionero en la investigación de redes neuronales y aprendizaje profundo que permiten a las máquinas aprender de la experiencia, igual que los humanos, alertó en una entrevista con la BBC que podríamos estar cerca de ese hito.

«En este momento (las máquinas) no son más inteligentes que nosotros, por lo que puedo ver. Pero creo que pronto podrían serlo«, dijo el hombre de 75 años, quien acaba de retirarse de Google.

Extinción o inmortalidad

Existen, en reglas generales, dos campos de pensamiento con relación a la ASI: están los que creen que esta superinteligencia será beneficiosa para la humanidad y los que creen todo lo contrario.

Entre estos últimos estaba el famoso físico británico Stephen Hawking, quien creía que las máquinas súper inteligentes representaban una amenaza para nuestra existencia.

Stephen Hawking durante el lanzamiento del Centro Leverhulme para el Futuro de la Inteligencia (CFI), en la Universidad de Cambridge, el 19 de octubre de 2016.

Fuente de la imagen, Getty Images

Pie de foto, El distinguido físico británico Stephen Hawking creía que la IA súper inteligente podía llevar al «fin de la raza humana».

«El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana«, le dijo a la BBC en 2014, cuatro años antes de morir.

Una máquina con este nivel de inteligencia «despegaría por sí sola y se rediseñaría a un ritmo cada vez mayor», señaló.

«Los humanos, que están limitados por una evolución biológica lenta, no podrían competir y serían superados», predijo.

Sin embargo, en el bando opuesto creen todo lo contrario.

Uno de los mayores entusiastas de la ASI es el inventor y autor futurista estadounidense Ray Kurzweil, investigador de IA en Google y cofundador de la Universidad de la Singularidad en Sillicon Valley (la «singularidad» es otra manera de llamar a la era en la que las máquinas se tornan súper inteligentes).

Kurzweil cree que los humanos podremos utilizar la IA súper inteligente para superar nuestras barreras biológicas, mejorando nuestras vidas y nuestro mundo.

En 2015 incluso predijo que para el año 2030 los humanos lograremos alcanzar la inmortalidad gracias a nanobots (robots ínfimamente pequeños) que actuarán dentro de nuestro cuerpo, reparando y curando cualquier daño o enfermedad, incluyendo el causado por el paso del tiempo.

En su declaración ante el Congreso este martes, Sam Altman, de OpenAI, también se mostró optimista sobre el potencial de la IA, señalando que podría resolver «los mayores desafíos de la humanidad, como el cambio climático y la cura del cáncer».

En el medio están las personas, como Hinton, que creen que la IA tiene enorme potencial para la humanidad, pero consideran que el ritmo de desarrollo actual, sin regulaciones y límites claros, es «preocupante».

En una declaración enviada a The New York Times anunciando su salida de Google, Hinton, dijo que ahora lamentaba el trabajo que había realizado, porque temía que «malos actores» utilizaran la IA para hacer «cosas malas».

Geoffrey Hinton

Fuente de la imagen, Reuters

Pie de foto, Geoffrey Hinton le dijo a la BBC que los avances en la IA le «dan miedo».

Consultado por la BBC dio este ejemplo de un «escenario de pesadilla»:

«Imagina, por ejemplo, que algún mal actor como [el presidente ruso Vladimir] Putin decidiera dar a los robots la capacidad de crear sus propios subobjetivos».

Las máquinas podrían eventualmente «crear subobjetivos como: ‘necesito obtener más poder‘», lo que representaría un «riesgo existencial», señaló.

Al mismo tiempo, el experto británico-canadiense dijo que, en el corto plazo, la IA brindará muchos más beneficios que riesgos, por lo que «no debemos dejar de desarrollarla».

«El tema es: ahora que hemos descubierto que funciona mejor de lo que esperábamos hace unos años ¿qué hacemos para mitigar los riesgos a largo plazo de que cosas más inteligentes que nosotros tomen el control?».

Guitérrez coincide en que la clave es crear un sistema de gobernanza de la IA antes de que se desarrolle una inteligencia que puede tomar decisiones propias.

«¿Si se crean estos entes que tienen su propia motivación, qué significa cuando nosotros ya no estamos en control de esas motivaciones?», plantea.

El experto señala que el peligro no es solo que una AGI o ASI, ya sea por motivación propia o controlada por personas con «objetivos malos», inicie una guerra o manipule el sistema financiero, productivo, la infraestructura energética, de transporte o cualquier otro sistema que hoy está computarizado.

Una superinteligencia podría dominarnos de una manera mucho más sutil, advierte.

«Imagínate un futuro en que un ente tenga tanta información sobre cada persona en el planeta y sus hábitos (gracias a nuestras búsquedas en internet) que nos podría controlar de una manera que no nos daríamos cuenta», afirma.

«El peor escenario no es que haya guerras de humanos contra robots. Lo peor es que no nos demos cuenta de que estamos siendo manipulados porque estamos compartiendo el planeta con un ente que es mucho más inteligente que nosotros».

Acerca de Milton Castillo 465 Articles
Soy W. Miltón Castillo, toco la bateria en una banda de Rock and Roll, en mis tiempos libres me dedico a escribir.

Be the first to comment

Leave a Reply

Tu dirección de correo no será publicada.


*