Joseph Lord*|The Epoch Times

El ex CEO de Google, Eric Schmidt, dijo que podría llegar el momento de considerar «desconectar» tales sistemas.

El ex CEO de Google, Eric Schmidt, dijo que la inteligencia artificial (IA) autónoma está llegando, y que podría representar una amenaza existencial para la humanidad.

«Pronto vamos a poder tener computadoras funcionando por sí solas, decidiendo lo que quieren hacer», dijo Schmidt, quien durante mucho tiempo ha alertado tanto sobre los peligros como sobre los beneficios que la IA representa para la humanidad, durante una aparición el 15 de diciembre en «This Week» de ABC.

«Ese es un punto peligroso: cuando el sistema puede mejorarse a sí mismo, debemos pensar seriamente en desconectarlo», dijo Schmidt.

Schmidt está lejos de ser el primer líder tecnológico en plantear estas preocupaciones.

El auge de los productos de IA de consumo como ChatGPT no ha tenido precedentes en los últimos dos años, con importantes mejoras en el modelo basado en el lenguaje. Otros modelos de IA se han vuelto cada vez más hábiles en la creación de arte visual, fotografías y videos de larga duración que son casi indistinguibles de la realidad en muchos casos.

Para algunos, la tecnología recuerda a la serie «Terminator», que se centra en un futuro distópico en el que la IA se apodera del planeta, lo que lleva a resultados apocalípticos.

A pesar de todos los temores que han suscitado ChatGPT y plataformas similares, los servicios de IA para consumidores disponibles hoy en día siguen estando en una categoría que los expertos considerarían «IA tonta». Estas IA se entrenan con un conjunto masivo de datos, pero carecen de conciencia, sensibilidad o la capacidad de comportarse de forma autónoma.

Schmidt y otros expertos no están particularmente preocupados por estos sistemas.

Más bien, están preocupados por la IA más avanzada, conocida en el mundo de la tecnología como «inteligencia general artificial» (AGI), que describe sistemas de IA mucho más complejos que podrían tener sensibilidad y, por extensión, podrían desarrollar motivos conscientes independientes y potencialmente peligrosos para los intereses humanos.

Schmidt dijo que aún no existen tales sistemas hoy en día, y que nos estamos moviendo rápidamente hacia un nuevo tipo de IA intermedia: una que carece de la sensibilidad que definiría a un AGI, y que aún puede actuar de manera autónoma en campos como la investigación y el armamento.

«He hecho esto durante 50 años. Nunca he visto una innovación a esta escala», dijo Schmidt sobre los rápidos desarrollos en la complejidad de la IA.Schmidt dijo que una IA más desarrollada tendría muchos beneficios para la humanidad, y podría tener tantas «cosas malas como armas y ataques cibernéticos».

El reto

El desafío, dijo Schmidt, es multifacético.

A un nivel central, repitió un sentimiento común entre los líderes tecnológicos: si los sistemas autónomos similares a AGI son inevitables, se requerirá una cooperación masiva entre los intereses corporativos y los gobiernos internacionales para evitar consecuencias potencialmente devastadoras.

Es más fácil decirlo que hacerlo. La IA proporciona a los competidores estadounidenses como China, Rusia e Irán una ventaja potencial sobre Estados Unidos que sería difícil de lograr de otra manera.

También dentro de la industria tecnológica, actualmente existe una competencia masiva entre las principales corporaciones (Google, Microsoft y otras) para superar a sus rivales, una situación que plantea riesgos inherentes de protocolos de seguridad inadecuados para lidiar con una IA deshonesta, dijo Schmidt.

«La competencia es tan feroz que existe la preocupación de que una de las compañías decida omitir las medidas [de seguridad] y luego de alguna manera lanzar algo que realmente hace algún daño», dijo Schmidt. Tales daños solo se harían evidentes después del hecho, dijo.

El desafío es mayor en el escenario internacional, donde es probable que las naciones adversarias vean la nueva tecnología como revolucionaria por sus esfuerzos por desafiar la hegemonía global de Estados Unidos y expandir su propia influencia.

«Los chinos son inteligentes y entienden el poder de un nuevo tipo de inteligencia por su poderío industrial, su poderío militar y su sistema de vigilancia», dijo Schmidt.

Eso es un poco difícil para los líderes estadounidenses en el campo, que se ven obligados a equilibrar las preocupaciones existenciales por la humanidad con la posibilidad de que Estados Unidos se quede atrás de sus adversarios, lo que podría ser catastrófico para la estabilidad global.

En el peor de los casos, tales sistemas podrían ser utilizados para diseñar armas biológicas y nucleares paralizantes, particularmente por grupos terroristas como ISIS.Por esta razón, dijo Schmidt, es absolutamente crucial que Estados Unidos continúe innovando en el campo y, en última instancia, mantenga el dominio tecnológico sobre China y otros estados y grupos adversarios.

Los líderes de la industria exigen regulación

La regulación del campo sigue siendo insuficiente, dijo Schmidt. Pero espera que el enfoque de los gobiernos en mejorar las salvaguardas en torno a la tecnología se acelere drásticamente en los próximos años.

Cuando el presentador George Stephanopoulos le preguntó si los gobiernos estaban haciendo lo suficiente para regularlo, Schmidt respondió: «Todavía no, pero lo harán, porque tendrán que hacerlo».

A pesar de cierto interés inicial en el campo (audiencias, propuestas legislativas y otras iniciativas) que surgieron durante el actual 118º Congreso, esta sesión parece estar en camino de terminar sin ninguna legislación importante relacionada con la IA.

El presidente electo Donald Trump, por su parte, ha advertido de los enormes riesgos que plantea la IA, diciendo durante una aparición en el podcast «Impaulsive» de Logan Paul que es «algo realmente poderoso».

También habló de la necesidad de mantener la competitividad frente a los adversarios.

«Trae consigo dificultades, pero tenemos que estar a la vanguardia», dijo Trump. «Va a suceder, y si va a suceder, tenemos que tomar la delantera sobre China. China es la principal amenaza».

La visión de Schmidt sobre los beneficios y los desafíos de la tecnología se alinea con otras reacciones de la industria.

En junio de 2024, los empleados de OpenAI y Google firmaron una carta en la que advertían de los «graves riesgos» que planteaba la IA y pedían una mayor supervisión gubernamental del campo.

Elon Musk ha lanzado advertencias similares, diciendo que Google está tratando de crear un «Dios digital» a través de su programa de IA DeepMind.

En agosto, estas preocupaciones se intensificaron después de que se descubriera que una IA tomó medidas autónomas para evitar ser apagada, lo que generó temores de que la humanidad ya esté perdiendo el control sobre su creación a medida que los gobiernos permanecen inactivos.

♦♦♦

*Joseph Lord, es reportero del Congreso para The Epoch Times.

X …@PBolivariana