Aquí hay algunas cosas que creo sobre la inteligencia artificial:

Creo que en los últimos años, AI Systems ha comenzado a superar a los humanos en varios dominios (matemáticas, codificación y diagnóstico médico, solo por nombrar algunos, y que están mejorando cada día.

Creo que muy pronto, probablemente en 2026 o 2027, pero posiblemente tan pronto como este año, una o más compañías de IA afirmarán que han creado una inteligencia general artificial, o AGI, que generalmente se define como algo como “un sistema de IA de propósito general que puede hacer casi todas las tareas cognitivas que un humano puede hacer”.

Creo que cuando se anuncie AGI, habrá debates sobre definiciones y argumentos sobre si cuenta o no como “real” AGI, pero que estos no importarán, porque el punto más amplio, que estamos perdiendo nuestro monopolio de la inteligencia a nivel humano y la transición a un mundo con sistemas de IA muy poderosos en él, será cierto.

Creo que durante la próxima década, la poderosa IA generará billones de dólares en valor económico e inclinará el equilibrio de poder político y militar hacia las naciones que lo controlan, y que la mayoría de los gobiernos y las grandes corporaciones ya ven esto como obvio, como lo evidencian las enormes sumas de dinero que están gastando para llegar allí primero.

Creo que la mayoría de las personas e instituciones no están totalmente preparadas para los sistemas de IA que existen hoy en día, y mucho menos, y y mucho menos más poderoso, y que no existe un plan realista en ningún nivel de gobierno para mitigar los riesgos o capturar los beneficios de estos sistemas.

Creo que los escépticos de IA endurecidos, que insisten en que el progreso es todo humo y espejos, y que descartan a AGI como una fantasía delirante, no solo están mal en los méritos, sino que están dando a las personas una falsa sensación de seguridad.

Creo que si crees que AGI será excelente o terrible para la humanidad, y honestamente, puede ser demasiado pronto para decirlo, su llegada plantea importantes preguntas económicas, políticas y tecnológicas a las que actualmente no tenemos respuestas.

Creo que el momento adecuado para comenzar a prepararse para AGI es ahora.

Todo esto puede sonar loco. Pero no llegué a estos puntos de vista como un futurista de ojos estrellados, un inversor promocionando mi cartera de IA o un tipo que tomó demasiados hongos mágicos y vio “Terminator 2”.

Llegué a ellos como periodista que ha pasado mucho tiempo hablando con los ingenieros que construyen sistemas de IA poderosos, los inversores lo financian y los investigadores que estudian sus efectos. Y he llegado a creer que lo que está sucediendo en AI en este momento es más grande de lo que la mayoría de la gente entiende.

En San Francisco, donde estoy basado, la idea de AGI no es marginal o exótica. La gente aquí habla de “sentir el agi”, y construir sistemas de IA más inteligentes que los humanos se ha convertido en el objetivo explícito de algunas de las compañías más grandes de Silicon Valley. Cada semana, conozco a los ingenieros y empresarios que trabajan en la IA que me dicen que el cambio (gran cambio, cambio en el mundo, el tipo de transformación que nunca antes habíamos visto) está a la vuelta de la esquina.

“Durante el año pasado o dos, lo que solía llamarse” líneas de tiempo cortas “(pensando que AGI probablemente se construiría esta década) se ha convertido en un consenso cercano”, me dijo recientemente Miles Brundage, un investigador de políticas de IA independiente que se fue OpenAi el año pasado.

Fuera del Área de la Bahía, pocas personas incluso han oído hablar de AGI, y mucho menos comenzaron a planificarlo. Y en mi industria, los periodistas que toman el progreso de la IA en serio aún corren el riesgo de que se burlen de los grúos o las chelines de la industria.

Honestamente, obtengo la reacción. A pesar de que ahora tenemos sistemas de IA que contribuyen a los avances ganadores del Premio Nobel, y aunque 400 millones de personas por semana están usando ChatGPT, gran parte de la IA que la gente encuentra en su vida cotidiana es una molestia. Simpatizo con las personas que ven la IA se engrasan en sus feeds de Facebook, o tengo una interacción torpe con un chatbot de servicio al cliente y piensan: Este ¿Lo que se apoderará del mundo?

También solía burlarme de la idea. Pero he llegado a creer que estaba equivocado. Algunas cosas me han persuadido para que me tome el progreso de la IA más en serio.

Lo más desorientador de la industria de IA actual es que las personas más cercanas a la tecnología, los empleados y ejecutivos de los principales laboratorios de IA, tienden a ser las más preocupadas por lo rápido que está mejorando.

Esto es bastante inusual. En 2010, cuando estaba cubriendo el surgimiento de las redes sociales, nadie dentro de Twitter, Foursquare o Pinterest advirtieron que sus aplicaciones podrían causar el caos social. Mark Zuckerberg no estaba probando Facebook para encontrar evidencia de que podría usarse para crear nuevos biowapons o llevar a cabo ataques cibernéticos autónomos.

Pero hoy, las personas con la mejor información sobre el progreso de la IA (las personas que construyen una poderosa IA, que tienen acceso a sistemas más avanzados de lo que el público en general ve, nos dicen que los grandes cambios están cerca. Las principales compañías de inteligencia artificial se están preparando activamente para la llegada de AGI, y están estudiando propiedades potencialmente aterradoras de sus modelos, como si son capaces de planear y engaño, en anticipación de que se vuelven más capaces y autónomos.

Sam Altman, el director ejecutivo de Openai, ha escrito que “los sistemas que comienzan a señalar a AGI están apareciendo a la vista”.

Demis Hassabis, director ejecutivo de Google Deepmind, dijo que AGI probablemente está “a tres o cinco años de distancia”.

Dario Amodei, el director ejecutivo de Anthrope (a quien no le gusta el término AGI pero está de acuerdo con el principio general), me dijo el mes pasado que creía que estábamos a unos años o dos de tener “una gran cantidad de sistemas de IA que son mucho más inteligentes que los humanos en casi todo”.

Tal vez deberíamos descartar estas predicciones. Después de todo, los ejecutivos de IA se beneficiarán de la exageración de AGI inflado, y podrían tener incentivos para exagerar.

Pero muchos expertos independientes, incluidos Geoffrey Hinton y Yoshua Bengio, dos de los investigadores de IA más influyentes del mundo, y Ben Buchanan, quien era el principal experto en IA de la administración Biden, dicen cosas similares. También lo son una gran cantidad de otros economistas prominentes, matemáticos y funcionarios de seguridad nacional.

Para ser justos, algunos expertos dudan de que AGI sea inminente. Pero incluso si ignora a todos los que trabajan en compañías de IA, o tienen una participación adquirida en el resultado, todavía hay suficientes voces independientes creíbles con plazos AGI cortos que deberíamos tomarlos en serio.

Para mí, tan persuasiva como la opinión experta es la evidencia de que los sistemas de IA de hoy están mejorando rápidamente, de manera bastante obvia para cualquier persona que los use.

En 2022, cuando Operai lanzó ChatGPT, los principales modelos de IA lucharon con la aritmética básica, con frecuencia fallaron en problemas de razonamiento complejos y, a menudo, “alucinados” o inventaron hechos inexistentes. Los chatbots de esa época podrían hacer cosas impresionantes con la solicitud correcta, pero nunca usarías uno para nada de importancia crítica.

Los modelos de IA de hoy son mucho mejores. Ahora, los modelos especializados están colocando puntajes a nivel medallista en la Olimpiada Internacional de Matemáticas, y los modelos de propósito general se han vuelto tan buenos en la resolución compleja de problemas que hemos tenido que crear pruebas nuevas y más difíciles para medir sus capacidades. Aún ocurren alucinaciones y errores objetivos, pero son más raros en modelos más nuevos. Y muchas empresas ahora confían en los modelos de IA lo suficiente como para convertirlos en funciones centrales orientadas al cliente.

(El New York Times ha demandado a Openai y su socio, Microsoft, acusándolos de la infracción de derechos de autor del contenido de noticias relacionados con los sistemas de IA. Openai y Microsoft han negado las afirmaciones).

Parte de la mejora es una función de la escala. En la IA, los modelos más grandes, capacitados con más datos y potencia de procesamiento, tienden a producir mejores resultados, y los modelos principales de hoy son significativamente más grandes que sus predecesores.

Pero también se deriva de los avances que los investigadores de IA han hecho en los últimos años, sobre todo, el advenimiento del “razonamiento” modelos, que están construidos para dar un paso computacional adicional antes de dar una respuesta.

Los modelos de razonamiento, que incluyen O1 de OpenAI y R1 de Deepseek, están entrenados para trabajar a través de problemas complejos y se construyen utilizando el aprendizaje de refuerzo, una técnica que se utilizó para enseñar a la IA a jugar el juego de mesa en un nivel sobrehumano. Parecen estar teniendo éxito en las cosas que dispararon modelos anteriores. (Solo un ejemplo: GPT-4O, un modelo estándar publicado por OpenAI, obtuvo un 9 por ciento en AIME 2024, un conjunto de problemas de matemáticas de competencia extremadamente duras; O1, un modelo de razonamiento que Operai lanzó varios meses después, obtuvo un 74 por ciento en la misma prueba).

A medida que estas herramientas mejoran, se están volviendo útiles para muchos tipos de trabajo de cuello blanco. Mi colega Ezra Klein escribió recientemente que los resultados de la investigación profunda de Chatgpt, una característica premium que produce escritos analíticos complejos, fueron “al menos la mediana” de los investigadores humanos con los que había trabajado.

También he encontrado muchos usos para las herramientas de IA en mi trabajo. No uso la IA para escribir mis columnas, pero la uso para muchas otras cosas: prepararme para entrevistas, resumir trabajos de investigación, construir aplicaciones personalizadas para ayudarme con tareas administrativas. Nada de esto fue posible hace unos años. Y me parece inverosímil que cualquiera que use estos sistemas regularmente para un trabajo serio pueda concluir que hayan alcanzado una meseta.

Si realmente quieres comprender cuánto mejor AI ha obtenido recientemente, hable con un programador. Hace un año o dos, existían herramientas de codificación de IA, pero estaban dirigidos más a acelerar a los codificadores humanos que a reemplazarlas. Hoy, los ingenieros de software me dicen que la IA hace la mayor parte de la codificación real para ellos, y que cada vez más sienten que su trabajo es supervisar los sistemas de IA.

Jared Friedman, socio de Y Combinator, un acelerador de inicio, recientemente dijo que una cuarta parte del lote actual de las nuevas empresas del acelerador estaba usando IA para escribir casi todo su código.

“Hace un año, habrían construido su producto desde cero, pero ahora el 95 por ciento está construido por una IA”, dijo.

En el espíritu de la humildad epistémica, debo decir que yo, y muchos otros, podríamos estar equivocados sobre nuestros plazos.

Tal vez el progreso de la IA alcanzará un cuello de botella que no esperábamos, una escasez de energía que impide que las compañías de IA construyan centros de datos más grandes o un acceso limitado a los poderosos chips utilizados para entrenar modelos de IA. Tal vez las arquitecturas de modelos de hoy y las técnicas de capacitación no pueden llevarnos hasta AGI, y se necesitan más avances.

Pero incluso si AGI llega una década más tarde de lo que espero, en 2036, en lugar de 2026, creo que deberíamos comenzar a prepararnos para ello ahora.

La mayoría de los consejos que he escuchado sobre cómo las instituciones deberían prepararse para AGI se reducen a las cosas que deberíamos hacer de todos modos: modernizar nuestra infraestructura energética, endurecer nuestras defensas de seguridad cibernética, acelerar la tubería de aprobación para las drogas de IA diseñados con IA, escribir regulaciones para evitar los daños de IA más graves, enseñar alfabetización de IAI y priorizar el desarrollo social y emocional sobre las habilidades técnicas que pronto o el be-weoleting. Todas estas son ideas sensatas, con o sin agi

A algunos líderes tecnológicos les preocupa que los temores prematuros sobre AGI nos hagan regular la IA de manera demasiado agresiva. Pero la administración Trump ha señalado que quiere acelerar el desarrollo de la IA, no reducirlo. Y se está gastando suficiente dinero para crear la próxima generación de modelos de IA, cientos de miles de millones de dólares, con más en camino, que parece poco probable que las principales compañías de IA bombeen los frenos voluntariamente.

Tampoco me preocupo por las personas sobrepreperando para AGI. Un riesgo mayor, creo, es que la mayoría de la gente no se dará cuenta de que la IA poderosa está aquí hasta que los está mirando a la cara, eliminando su trabajo, atrapándolos en una estafa, dañándolos o a alguien que aman. Esto es, más o menos, lo que sucedió durante la era de las redes sociales, cuando no reconocimos los riesgos de herramientas como Facebook y Twitter hasta que fueron demasiado grandes y arraigados para cambiar.

Es por eso que creo en tomar en serio la posibilidad de AGI ahora, incluso si no sabemos exactamente cuándo llegará o precisamente qué forma tomará.

Si estamos en negación, o si simplemente no estamos prestando atención, podríamos perder la oportunidad de dar forma a esta tecnología cuando más importa.

Compartir
Exit mobile version