COMPRAR HABLAR
/ō-pən-wä-shĭng/
Una acusación contra algunas empresas de inteligencia artificial de que están utilizando la etiqueta de “código abierto” de manera demasiado vaga.
Shop Talk explora los modismos del mundo empresarial: la jerga interna, los términos recién acuñados, las frases desafortunadas o usadas en exceso.
Existe un gran debate en el mundo de la tecnología sobre si los modelos de inteligencia artificial deberían ser de “código abierto”. Elon Musk, quien ayudó a fundar OpenAI en 2015, demandó a la startup y a su director ejecutivo, Sam Altman, alegando que la empresa se había desviado de su misión de apertura. La administración Biden está investigando los riesgos y beneficios de los modelos de código abierto.
Los defensores de los modelos de IA de código abierto dicen que son más equitativos y seguros para la sociedad, mientras que los detractores dicen que es más probable que se abuse de ellos con intenciones maliciosas. ¿Un gran contratiempo en el debate? No existe una definición acordada de lo que realmente significa la IA de código abierto. Y algunos están acusando a las empresas de inteligencia artificial de “lavado de cara”, es decir, de utilizar falsamente el término “fuente abierta” para quedar bien. (Las acusaciones de openwashing se han dirigido anteriormente a proyectos de codificación que utilizaban la etiqueta de código abierto de manera demasiado vaga).
En una publicación de blog sobre Open Future, un grupo de expertos europeo que apoya el código abierto, Alek Tarkowski escribió: “A medida que se escriben las reglas, un desafío es construir barreras de seguridad suficientes contra los intentos de las corporaciones de ‘lavado abierto’”. El mes pasado, la Fundación Linux, una organización sin fines de lucro que apoya proyectos de software de código abierto, advirtió que “esta tendencia de ‘lavado abierto’ amenaza con socavar la premisa misma de la apertura: el libre intercambio de conocimientos para permitir la inspección, la replicación y el avance colectivo”.
Las organizaciones que aplican la etiqueta a sus modelos pueden estar adoptando enfoques muy diferentes hacia la apertura. Por ejemplo, OpenAI, la startup que lanzó el chatbot ChatGPT en 2022, revela poco sobre sus modelos (a pesar del nombre de la empresa). Meta etiqueta sus modelos LLaMA 2 y LLaMA 3 como de código abierto, pero impone restricciones a su uso. Los modelos más abiertos, administrados principalmente por organizaciones sin fines de lucro, divulgan el código fuente y los datos de capacitación subyacentes, y utilizan una licencia de código abierto que permite una amplia reutilización. Pero incluso con estos modelos, existen obstáculos para que otros puedan replicarlos.
La razón principal es que, si bien el software de código abierto permite que cualquiera pueda replicarlo o modificarlo, construir un modelo de IA requiere mucho más que código. Sólo un puñado de empresas pueden financiar la potencia informática y la conservación de datos necesarias. Es por eso que algunos expertos dicen que etiquetar cualquier IA como “código abierto” es, en el mejor de los casos, engañoso y, en el peor, una herramienta de marketing.
“Incluso los sistemas de IA máximamente abiertos no permiten el acceso abierto a los recursos necesarios para ‘democratizar’ el acceso a la IA, o permitir un escrutinio completo”, dijo David Gray Widder, becario postdoctoral en Cornell Tech que ha estudiado el uso del “fuente abierto”. etiqueta por empresas de IA.
Se están realizando esfuerzos para crear una definición más clara de IA de código abierto. Investigadores de la Fundación Linux publicaron en marzo un marco que coloca los modelos de IA de código abierto en varias categorías. Y la Open Source Initiative, otra organización sin fines de lucro, está intentando redactar una definición.
Pero Widder y otros dudan de que una IA verdaderamente de código abierto sea posible. Los prohibitivos requisitos de recursos para construir modelos de IA, afirmó, “simplemente no van a desaparecer”.