octubre 12, 2024

Meta ha hecho que su tecnología de inteligencia artificial sea de código abierto. Los rivales dicen que es un movimiento arriesgado.

En febrero, Meta hizo un movimiento inusual en el mundo rápidamente cambiante de la inteligencia artificial: decidió donar sus joyas de la corona de IA.

El gigante de Silicon Valley, dueño de Facebook, Instagram y WhatsApp, había creado una La tecnología de IA, llamada LLaMA, que puede impulsar chatbots en línea. Pero en lugar de quedarse con la tecnología para sí misma, Meta liberó el código informático subyacente del sistema. Académicos, investigadores del gobierno y otros que le dieron a Meta su dirección de correo electrónico pudieron descargar el código una vez que la empresa verificó al individuo.

Esencialmente, Meta ofreció su tecnología de IA como software de código abierto (código de computadora que podía copiarse, modificarse y reutilizarse libremente) brindando a los forasteros todo lo que necesitaban para crear rápidamente sus propios chatbots.

“La plataforma ganadora será la plataforma abierta”, dijo en una entrevista Yann LeCun, científico jefe de IA en Meta.

A medida que la carrera por liderar la IA se intensifica en Silicon Valley, Meta se destaca de sus rivales al adoptar un enfoque diferente de la tecnología. Impulsada por su fundador y CEO, Mark Zuckerberg, Meta cree que lo más inteligente es compartir sus motores de inteligencia artificial subyacentes para expandir su influencia y, en última instancia, avanzar más rápido hacia lo que se avecina.

Sus acciones contrastan con las de Google y OpenAI, las dos empresas que lideran la nueva carrera armamentista de la IA. Temiendo que las herramientas de IA, como los chatbots, se utilicen para difundir información errónea, discursos de odio y otros contenidos tóxicos, estas empresas se vuelven cada vez más reservadas sobre los métodos y el software detrás de sus productos de IA.

Google, OpenAI y otros han criticado a Meta, diciendo que un enfoque de código abierto sin restricciones es peligroso. El rápido aumento de la IA en los últimos meses ha hecho sonar las alarmas sobre los riesgos de la tecnología, incluida la forma en que podría alterar el mercado laboral si no se implementa correctamente. Y días después del lanzamiento de LLaMA, el sistema se filtró a 4chan, el foro de mensajes en línea conocido por difundir información falsa y engañosa.

«Queremos pensar más detenidamente sobre la publicación de detalles o el código fuente abierto» de la tecnología de IA, dijo Zoubin Ghahramani, vicepresidente de investigación de Google que ayuda a supervisar el trabajo de IA. . «¿Adónde puede conducir esto a un uso indebido?»

Pero Meta dijo que no vio ninguna razón para guardar su código para sí mismo. El secreto cada vez mayor en Google y OpenAI es un «gran error», dijo el Dr. LeCun, y una «interpretación realmente errónea de lo que está pasando». Argumenta que los consumidores y los gobiernos se negarán a adoptar la IA a menos que esté fuera del control de empresas como Google y Meta.

«¿Quieres que cada sistema de IA sea controlado por unas pocas corporaciones estadounidenses poderosas?» Él ha preguntado.

OpenAI se negó a comentar.

El enfoque de código abierto de Meta para la IA no es nuevo. La historia de la tecnología está plagada de batallas entre los sistemas de código abierto y los sistemas propietarios o cerrados. Algunos acumulan las herramientas más importantes que se utilizarán para construir las plataformas informáticas del mañana, mientras que otros las regalan. Más recientemente, Google abrió el sistema operativo móvil Android para hacer frente al dominio de los teléfonos inteligentes de Apple.

Muchas empresas han compartido abiertamente sus tecnologías de IA en el pasado, ante la insistencia de los investigadores. Pero sus tácticas están cambiando debido a la carrera en torno a la IA. Este cambio comenzó el año pasado cuando OpenAI lanzó ChatGPT. El rotundo éxito del chatbot ha ganado a los consumidores y ha impulsado la competencia de IA, con Google moviéndose rápidamente para integrar más IA en sus productos y Microsoft invirtiendo $ 13 mil millones en OpenAI.

Si bien Google, Microsoft y OpenAI han recibido desde entonces la mayor parte de la atención de la IA, Meta también ha invertido en la tecnología durante casi una década. La empresa ha gastado miles de millones de dólares en la creación del software y el hardware necesarios para fabricar chatbots y otras «IA generativas», que a su vez producen texto, imágenes y otros medios.

En los últimos meses, Meta ha estado trabajando arduamente detrás de escena para tejer sus años de investigación y desarrollo de IA en nuevos productos. Zuckerberg se enfoca en convertir a la empresa en un líder en IA, realizando reuniones semanales de IA con su equipo de liderazgo y gerentes de producto.

El mayor movimiento de IA de Meta en los últimos meses ha sido el lanzamiento de LLaMA, que se conoce como Modelo de lenguaje grande o LLM (LLaMA significa «Modelo de lenguaje grande Meta AI»). Los LLM son sistemas que aprenden habilidades analizando grandes cantidades de texto. , incluidos libros, artículos de Wikipedia y registros de chat. ChatGPT y el chatbot Bard de Google también se basan en dichos sistemas.

Los LLM identifican patrones en el texto que analizan y aprenden a generar su propio texto, incluidos trabajos finales, publicaciones de blog, poesía y código de computadora. Incluso pueden mantener conversaciones complejas.

En febrero, Meta lanzó abiertamente LLaMA, lo que permitió a académicos, investigadores gubernamentales y otras personas que proporcionaron su dirección de correo electrónico descargar el código y usarlo para crear su propio chatbot.

Pero la empresa ha ido más allá que muchos otros proyectos de IA de código abierto. Permitió a las personas descargar una versión de LLaMA después de recibir capacitación sobre grandes cantidades de texto digital extraído de Internet. Los investigadores llaman a esto «liberar los pesos», refiriéndose a los valores matemáticos particulares aprendidos por el sistema mientras analiza los datos.

Esto era importante porque analizar todos estos datos normalmente requiere cientos de chips informáticos especializados y decenas de millones de dólares, recursos que la mayoría de las empresas no tienen. Quienes tienen la influencia pueden implementar software de manera rápida, fácil y asequible, gastando una fracción de lo que de otro modo costaría crear un software tan poderoso.

Como resultado, muchos en la industria tecnológica creían que Meta había sentado un precedente peligroso. Y en cuestión de días, alguien publicó los pesos de LLaMA en 4chan.

En la Universidad de Stanford, los investigadores utilizaron la nueva tecnología de Meta para crear su propio sistema de inteligencia artificial, que se puso a disposición en Internet. Un investigador de Stanford llamado Moussa Doumbouya lo usó rápidamente para generar texto problemático, según capturas de pantalla vistas por The New York Times. En un caso, el sistema proporcionó instrucciones para deshacerse de un cadáver sin ser atrapado. También generó material racista, incluidos comentarios que respaldaban las opiniones de Adolf Hitler.

En una conversación privada entre los investigadores, que fue vista por The Times, Doumbouya dijo que distribuir la tecnología al público sería como «una granada disponible para todos en una tienda de comestibles». No respondió a una solicitud de comentarios.

Stanford eliminó rápidamente el sistema de IA de Internet. El proyecto fue diseñado para proporcionar a los investigadores tecnología que «capturó los comportamientos de los modelos de inteligencia artificial de vanguardia», dijo Tatsunori Hashimoto, el profesor de Stanford que dirigió el proyecto. «Eliminamos la demostración porque nos preocupaba cada vez más el potencial de uso indebido más allá de un marco de investigación».

El Dr. LeCun argumenta que este tipo de tecnología no es tan peligrosa como parece. Dijo que un pequeño número de personas ya puede generar y difundir desinformación y discurso de odio. Agregó que el material tóxico podría estar estrictamente limitado por redes sociales como Facebook.

«No se puede evitar que la gente cree información absurda o peligrosa ni nada», dijo. «Pero puedes evitar su transmisión».

Para Meta, más personas que usen software de código abierto también pueden nivelar el campo de juego mientras compite con OpenAI, Microsoft y Google. Si todos los desarrolladores de software del mundo crean programas utilizando herramientas Meta, podría ayudar a anclar a la empresa para la próxima ola de innovación, evitando la posible irrelevancia.

El Dr. LeCun también se refirió a la historia reciente para explicar por qué Meta está comprometida con la tecnología de IA de código abierto. Dijo que la evolución de Internet para el consumidor fue el resultado de estándares abiertos y comunes que ayudaron a construir la red de intercambio de conocimientos más rápida y generalizada que el mundo jamás haya visto.

“El progreso es más rápido cuando está abierto”, dijo. «Tienes un ecosistema más vibrante donde todos pueden contribuir».