La Comisión Federal de Comercio ha abierto una investigación sobre OpenAI, la startup de inteligencia artificial que fabrica ChatGPT, para averiguar si el chatbot perjudicó a los consumidores a través de su recopilación de datos y publicación de información falsa sobre personas.
En una carta de 20 páginas enviada a la empresa de San Francisco esta semana, la agencia dijo que también estaba revisando las prácticas de seguridad de OpenAI. La FTC le hizo a OpenAI docenas de preguntas en su carta, incluida la forma en que la startup entrena sus modelos de IA y procesa datos personales, y dijo que la compañía debería proporcionarle a la agencia documentos y detalles.
La FTC está revisando si OpenAI «se ha involucrado en prácticas desleales o engañosas relacionadas con la privacidad o la seguridad de los datos o si se ha involucrado en prácticas desleales o engañosas relacionadas con el riesgo de daño a los consumidores», dice la carta.
la encuesta fue informado anteriormente por el Washington Post y confirmado por una persona familiarizada con la investigación. OpenAI se negó a comentar.
La investigación de la FTC representa la primera gran amenaza regulatoria en los Estados Unidos para OpenAI, una de las empresas de IA más destacadas, y señala que la tecnología podría estar bajo un escrutinio cada vez mayor a medida que las personas, las empresas y los gobiernos utilizan más productos impulsados por IA. La tecnología en rápida evolución ha hecho sonar las alarmas ya que los chatbots, que pueden generar respuestas en respuesta a avisos, tienen el potencial de reemplazar a las personas en sus trabajos y difundir información errónea.
Sam Altman, quien dirige OpenAI, dijo que la industria de IA de rápido crecimiento necesita ser regulada. En mayo, testificó en el Congreso para instar a la legislación de IA y visitó a cientos de legisladores, con el objetivo de establecer una agenda política para la tecnología.
“Creo que si esta tecnología sale mal, puede salir mal”, dijo en la audiencia de mayo. “Queremos trabajar con el gobierno para evitar que esto suceda”.
OpenAI ya ha estado bajo presión regulatoria a nivel internacional. En marzo, la autoridad de protección de datos de Italia prohibió ChatGPT, diciendo que OpenAI estaba recopilando ilegalmente datos personales de los usuarios y carecía de un sistema de verificación de edad para evitar que los menores estuvieran expuestos a material ilegal. OpenAI restauró el acceso al sistema el mes siguiente, diciendo que había realizado los cambios solicitados por las autoridades italianas.
La FTC está actuando sobre la IA con notable rapidez, iniciando una investigación menos de un año después de que OpenAI introdujera ChatGPT. Lina Khan, presidenta de la FTC, dijo que las empresas de tecnología deben ser reguladas mientras las tecnologías son incipientes, en lugar de solo cuando maduran.
En el pasado, la agencia solía abrir investigaciones después de un paso en falso público importante por parte de una empresa, como abrir una investigación sobre las prácticas de privacidad de Meta después de informar que compartió datos de usuarios con una firma de consultoría política, Cambridge Analytica, en 2018.
La Sra. Khan, quien testificó el jueves en una audiencia del comité de la Cámara sobre las prácticas de la agencia, dijo anteriormente que la industria de la IA necesita un escrutinio.
“Si bien estas herramientas son nuevas, no están exentas de las reglas existentes, y la FTC hará cumplir enérgicamente las leyes que estamos encargados de administrar, incluso en este nuevo mercado”, escribió en un artículo de opinión del New York Times en mayo. . «A medida que la tecnología avanza rápidamente, ya podemos ver varios riesgos».
La investigación podría obligar a OpenAI a revelar sus métodos para construir ChatGPT y las fuentes de datos que utiliza para construir sus sistemas de IA. Si bien OpenAI ha sido bastante abierto durante mucho tiempo sobre esta información, recientemente ha dicho poco sobre el origen de los datos de sus sistemas de IA y cuánto usa para construir ChatGPT, probablemente porque desconfía de los competidores que los copian y le preocupan las acciones legales. sobre el uso de ciertos conjuntos de datos.
Los chatbots, que también están siendo implementados por compañías como Google y Microsoft, representan un cambio importante en la forma en que se construye y usa el software de computadora. Están a punto de reinventar los motores de búsqueda de Internet como Google Search y Bing, los asistentes digitales parlantes como Alexa y Siri y los servicios de correo electrónico como Gmail y Outlook.
Cuando OpenAI lanzó ChatGPT en noviembre, instantáneamente capturó la imaginación del público con su capacidad para responder preguntas, escribir poesía y hablar sobre casi cualquier tema. Pero la tecnología también puede mezclar realidad con ficción e incluso inventar información, un fenómeno que los científicos llaman «alucinación».
ChatGPT está impulsado por lo que los investigadores de IA llaman una red neuronal. Es la misma tecnología que traduce entre francés e inglés en servicios como Google Translate e identifica a los peatones como vehículos autónomos que circulan por las calles de la ciudad. Una red neuronal aprende habilidades mediante el análisis de datos. Al detectar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.
Investigadores de laboratorios como OpenAI han diseñado redes neuronales que analizan grandes cantidades de texto digital, incluidos artículos de Wikipedia, libros, noticias y registros de chat en línea. Estos sistemas, conocidos como grandes modelos de lenguaje, han aprendido a generar texto por sí mismos, pero pueden repetir información errónea o combinar hechos de manera que produzcan información imprecisa.
En marzo, el Center for AI and Digital Policy, un grupo de defensa del uso ético de la tecnología, solicitó a la FTC que impida que OpenAI publique nuevas versiones comerciales de ChatGPT, citando preocupaciones sobre sesgo, información errónea y seguridad.
La organización actualizó la queja hace menos de una semana y describió otras formas en que el chatbot podría causar daño, lo que también señaló OpenAI.
«La propia empresa ha reconocido los riesgos asociados con el lanzamiento del producto y ha pedido una regulación», dijo Marc Rotenberg, presidente y fundador del Centro de IA y Política Digital. «La Comisión Federal de Comercio debe actuar».
OpenAI ha trabajado para refinar ChatGPT y reducir la frecuencia de contenido tendencioso, falso o dañino. A medida que los empleados y otros evaluadores usan el sistema, la empresa les pide que califiquen la utilidad y la veracidad de sus respuestas. Luego, a través de una técnica llamada aprendizaje de refuerzo, utiliza esas calificaciones para definir mejor lo que hará y lo que no hará el chatbot.
Esta es una historia en desarrollo. Vuelva a consultar las actualizaciones.

