China censura desarrollo de IA local para que sea “socialista”

China censura desarrollo de IA local para que sea "socialista"

Los chinos prueban a los grandes modelos de IA para garantizar que incorporen valores socialistas fundamentales y evadan temas sensibles al régimen y su presidente.

El auge de la inteligencia artificial (IA) está en un punto máximo que ahora el gobierno de China busca incorporar el socialismo al desarrollo de esta tecnología.

Te puede interesar leer: China lidera patentes de IAGen

Los funcionarios chinos están probando grandes modelos lingüísticos de las empresas de IA para garantizar que sus sistemas “incorporen valores socialistas fundamentales”, en la última expansión del régimen de censura del país, reportó el diario británico Financial Times.

El CAC revisa cada modelo de IA chino

La Administración del Ciberespacio de China (CAC) -un poderoso supervisor de Internet- ha obligado a las grandes empresas tecnológicas y de IA, como ByteDance, Alibaba, Moonshot y 01.AI, a participar en una revisión gubernamental obligatoria de sus modelos, según múltiples personas involucradas en el proceso.

El esfuerzo implica probar por lotes las respuestas de un LLM a una letanía de preguntas, según quienes conocen el proceso, muchas de ellas relacionadas con las sensibilidades políticas de China y su presidente Xi Jinping.

El trabajo lo están llevando a cabo funcionarios de las ramas locales de la CAC en todo el país e incluye una revisión de los datos de entrenamiento del modelo y otros procesos de seguridad.

Dos décadas después de introducir un “gran cortafuegos” para bloquear sitios web extranjeros y otra información considerada dañina por el Partido Comunista, China implementa un régimen regulatorio más estricto para regular la IA y su contenido.

El CAC tiene “un equipo especial que hace esto, vinieron a nuestra oficina y se sentaron en nuestra sala de conferencias para hacer la auditoría”, dijo un empleado de una empresa de IA con sede en Hangzhou, que pidió no ser identificado.

No pasamos la primera vez; el motivo no estaba muy claro así que tuvimos que ir a hablar con nuestros compañeros.

Se necesita un poco de conjetura y adaptación. Pasamos la segunda vez pero todo el proceso llevó meses”, detalló el entrevistado.

El proceso de aprobación de China ha obligado a los grupos de IA del país a aprender rápidamente cuál es la mejor manera de censurar los grandes modelos de lenguaje que están construyendo.

Una tarea que varios ingenieros y expertos de la industria dijeron que era difícil y complicada por la necesidad de capacitar a los LLM en una gran cantidad de contenido en idioma inglés.

Nuestro modelo fundamental es muy, muy desinhibido , por lo que el filtrado de seguridad es extremadamente importante”, señaló un empleado de una de las empresas emergentes de IA de Pekín.

China publicó una guía de censura en febrero

El filtrado comienza eliminando la información problemática de los datos de entrenamiento y creando una base de datos de palabras clave confidenciales.

La guía operativa de China para las empresas de IA publicada en febrero dice que los grupos de IA deben recopilar miles de palabras clave y preguntas sensibles que violen los “valores socialistas fundamentales“.

Así como “incitar a la subversión del poder estatal” o “socavar la unidad nacional”. Se supone que las palabras clave confidenciales deben actualizarse semanalmente.

El resultado es visible para los usuarios de los chatbots de IA de China. La mayoría de ellos rechazan consultas sobre temas delicados como lo que ocurrió el 4 de junio de 1989 (fecha de la masacre de la Plaza de Tiananmen) o si Xi se parece a Winnie the Pooh, un meme de Internet.

El chatbot Ernie de Baidu les dice a los usuarios que “prueben con una pregunta diferente“, mientras que Tongyi Qianwen de Alibaba responde: “Aún no he aprendido a responder esta pregunta. Seguiré estudiando para servirles mejor“.

Los funcionarios chinos también están interesados en evitar la creación de una IA que eluda todos los temas políticos.

El CAC ha introducido límites en la cantidad de preguntas que los LLM pueden rechazar durante las pruebas de seguridad, según el personal de grupos que ayudan a las empresas de tecnología a navegar el proceso.

Los estándares cuasi nacionales dados a conocer en febrero dicen que los LLM no deben rechazar más del 5% de las preguntas que se les plantean.

Durante las pruebas, tienen que responder, pero una vez que entran en funcionamiento, nadie está mirando.

Para evitar posibles problemas, algunos modelos grandes han implementado una prohibición general de temas relacionados con el Presidente Xi””, dijo un desarrollador de una empresa de Internet con sede en Shanghai.

Chabots ofrecer respuestas políticamente correctas

Como ejemplo del proceso de censura de palabras clave, los expertos de la industria señalaron a Kimi, un chatbot lanzado por la startup Moonshot, que rechaza la mayoría de las preguntas relacionadas con Xi.

Pero, la necesidad de responder a preguntas menos abiertamente sensibles significa que los ingenieros chinos han tenido que descubrir cómo garantizar que los LLM generen respuestas políticamente correctas a preguntas como “¿China tiene derechos humanos?” o “¿es el Presidente Xi Jinping un gran líder?”.

Cuando el Financial Times hizo estas preguntas a un chatbot creado por la startup 01.AI, su modelo Yi-large dio una respuesta matizada.

Al señalar que los críticos dicen que “las políticas de Xi han limitado aún más la libertad de expresión y los derechos humanos y han suprimido la sociedad civil“.

Poco después, la respuesta de Yi desapareció y fue reemplazada por: “Lo siento mucho, no puedo brindarte la información que deseas”.

Es muy difícil para los desarrolladores controlar el texto que generan los LLM, por lo que crean otra capa para reemplazar las respuestas en tiempo real”, dijo Huan Li, experto en IA que construye el chatbot Chatie.IO.

Li agregó que los grupos normalmente usaban modelos clasificadores, similares a los que se encuentran en los filtros de spam de correo electrónico, para clasificar la salida de LLM en grupos predefinidos.

BytaDance es el más avanzado

Los expertos chinos dicen que el propietario de TikTok, ByteDance, es el que más ha avanzado en la creación de un LLM, que repite hábilmente los temas de conversación de Beijing.

Un laboratorio de investigación de la Universidad de Fudan que planteó al chatbot preguntas difíciles sobre los valores socialistas fundamentales le otorgó la clasificación más alta entre los LLM con una “tasa de cumplimiento de seguridad” del 66.4 %.

Muy por delante de una puntuación del 7.1% que obtuvo elGPT-4o de OpenAI en la misma prueba.

Cuando se le preguntó sobre el liderazgo de Xi, Doubao proporcionó al Financial Times una larga lista de los logros de Xi y añadió que es “sin duda un gran líder”.

En una conferencia, Fang Binxing, conocido como el padre del gran cortafuegos de China, dijo que estaba desarrollando un sistema de protocolos de seguridad para LLM que esperaba que fuera adoptado universalmente por los grupos de IA del país.

“Los grandes modelos predictivos de cara al público necesitan algo más que simples presentaciones de seguridad; necesitan monitoreo de seguridad en línea en tiempo real”. “China necesita su propio camino tecnológico”, dijo Fang.

¿Cómo fue el resultado de tus ventas en el Buen Fin?