OpenAI crea chatbot para solucionar ‘alucinaciones’ de la IA

OpenAI crea chatbot para solucionar 'alucinaciones' de la IA

OpenAI construyó CriticGPT para encontrar fallas en las respuestas de GPT-4; por ahora se utiliza en evaluar capacidades de codificación.

Uno de los mayores problemas que enfrentan actualmente los chatbots de inteligencia artificial -incluso los más avanzados como ChatGPT de OpenAI o Gemini de Google- son las llamadas “alucinaciones“.

Las cuales se producen cuando un modelo de IA da resultados incorrectos o engañosos, publica Business Insider.

Estos errores se deben a una variedad de factores, incluidos datos de entrenamiento insuficientes, suposiciones incorrectas hechas por el modelo de IA o sesgos en los datos utilizados para entrenarlo.

Para hacer frente a esto, OpenAI construyó un modelo de IA llamado CriticGPT que intenta encontrar fallas en las respuestas de GPT-4, que funciona con el propio GPT-4.

Seguro te preguntarás: ¿Cómo puede un modelo de IA detectar sus propios errores y alucinaciones?

CriticGPT experto en detectar mentiras

Bueno, CriticGPT fue desarrollado para ser un experto detectando mentiras. Para ello, los investigadores de OpenAI alimentaron al modelo con información falsa y luego le mostraron cómo responder con críticas detalladas.

La firma utiliza CriticGPT para captar las alucinaciones de GPT-4, escribe críticas de las respuestas de ChatGPT para ayudar a los entrenadores humanos a detectar errores durante el proceso de Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (o RLHF, por sus siglas en inglés).

Las críticas de CriticGPT se destacan por su capacidad para evitar “minucias” y alucinaciones, proporcionando una retroalimentación más valiosa a los entrenadores humanos.

Por ahora, solo lo utilizan para evaluar las capacidades de codificación de GPT-4, ya que las respuestas son sencillas.

Hasta ahora logró detectar 85% de los errores de codificación, mientras que los humanos entrenados solo encontraron 25% de ellos.

Sin embargo, la mejor opción resultó ser emparejar humanos con CriticGPT, quienes en conjunto se desempeñaron 60% mejor; aunque la herramienta tiene limitaciones como su incapacidad de analizar respuestas más complejas.

El desarrollo futuro del modelo tiene como objetivo abordar estas limitaciones mediante la mejora de la comprensión de tareas más largas.

Universidad de Oxford también detecta alucinaciones

OpenAI no es la única organización que trabaja en una manera de solucionar las alucinaciones en chatbots.

Recientemente investigadores de la Universidad de Oxford presentaron un algoritmo que, según dicen, puede detectar alucinaciones de la IA en un 79% de las veces.

Esto es aproximadamente 10% mejor que los métodos actuales; sin embargo, este algoritmo utiliza aproximadamente 10 veces más energía que una interacción típica de chatbot.

Te puede interesar leer: Apple lanza su esperada IA
¿Ya planeaste tu oferta para el periodo de Regreso a Clases?

WordPress Ads