
La inteligencia artificial (IA) no solo ha dejado de desarrollarse, sino que ha comenzado una nueva etapa. En un período sorprendentemente corto de solo dos años y medio, hemos avanzado de GPT-3.5 a GPT-4O. Quien ha tenido la oportunidad de interactuar con ambos modelos puede afirmar sin lugar a dudas que la diferencia en la experiencia conversacional es abismal. GPT-3.5 marcó un antes y un después en la inauguración de la era ChatGPT, pero hoy es poco probable que alguien decida volver a usar este modelo si tiene la opción de trabajar con versiones mucho más avanzadas.
Pero, ¿qué implica exactamente que un modelo sea más avanzado? La respuesta no es sencilla y abarca varios aspectos técnicos. Una de las características más destacadas de los modelos avanzados es su capacidad de contar con ventanas de contexto más amplias, lo que significa que pueden leer y procesar una cantidad mayor de información simultáneamente. Además, estos modelos son capaces de generar resultados más complejos y, en teoría, deberían cometer menos errores. Sin embargo, hay un aspecto que sigue siendo problemático: las alucinaciones. Esta es una de las áreas en las que el progreso no siempre avanza de manera positiva.
¿Qué son las alucinaciones? En el contexto de la inteligencia artificial, las alucinaciones se refieren a la tendencia de los modelos a inventar información. Esto resulta en respuestas que, aunque pueden sonar bien y resultar convincentes, son erróneas. Es importante aclarar que el modelo no está mintiendo deliberadamente; simplemente está generando texto en función de patrones aprendidos. Si el modelo no tiene acceso a suficientes datos sobre un tema específico, puede suceder que produzca respuestas incorrectas, y esto puede pasar inadvertido, lo que conlleva un riesgo significativo.
O3 y O4-Mini: más argumentos, más errores. Los modelos de argumentación, conocidos como SO, hicieron su debut en septiembre del año pasado. Representaron un avance considerable al introducir un tipo de razonamiento en cadena que mejoró su rendimiento en tareas más complejas. Sin embargo, estos modelos no son perfectos. Por ejemplo, O1-Pro, aunque más costoso en comparación con O3-Mini, no siempre demostró ser más efectivo. A pesar de esta situación, todos estos modelos fueron lanzados con la promesa de reducir el fenómeno de las alucinaciones.
Sin embargo, los datos proporcionados por OpenAI indican que esta reducción de alucinaciones no ha ocurrido como se prometió. Según un informe citando a TechCrunch y otro informe técnico de la compañía, se ha reconocido que O3 y O4-Mini presentan más alucinaciones que sus versiones anteriores. Esto es alarmante: en pruebas internas realizadas con Personqa, se constató que O3 falló en el 33% de las respuestas, lo que representa el doble de errores en comparación con O1 y O3-Mini. O4-Mini superó estas cifras: un 48% de respuestas erróneas.
Además, un análisis realizado por un laboratorio independiente muestra que O3 presentó incongruencias significativas, incluso llegando a afirmar que ejecutó código en un ChatGPT en un MacBook Pro y luego copió los resultados, algo que es simplemente imposible.
Un desafío que sigue siendo excepcional. La aspiración de contar con modelos de IA que no produzcan alucinaciones es, sin duda, un objetivo fascinante. Alcanzar este nivel representaría un gran avance en la confianza hacia las respuestas que estos sistemas pueden ofrecer. Sin embargo, en este momento debemos convivir con esta problemática, especialmente en situaciones en las que se requiere precisión, como la elaboración de resúmenes de documentos, la consulta de datos o la generación de informes. En estas circunstancias, es fundamental realizar una segunda verificación.
Resulta importante recordar que ya ha habido errores críticos en el uso de la IA. Un incidente notorio involucró a un abogado que presentó como evidencia un fallo generado por ChatGPT, el cual, aunque parecía convincente, era completamente ficticio, ya que el modelo inventó varios casos legales. La inteligencia artificial seguirá evolucionando, pero hasta que no logre eliminar estas inconsistencias, el juicio crítico humano seguirá siendo nuestra mejor herramienta.
Fotos | con chatgpt | Opadai
En | Algunos usuarios utilizan Operai O3 y O4-Mini para rastrear la ubicación de fotos, lo que plantea serias preocupaciones sobre la privacidad.
En | Si alguna vez temiste la posibilidad de que un robot te persiguiera, has de saber que en China se ha organizado una media maratón para promover la calma al respecto.