Aquí tienes una versión con sinónimos: Operando y aún es un misterio para la mente humana.

Nueva York. Jueves 15. Mayo de 2025. Desde el inicio del desarrollo de la inteligencia artificial generativa, un tema recurrente ha sido la incomprensión de su funcionamiento fundamental. Incluso las mentes más brillantes que buscan revolucionar el mundo a través de estas tecnologías admiten que no logran comprender plenamente cómo opera el cerebro digital que han creado.

“Aquellos que no están inmersos en el sector a menudo se sienten sorprendidos e inquietos al darse cuenta de que no tenemos claro cómo funcionan nuestras propias creaciones”, establece un artículo reciente en Internet. Este fenómeno no es nuevo; de hecho, “esta falta de comprensión no es un precedente en la historia de la tecnología”, enfatiza el autor.

A diferencia de los programas de software tradicionales, que se rigen por rutas lógicas y algoritmos establecidas por los desarrolladores, los modelos de inteligencia artificial generativa (GENE) han sido diseñados para encontrar su propio camino hacia el éxito una vez que reciben un pedido o consulta específica. Esta capacidad de auto-mejora y adaptación es lo que hace que la IA generativa sea tan intrigante y, a la vez, desconcertante para los expertos.

En varios podcasts recientes, la figura de Chris Olah ha brillado. Él fue parte de Deopenai, la compañía responsable de crear ChatGPT, antes de integrar Antropic, donde describe sus experiencias como un “andamio” en el cual se desarrollan ideas y tecnología en la IA. Olah se ha convertido en una autoridad reconocida en la interpretación mecanizada, una metodología que está despertando un creciente interés en el ámbito académico, ya que busca desentrañar cómo funcionan realmente estos modelos de inteligencia artificial.

Esta ciencia, que comenzó a formalizarse hace alrededor de una década, se ha dedicado a investigar cómo la inteligencia artificial puede derivarse de las preguntas que se le plantean. “Entender la totalidad del modelo de lenguaje extenso es una tarea increíblemente ambiciosa”, afirma Neel Nanda, un destacado investigador en el Laboratorio Google DeepMind. “Es, en cierto modo, un intento análogo a comprender completamente el cerebro humano”, algo que la neurociencia todavía no ha logrado por completo.

La exploración de las mentes digitales para entender sus operaciones ha captado la atención de académicos en todo el mundo, dado el potencial de aumentar la efectividad y capacidad de la IA. “Los estudiantes se sienten muy atraídos por estos temas porque reconocen la influencia que pueden ejercer”, comenta Mark Corvella, profesor de informática en la Universidad de Boston.

Según Clove, la interpretación mecánica involucra no solo estudiar los resultados que proporciona la IA, sino también analizar los fundamentos utilizados cuando la tecnología examina las consultas que recibe. “El modelo puede ser analizado y adherirse a las premisas subyacentes para tratar de entenderlas”, explica el profesor.

Se está utilizando software avanzado para facilitar este aprendizaje. Esta herramienta puede presentar datos en forma de pasos del capítulo, lo que permite a los investigadores entender mejor tanto el proceso de la IA generativa como los posibles errores que pueden surgir. Además, se ha diseñado para impedir que los modelos de IA utilicen malware o tomen decisiones dañinas hacia las personas.

“La sensación es que la carrera por la inteligencia artificial avanza rápidamente, antes de que el mundo se haya familiarizado completamente con modelos extremadamente inteligentes que aún no comprendemos”, destaca Eric Ho, director ejecutivo de Good Fire. En su ensayo, AModei resalta un optimismo cauteloso, sugiriendo que podríamos estar en camino de descifrar los aspectos más complejos de la IA en un periodo relativamente corto, incluso en un plazo de dos años.

“Personalmente, estoy muy esperanzado en que para 2027 podríamos contar con interpretaciones que revelen de manera confiable los sesgos y las intenciones dañinas que podrían estar ocultas dentro de estos modelos”, añade Anh Nguyen, profesor asociado en la Universidad de Auburn. Finalmente, Clove recalca que, «a diferencia del cerebro humano», los investigadores poseen “equivalente a cualquier instrumento neuronal dentro de estos modelos”. “Todo lo que sucede en el modelo es conocido en su totalidad; es cuestión de descubrir la forma correcta de analizarlos”, asegura el académico.

La comprensión del funcionamiento interno de la IA generativa podría allanar el camino para su adopción en áreas críticas donde pequeños errores pueden tener repercusiones drásticas, como la seguridad nacional, concluye Amodei.

Compartir:
Facebook
Twitter
LinkedIn
Reddit

Noticias relacionadas