Nueva York. Jueves 15. Mayo de 2025. La complejidad del desarrollo de una inteligencia artificial generativa ha llevado incluso a las mentes más brillantes en el campo a admitir que no comprenden plenamente cómo funciona su propio cerebro digital. Esta situación plantea interrogantes fundamentales sobre la relación entre los creadores y sus creaciones. En el ensayo publicado en Internet, se observa que “aquellos que no están inmersos en el sector suelen sentirse sorprendidos y a veces molestos al darse cuenta de que no tenemos un entendimiento claro de nuestras propias innovaciones”. La ironía de esta situación refleja un dilema que ha acompañado históricamente la evolución tecnológica.

Contrastando con el tradicional software, que opera dentro de las rutas lógicas establecidas por los desarrolladores, los modelos de IA generativos (GENE) han sido diseñados para explorar y encontrar su propio camino hacia el éxito una vez que reciben un pedido. Este fenómeno ha capturado la atención de diversos expertos del sector. En conversaciones recientes en podcasts, Chris Olah, quien fue parte de Deopenai (creador de chatgpt) antes de unirse a Anthropic, describió su experiencia mediando en el proceso de crecimiento de estas herramientas avanzadas, refiriéndose a este proceso como un “andamio” que sostiene su desarrollo.

Olah es considerado una autoridad en la interpretación mecanizada, un enfoque necesario para desentrañar el funcionamiento interno de estos modelos de inteligencia artificial. Esta disciplina, que emergió hace aproximadamente una década, se dedica a estudiar cómo la inteligencia artificial puede responder a las interrogantes planteadas. “Entender el modelo de lenguaje extenso en su totalidad es una tarea inmensamente ambiciosa”, comentó Neel Nanda, investigador principal en el Laboratorio Google DeepMind. Nanda subrayó que este esfuerzo se asemeja, de alguna manera, a intentar descifrar completamente el cerebro humano, un objetivo que la neurociencia aún no ha podido alcanzar.

El interés académico en el estudio de las mentes digitales ha aumentado considerablemente, y con él, el potencial para hacer la inteligencia artificial aún más poderosa. “Los estudiantes muestran gran interés en este ámbito porque pueden ver la enorme influencia que la IA puede ejercer”, afirmó Mark Corvella, profesor de informática en la Universidad de Boston. Según él, la interpretación mecanizada implica no solo examinar los resultados proporcionados por la IA, sino también analizar las suposiciones subyacentes que la tecnología hace al abordar consultas específicas.

Corvella explicó que “el modelo podría ser analizado al adherirse a los supuestos formulados y tratar de comprenderlos”. Además, se utilizan herramientas de software de la empresa Good Fire, diseñadas para presentar datos de manera estructurada, facilitando así la comprensión del procesamiento de la IA generativa y la identificación de errores. Estas herramientas también tienen el propósito de limitar el uso de malware por parte de los modelos de IA y de tratar con responsabilidad el efecto de sus decisiones sobre los usuarios.

Eric Ho, director ejecutivo de Good Fire, advirtió que “parece que la carrera por crear modelos extremadamente inteligentes avanza demasiado rápido, antes de que la humanidad comprenda completamente su funcionamiento”. En su ensayo, AModei destaca que los avances recientes son prometedores y espera que se logre un entendimiento completo en los próximos dos años. “Para 2027, espero que se puedan ofrecer interpretaciones que revelen de manera fiable los sesgos y las intenciones dañinas del modelo”, opinó Anh Nguyen, profesor asociado en la Universidad de Auburn.

Desde la perspectiva de Clove, de la Universidad de Boston, “a diferencia del cerebro humano”, en este caso, los investigadores enfrentan “el equivalente a un instrumento neuronal dentro de estos modelos”. “El modelo tiene completo conocimiento de lo que ocurre internamente. La clave está en encontrar la metodología correcta para analizarlo”, concluyó el académico. La elucidación de los mecanismos internos de la IA generativa podría allanar el camino para su adopción en áreas críticas donde pequeños errores puedan tener repercusiones drásticas, como en temas de seguridad nacional, según lo señaló AModei.

Compartir: