En un debate que invita a la reflexión en NDC Oslo, Luise Freese e Iona Varga profundizaron en los dilemas prácticos que rodean el uso de modelos de inteligencia artificial (IA), particularmente en el contexto de la generación de código. Si bien la IA ha logrado avances significativos en la imitación de la inteligencia humana, Freese y Varga enfatizaron la importancia de lograr un equilibrio entre practicidad y calidad al utilizar la IA para tareas específicas como generar código.

Varga llamó la atención sobre el intrigante concepto de que la IA insinúa una sensación de inteligencia genuina, pero su esencia radica en la representación de cómo se construyen estos modelos. Al interconectar nodos, la IA intenta replicar la intrincada red de neuronas y sinapsis del cerebro humano. Este esfuerzo por emular la red neuronal conduce al término "redes artificiales" o "inteligencia artificial". Sin embargo, es esencial recordar que la IA, en la práctica, funciona de manera muy diferente al cerebro humano.

Freese añadió una capa de abstracción a la conversación al resaltar que las computadoras dependen fundamentalmente de transistores, que funcionan de forma binaria: están encendidos o apagados. A través de varias combinaciones de estos estados binarios, las computadoras manipulan bits para ejecutar tareas. A diferencia del cerebro humano, los transistores no participan en entrelazamientos complejos; simplemente funcionan como una colección de interruptores que, en última instancia, producen un resultado.

La espiral descendente de los modelos generalistas de IA

El meollo de la discusión giró en torno a los desafíos que plantea el uso de modelos de IA generalizados, a menudo denominados modelos fundamentales, para tareas muy específicas. El dúo examinó específicamente los modelos de lenguajes grandes (LLM) y sus limitaciones. Los LLM operan analizando la entrada, ya sea una pregunta o un mensaje, y generando una secuencia de palabras basada en patrones estadísticos. Estos modelos destacan en la predicción, pero se quedan cortos en lo que respecta a la verificación y validación de hechos, ya que su principal objetivo de diseño es generar contenido, no verificar su precisión.

Varga señaló una preocupación crítica: el riesgo asociado con el empleo de modelos de IA muy generalistas para tareas altamente especializadas. Cuando las organizaciones intentan emplear un único modelo de IA para abordar una amplia gama de problemas, surge un patrón preocupante. Freese lo comparó con una espiral descendente que se amplifica a sí misma. Para escapar de este ciclo, Freese sugirió un cambio hacia el uso de modelos de IA más especializados, algunos de los cuales podrían construirse sobre modelos fundamentales.

El papel del juicio humano en la evaluación de código

Una cuestión central que surgió de la discusión fue la cuestión de si el código generado por IA es seguro de usar y si cumple con los estándares y la calidad requeridos. Varga enfatizó que estas preguntas requieren en última instancia del juicio y la intervención humanos. No se debe subestimar el proceso de evaluación del código generado por IA, ya que es paralelo a los desafíos de depurar código desconocido escrito por otra persona. Así como depurar el código de otra persona puede ser una tarea compleja, garantizar la calidad y seguridad del código generado por IA exige un escrutinio cuidadoso.

Varga destacó el potencial de la IA como una herramienta valiosa para iniciar procesos de resolución de problemas. Sin embargo, advirtió que una vez que la IA se pone en marcha, se necesita una fase de posprocesamiento exhaustiva. Esta fase implica verificar, validar, modificar, editar y, en algunos casos, reescribir el contenido generado por IA. Es en esta fase esencial donde se hace evidente el verdadero alcance del trabajo introducido por la IA.

En esencia, el debate en NDC Oslo 2023 subrayó el delicado equilibrio que se requiere al aprovechar el poder de los modelos de IA, particularmente en dominios altamente especializados como la generación de códigos. Si bien la IA es muy prometedora como ayuda para la resolución de problemas, la supervisión y validación humana siguen siendo indispensables para garantizar la calidad, la seguridad y la relevancia de los resultados que genera.