En el panorama digital de rápida evolución de hoy, las entidades del sector público están a punto de aprovechar al máximo las capacidades de los modelos de inteligencia artificial (IA). Un informe de políticas reciente del Instituto Ada Lovelace ofrece perspectivas valiosas sobre las oportunidades y los riesgos potenciales del uso de la IA. Esto es particularmente cierto en los modelos fundacionales dentro de las organizaciones gubernamentales.
Las instituciones del sector público exploran cada vez más las posibilidades de la IA para mejorar la toma de decisiones, la difusión de información y la prestación de servicios. El impulso que impulsa esta exploración es una combinación de restricciones presupuestarias y las crecientes demandas de la base de usuarios. Se están contemplando modelos básicos, los componentes básicos de la IA, para diversas aplicaciones, que van desde la mejora de los servicios públicos hasta la automatización de la generación de correos electrónicos.
Los modelos básicos representan estructuras de IA adaptables capaces de generar texto, imágenes o audio. Entre los ejemplos más destacados se encuentran GPT-3 y GPT-4 de OpenAI, que sustentan asistentes basados en IA como ChatGPT. Estos modelos actúan como piedra angular de las soluciones basadas en IA y ofrecen un potencial sin precedentes para la innovación en el sector público.
Si bien las posibles ventajas de la adopción de la IA en el sector público son atractivas, el análisis del Instituto Ada Lovelace pone de relieve una incertidumbre general. La pregunta fundamental sigue siendo: ¿demostrarán estos modelos la precisión, la fiabilidad y la rentabilidad necesarias para abordar eficazmente los desafíos tangibles?
Los modelos de base presentan una serie de posibles dificultades y desafíos. El informe destaca las preocupaciones sobre sesgos, violaciones de la privacidad, difusión de información errónea, vulnerabilidades de seguridad, dependencia excesiva, implicaciones para la fuerza laboral y acceso desigual. Los organismos del sector público deben ejercer un escrutinio diligente al considerar la incorporación de estos modelos.
Fomentar la gobernanza responsable de la IA
El Instituto Ada Lovelace destaca la importancia de una gobernanza eficaz para garantizar la implementación responsable y ética de los modelos de IA. Las entidades del sector público deben gestionar estos riesgos de forma proactiva y, al mismo tiempo, aprovechar los beneficios que ofrece la IA.
El informe de políticas presenta una serie de recomendaciones diseñadas para orientar a las entidades del sector público en su adopción de IA:
Actualizaciones periódicas de las orientaciones: en un ámbito caracterizado por una rápida evolución, las orientaciones que se ofrecen al sector público deben evolucionar en consecuencia. Las actualizaciones periódicas son imprescindibles para mantener una supervisión eficaz de las capacidades de la IA.
Normas de adquisición: al contratar empresas privadas para el desarrollo de IA, las entidades del sector público deben instituir normas de adquisición rigurosas que respeten las normas públicas, garantizando la transparencia y la rendición de cuentas.
Custodia local de datos: los organismos del sector público deberían exigir el almacenamiento local de datos para las aplicaciones del modelo de la fundación. Esta medida refuerza la seguridad y la privacidad de los datos, y disminuye el riesgo de vulneraciones de datos.
Auditorías independientes: Las auditorías independientes realizadas por terceros deberían ser un requisito previo para todos los modelos de base utilizados en el sector público, ya sea que se desarrollen internamente o se adquieran externamente. Esto garantiza una evaluación integral del desempeño del modelo y el cumplimiento de las normas éticas.
Monitoreo continuo: El monitoreo sostenido de las aplicaciones del modelo base es primordial para la detección y mitigación oportuna de problemas potenciales.
Marcos de transparencia: la implementación del Estándar de Registro de Transparencia Algorítmica en todo el sector público puede aumentar la responsabilidad y la transparencia en la implementación de la IA.
Participación pública: Las aplicaciones de IA dirigidas al público deben incorporar una participación significativa con la comunidad para abordar las inquietudes y garantizar la alineación de la IA con los mejores intereses de la comunidad.
Iniciativas piloto: Las entidades del sector público deberían iniciar programas piloto para nuevos casos de uso de IA para descubrir y abordar posibles riesgos y desafíos antes de su implementación generalizada.
Capacitación de la fuerza laboral: es fundamental dotar a los empleados de los conocimientos y las habilidades necesarios para desarrollar, supervisar o utilizar modelos básicos. Esto garantiza una implementación responsable de la IA.
Un llamado a unir esfuerzos
El informe de políticas del Instituto Ada Lovelace destaca el potencial significativo que los modelos de base tienen para el sector público. Sin embargo, para materializar este potencial se necesitan esfuerzos colaborativos para desarrollar e implementar la IA de manera responsable, segura y ética.
El sector público se encuentra ahora en una coyuntura crucial en la que la innovación y las consideraciones éticas deben ir de la mano. Si se adhieren a las recomendaciones descritas en el informe, las entidades del sector público pueden adoptar la IA como una herramienta para la transformación positiva y, al mismo tiempo, protegerse con prudencia de posibles desafíos.
A medida que las tecnologías de IA continúan su rápido avance, los gobiernos y las organizaciones del sector público deben priorizar el uso responsable de la IA, garantizando que estos modelos sirvan al bien público mayor, se adhieran a los principios éticos y contribuyan a mejorar la prestación de servicios para todos.

