Los chatbots de IA como ChatGPT han llamado la atención en todo el mundo gracias a su capacidad humana para discutir cualquier tema.
Sin embargo, el informe de Benj Edwards para Ars Technica, publicado el jueves (6 de abril), destaca una desventaja importante: estos chatbots pueden difundir inadvertidamente información falsa pero persuasiva, lo que los convierte en fuentes de hechos poco confiables y en potenciales contribuyentes a la difamación.
Edwards explica que los chatbots de IA, como ChatGPT de OpenAI, utilizan "grandes modelos de lenguaje" (LLM) para generar respuestas. Los LLM son programas informáticos entrenados con grandes cantidades de datos de texto para leer y producir lenguaje natural. Sin embargo, son propensos a cometer errores, comúnmente llamados “alucinaciones” o “confabulaciones” en los círculos académicos. Edwards prefiere la “confabulación”, ya que sugiere fabricaciones creativas pero no intencionales.
El artículo de Ars Technica subraya el problema de los robots de inteligencia artificial que generan información engañosa, engañosa o difamatoria. Edwards proporciona ejemplos de ChatGPT que acusó falsamente a un profesor de derecho de acoso sexual y afirmó erróneamente que un alcalde australiano fue condenado por soborno. A pesar de estos inconvenientes, ChatGPT se considera una actualización de GPT-3, ya que puede negarse a responder ciertas preguntas o advertir sobre posibles imprecisiones.
El director ejecutivo de OpenAI, Sam Altman, admitió las limitaciones de ChatGPT y tuiteó sobre sus "increíbles" limitaciones y los riesgos de confiar en él para asuntos cruciales. Altman también destacó el conocimiento simultáneo del chatbot y su inclinación por ser "confiado y equivocado".
Edwards profundiza en su funcionamiento para comprender cómo confabulan los modelos GPT como ChatGPT. Los investigadores crean LLM como GPT-3 y GPT-4 utilizando "aprendizaje no supervisado", en el que el modelo aprende a predecir la siguiente palabra en una secuencia analizando una gran cantidad de datos de texto y refinando sus predicciones mediante prueba y error.
ChatGPT se diferencia de sus predecesores en que ha sido entrenado con transcripciones de conversaciones escritas por humanos, afirma Edwards. OpenAI empleó “aprendizaje reforzado a partir de comentarios humanos” (RLHF) para ajustar ChatGPT, lo que generó respuestas más coherentes y menos confabulaciones. Sin embargo, persisten las imprecisiones.
Edwards advierte contra la confianza ciega en los resultados de los chatbots de IA, pero reconoce que las mejoras tecnológicas pueden cambiar esto. Desde su lanzamiento, ChatGPT ha pasado por múltiples actualizaciones, mejorando la precisión y su capacidad para negarse a responder preguntas que no puede abordar.
Aunque OpenAI no ha respondido directamente a las consultas sobre la precisión de ChatGPT, Edwards consulta documentos e informes de noticias de la empresa para obtener información. El científico jefe de OpenAI, Ilya Sutskever, cree que una mayor formación en RLHF puede abordar el problema de las alucinaciones. Al mismo tiempo, el científico jefe de IA de Meta, Yann LeCun, sostiene que los actuales LLM basados en GPT no resolverán el problema.
Edwards también menciona métodos alternativos para mejorar la precisión del LLM utilizando arquitecturas existentes. Bing Chat y Google Bard ya utilizan búsquedas web para refinar sus resultados, y se espera que una versión de ChatGPT habilitada para navegador haga lo mismo. Además, los complementos de ChatGPT planean aumentar los datos de entrenamiento de GPT-4 con fuentes externas, como la web y bases de datos especializadas. Como señala Edwards, esto refleja el aumento de precisión que un ser humano obtiene al consultar una enciclopedia.
Por último, Edwards sugiere que se podría entrenar un modelo similar a GPT-4 para que reconozca cuándo está fabricando información y se ajuste en consecuencia. Esto podría implicar una curación de datos más avanzada y vincular los datos de capacitación con puntuaciones de "confianza", similar al PageRank. Otra posibilidad es ajustar el modelo para que sea más cauteloso cuando tenga menos confianza en sus respuestas.
#Binance >#GPT-4 >#crypto2023 >#keepbuilding >#buildtogether