Un equipo de investigadores de la Universidad Politécnica de Valencia probó la precisión de las últimas versiones de inteligencia artificial (IA) de BigScience, Meta y OpenAI formulando a cada modelo miles de preguntas sobre matemáticas, ciencias y geografía. Los resultados mostraron que es más probable que la IA dé una respuesta incorrecta que admita que no sabe la respuesta, escribe Nature.
Los investigadores notaron que la precisión en tareas más complejas mejoraba con cada nuevo modelo. Sin embargo, los primeros modelos LLM admitieron que no podían encontrar respuestas o necesitaban más información, mientras que los modelos más nuevos tenían más probabilidades de dar respuestas incorrectas incluso a preguntas simples.
En el estudio, el equipo de investigación de IA concluyó que los nuevos modelos “no mostraban una mejora clara” a pesar de la ampliación de la tecnología.