Los grandes modelos de lenguaje de inteligencia artificial, cada vez menos fiables
Los recientes avances en inteligencia artificial han generalizado el uso de grandes modelos de lenguaje en nuestra sociedad, en ámbitos como la educación, la ciencia, la medicina, el arte o las finanzas, entre otros muchos. Estos modelos están cada vez más presentes en nuestro día a día. Sin embargo, no son tan fiables como los usuarios esperan. Así lo concluye un estudio reciente.
El estudio lo ha liderado un equipo del Instituto VRAIN de la Universidad Politécnica de Valencia (UPV) y la Escuela Valenciana de Posgrado y Red de Investigación en Inteligencia Artificial (ValgrAI), en España, junto con la Universidad de Cambridge en el Reino Unido.
El trabajo revela una tendencia alarmante: en comparación con los primeros modelos, y atendiendo a ciertos aspectos, la fiabilidad ha empeorado en los modelos más recientes (ChatGPT-4 en comparación con ChatGPT-3, por ejemplo).
Según explica José Hernández Orallo, investigador del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la UPV y de ValgrAI, una de las principales preocupaciones sobre la fiabilidad de los modelos de lenguaje es que su funcionamiento no se ajusta a la percepción humana de dificultad de la tarea. En otras palabras, existe una discordancia entre las expectativas de que los modelos fallen de acuerdo a la percepción humana de dificultad en la tarea y las tareas donde realmente los modelos fallan. “Los modelos pueden resolver ciertas tareas que son complejas de acuerdo a las habilidades humanas, pero al mismo tiempo fallan en tareas simples del mismo dominio. Por ejemplo, pueden resolver varios problemas matemáticos de nivel de doctorado, pero se pueden equivocar en una simple suma”, apunta Hernández-Orallo.
En 2022, Ilya Sutskever, el científico que está detrás de algunos de los mayores avances en inteligencia artificial de los últimos años (desde la solución de Imagenet hasta AlphaGo) y cofundador de OpenAI, predijo que “quizá con el tiempo esa discrepancia disminuya”.
Sin embargo, el estudio del equipo de la UPV, ValgrAI y la Universidad de Cambridge demuestra que no ha sido así. Para demostrarlo, investigaron tres aspectos clave que afectan a la fiabilidad de los modelos de lenguaje desde una perspectiva humana.
Fuente: Noticiasdelaciencia.com / Amazings.com https://noticiasdelaciencia.com/art/52131/los-grandes-modelos-de-lenguaje-de-inteligencia-artificial-cada-vez-menos-fiables