En un giro sorprendente, la inteligencia artificial, considerada como una de las tecnologías más innovadoras y prometedoras de la era moderna, ha revelado una debilidad inesperada. A pesar de su capacidad para realizar tareas complejas y sofisticadas, como el análisis de grandes cantidades de datos o la resolución de problemas matemáticos complejos, la inteligencia artificial falta en simples tareas cotidianas, como la comprensión del lenguaje natural o la interpretación de situaciones cotidianas. Esta paradoja ha generado un gran interés entre los expertos en el campo, quienes buscan comprender las limitaciones de esta tecnología y encontrar formas de superarlas.
- La inteligencia artificial demuestra debilidad en tareas simples, a pesar de su capacidad en complejas
- Una discordancia entre expectativas y rendimiento
- La percepción de dificultad
- Incapaz de compensar los problemas
- Resultados similares en múltiples modelos de lenguaje
- Un cambio fundamental en el diseño y desarrollo de la IA
La inteligencia artificial demuestra debilidad en tareas simples, a pesar de su capacidad en complejas
Un estudio revelador ha puesto en entredicho la fiabilidad de la Inteligencia Artificial (IA), demostrando que sus nuevos modelos de lenguaje no son tan fiables como se pensaba. La investigación, llevada a cabo por la Universitat Politècnica de Valencia (UPV) y la Universidad de Cambridge, ha descubierto que los modelos de lenguaje actuales fallan en tareas simples, a pesar de su capacidad para resolver problemas complejos.
Una discordancia entre expectativas y rendimiento
José Hernández Orallo, investigador del Instituto VRAIN de la UPV, destacó que una de las principales preocupaciones sobre la fiabilidad de los modelos de lenguaje es que su funcionamiento no se ajusta a la percepción humana de dificultad de la tarea. Los modelos pueden resolver problemas matemáticos de nivel de doctorado, pero fallan en tareas simples como una suma básica.
Otro de los expertos, Yael Moros Daval, destacó que la calidad de los errores está aumentando y no disminuyendo como muchos esperaban. Hay una discordancia entre las expectativas humanas y el rendimiento de estos modelos, agregó.
La percepción de dificultad
Los modelos de lenguaje actuales no son precisos al 100% ni siquiera en tareas sencillas, lo que puede causar problemas para los usuarios. Ilya Sutskever, científico detrás de algunos de los mayores avances en IA, predijo que la discrepancia entre la expectativa y el rendimiento disminuiría con el tiempo, pero este estudio ha demostrado que no ha sido así.
Incapaz de compensar los problemas
La investigación encontró que la supervisión humana es incapaz de compensar los problemas de los modelos de lenguaje. Las personas pueden reconocer tareas de alta dificultad, pero siguen considerando que los resultados incorrectos son correctos, incluso cuando se les permite decir no estoy seguro.
Resultados similares en múltiples modelos de lenguaje
Los resultados fueron similares para múltiples familias de modelos de lenguaje, incluidos la familia GPT de OpenAI, LLaMA de Meta y BLOOM, una iniciativa abierta de la comunidad científica. Los problemas de discordancia de dificultad, falta de abstención adecuada y sensibilidad al prompt siguen siendo un problema para las nuevas versiones de modelos de lenguaje.
Un cambio fundamental en el diseño y desarrollo de la IA
El experto Wout Schellaert concluyó que la sociedad tiende a confiar demasiado en este tipo de modelos y es necesario un cambio fundamental en el diseño y desarrollo de la IA de propósito general, especialmente para aplicaciones de alto riesgo.
Deja una respuesta