Para construir un sistema de inteligencia artificial al que los humanos puedan confiar responsabilidades de vida o muerte, las máquinas tendrán que desarrollar un rasgo muy humano: Admitir sus errores.
Los sistemas de IA pueden equivocarse y no admitirlo
Por Tara Haelle
5 de abril de 2022 C Se están construyendo sistemas de inteligencia artificial para ayudar a diagnosticar enfermedades, pero antes de que podamos confiarles responsabilidades de vida o muerte, la IA tendrá que desarrollar un rasgo muy humano: Admitir los errores.
Y la verdad es que aún no pueden hacerlo.
En la actualidad, la IA es capaz de dar la respuesta correcta a un problema con más frecuencia que de darse cuenta de que ha cometido un error, según investigadores de la Universidad de Cambridge y la Universidad de Oslo.
Este fallo fundamental, informan, tiene su origen en un problema matemático.
Algunos enunciados matemáticos no pueden probarse como verdaderos o falsos. Por ejemplo, las mismas matemáticas que la mayoría de nosotros aprendimos en la escuela para encontrar respuestas a preguntas sencillas y complicadas no pueden utilizarse luego para demostrar nuestra coherencia al aplicarlas.
Puede que hayamos dado la respuesta correcta y puede que no, pero necesitamos comprobar nuestro trabajo. Esto es algo que los algoritmos informáticos, en su mayoría, no pueden hacer, todavía.
Se trata de una paradoja matemática identificada por primera vez por los matemáticos Alan Turing y Kurt G?del a principios del siglo XX que señala que algunos problemas matemáticos no se pueden demostrar.
El matemático Stephen Smale llegó a incluir este fallo fundamental de la IA entre los 18 problemas matemáticos sin resolver del mundo.
Partiendo de esta paradoja matemática, los investigadores, dirigidos por el doctor Matthew Colbrook, del Departamento de Matemáticas Aplicadas y Física Teórica de la Universidad de Cambridge, propusieron una nueva forma de clasificar los problemas de la IA.
En la revista Proceedings of the National Academy of Sciences, los investigadores trazan un mapa de las situaciones en las que las redes neuronales C de la IA, modeladas a partir de la red de neuronas del cerebro humano, pueden realmente entrenarse para producir resultados más fiables.
Se trata de un importante trabajo inicial necesario para crear sistemas de IA más inteligentes y seguros.