¿Cómo entrenar una inteligencia artificial con pocos datos? Bienvenidos al ‘Small Data’

La Inteligencia Artificial para el procesamiento de datos es sencilla. Consiste en enseñar decenas o cientos de miles de imágenes a una red neuronal, junto a su categoría, y de esta forma aprenderá a categorizar el resto de imágenes que le enseñes en base a los patrones que extrajo de las primeras.

Por ejemplo, en el caso de la detección de cáncer de mama se han utilizado unas 40.000 mamografías para el entrenamiento, y otras 10.000 para su verificación. Pero, ¿qué ocurre cuando estamos frente a una enfermedad rara? ¿Qué pasa si tenemos solo un pequeño puñado de datos?

Si bien una red bien entrenada puede superar el rendimiento de especialistas en un área, una poco entrenada da lugar a falsos que se quieren evitar. Ahí es donde entra el ‘Small Data’. Este se basa en el tratamiento apropiado y más avanzado de los pocos datos de los que se dispone para obtener resultados mucho más precisos.

Esto es extrapolarle a multitud de casos a la detección de partes defectuosas en una fábrica, al reconocimiento de ejemplares de especies en peligro de extinción o a la detección de partículas, como el bosón de Higgs, en experimentos de altas energías. Al final, se trata de utilizar modelos estadísticos que se ajusten de una forma más precisa al caso que se está tratando. El investigador en el Cold Spring Harbor Laboratory, Justin Kinney, explica cómo su modelo de física de partículas (DEFT) puede ser aplicado a otros casos con poco volumen de datos.

Cada vez más, la inteligencia artificial empapa el debate y la innovación tecnológica allá donde se mire. Pero, aunque en ocasiones pueda parecerlo, no se trata solo de un claim comercial de distintas multinacionales para hacer más atractiva la última versión de su producto.

FUENTE: Hipertextual

Escriba aquí su comentario: