Descripción
Hay muchas consideraciones antes de desplegar los modelos de aprendizaje profundo en el mundo real, especialmente en entornos críticos para la seguridad como la conducción automatizada, los dispositivos médicos inteligentes, el sector aeroespacial y las aplicaciones biomédicas. Un investigador de aprendizaje profundo puede lograr un 99% de precisión en un modelo de aprendizaje profundo, pero ¿qué pasa con los casos límite? ¿Qué pasa si esos casos límite representan la vida de alguien? ¿Está la IA lista para pasar de la investigación a la realidad? La precisión del modelo es sólo una parte de un sistema listo para la producción, que también incluye: justificación y documentación del modelo, pruebas rigurosas, uso de hardware especializado (GPU, FPGAs, recursos de nube, etc.) y colaboración entre varias personas con diversos conocimientos relacionados con el proyecto y el sistema. En esta sesión, Heather Gorr discutirá la importancia de los modelos explicables, el diseño del sistema y las pruebas antes de que un sistema de IA esté listo para la producción.