El CII.IA y NVIDIA desarrollan una prueba piloto exitosa en una Cadena de Tiendas de Conveniencia
El Centro de Innovación Industrial en Inteligencia Artificial (CII.IA) escogió a NVIDIA para ser su Socio Estratégico en la investigación, desarrollo, difusión y capacitación de la Inteligencia Artificial.
Datos de la Institución:
- Nombre de la Empresa o Institución: Centro de Innovación Industrial en Inteligencia Artificial (CII.IA).
- Ubicación: Parque de Investigación e Innovación Tecnológica (PIIT), en el Monterrey IT Cluster. Es un parque en el que se encuentran instituciones de Educación Superior y de Investigación Tecnológica.
- Corporativo: 17 empresas forman parte del Ecosistema del CII.IA.
- Giro: Investigación y Desarrollo de Tecnologías de Información con especialización en Inteligencia Artificial.
- Año de fundación: Abril del 2019.
- Número de empleados: 4 personas directas y alrededor de 100 indirectas.
Datos del Cliente:
- Nombre completo del cliente: Dra. María de la Paz Rico Fernández.
- Profesión: Ingeniera Mecatrónica con Maestría y Doctorado en Robótica y Manufactura Avanzada enfocada en Computer Vision e Inteligencia Artificial.
- Background Profesional: Proyectos de Machine Learning y Computer Vision.
- Egresado de: CINVESTAV de Saltillo. Participó representando al CINVESTAV Saltillo en el Concurso Nacional de Desarrollo de Vehículos Autónomos y ganaron el concurso en 2017 y 2019 organizado por la Universidad Libre de Berlín y la Federación Mexicana de Robótica. Es City Lead Monterrey de Women in AI. Certificada por NVIDIA como instructora de los programas del Deep Learning Institute de NVIDIA.
- Puesto: Chief Knowledge Officer en CII.IA.
- Responsabilidades: Diseño de programas enfocados a Inteligencia Artificial y a las tecnologías de vanguardia en esta área. Además de vinculación del centro con los principales actores del ecosistema de inteligencia artificial.
El Genio de la Inteligencia Artificial (CII.IA) le cumple un deseo a una Cadena de Tiendas de Conveniencia con la magia de NVIDIA.
El proyecto de Machine Learning para búsqueda de productos frecuentes de Tiendas de Conveniencia se dividió en 2 etapas, la primera de las cuales ya se realizó, y que a su vez se dividió en dos fases; la Segunda Eatapa se realizará más adelante.
El área con la que se trabajó el proyecto en la primera fase fué la de Ventas y Puntos de Ventas para la fase inicial y para la segunda fase fue la de Planeación de la Demanda.Objetivos de la 1ra Fase del Proyecto fuéron: 1) Generar de forma autónoma recomendaciones de productos con base en el canasto de compras de los clientes en tiempo real. 2) Descubrir patrones de consumo en función de factores adicionales como el clima, día de la semana y temperatura. 3) Descubrir patrones de compra que pudieran ser de utilidad para elaboración de promociones.
Estrategias de Solución de la 1ra Fase fuéron: 1) Desarrollar un sistema modular que permite calcular una base de sugerencias que pueda ser integrada en los puntos de ventas tomando en cuenta sus restricciones en hardware y software. 2) Desarrollo de un módulo para generación de recomendaciones de compras en tiempo real a partir de la tabla base de sugerencias.
Resultados obtenidos de la 1ra Fase fuéron: 1) Un incremento promedio en ventas de 5% por sugerencias autónomas de productos en función del canasto de compras. 2) Reducción de intervención humana para desarrollar sugerencias de ventas estáticas. En su lugar, el sistema desarrollado podía calcular las sugerencias de forma más rápida utilizando toda la información de ventas por mes de una tienda.
Objetivos de la 2da Fase fuéron: 1) Limpiar la historia de ventas de los 3 años anteriores a nivel de producto-tienda para alimentar el software de Planeación de la Demanda. 2) La limpieza debe de ser supervisada y modificada por los planeadores de la demanda. 3) Se debe de poder ajustar el nivel de desviación para detectar las ventas anómalas. 4) Se deben de poder etiquetar la razón de las desviaciones.
Las Estrategias de Solución de la 2da Fase fueron: 1) Análisis de datos para diseñar el algoritmo de detección de anomalías. 2) Desarrollo del método para identificación de outliers con parámetros base. 3) Desarrollo de la interfaz para que los planeadores puedan interactuar con la historia de ventas y el algoritmo de detección de outliers.
Los Resultados Obtenidos en la 2da Fase fueron: 1) Se redujo el tiempo de identificación de outliers ¡en 200 veces! de 6 meses de manera manual, hasta 1 sólo día de cómputo en PC (8 cores @ 2.6GHz). 2) Mejora del proceso de limpieza manual, al incluir una interfaz con gráficas fácilmente interpretables. 3) Apoyo en el etiquetamiento de eventos, promociones y/o descuentos en las ventas, hasta antes del proyecto completamente inexistente.
Esta cadena tiene diferentes tipos de tiendas y una de ellas es tipo Élite, que son más personalizadas y que tienen productos de mayor calidad y desde luego de mayor precio; ahí ellos querían incorporar la detección de rostros para hacer las sugerencias al cliente; y para ello se hicieron unas pruebas piloto en diferentes tiendas, en las que se hicieron pruebas de rostros para determinar la edad y el género del usuario, como una primera etapa y con base en ella, poderles sugerir productos, ya que ellos saben que en función de la edad y del género hay cierta predisposición para adquirir determinados productos. Con base en toda esta información, se pueden hacer promociones enfocadas a ese tipo de perfil de clientes.
En lo que se refiere al Hardware de NVIDIA han comprado los Sistemas Inteligentes Jetson de diferentes modelos, como la Jetson Nano. Han usado RAPIDS para algunos proyectos, las herramientas de desarrollo de NVIDIA DIGITS para la clasificación de imágenes, y están evaluando SDK’s para la detección de rostros.
En la Jetson se captura toda la información visual que capturan las cámaras, y eso depende de la velocidad que tenga la cámara en frames. Dependiendo de la capacidad del Hardware se pueden analizar todos los frames o las imágenes que capturan las cámaras, por lo que se hacen muestreos de cada 5 o 10 frames, para no almacenar toda la información y hacer el proceso más rápido.
El beneficio que se obtuvo de esta inversión fue el incremento de un 5% en ventas de la canasta de productos en la misma tienda, tanto por mayores ventas de los mismos productos frecuentes como por venta cruzada de productos. También hubo una menor intervención humana en el proceso, por lo que esto implicó una reducción de costos. Este prueba piloto tuvo una duración de 6 meses y se desarrolló en viarias tiendas simultáneamente.
Se automatizaron las sugerencias de productos frecuentes y la detección de anomalías en ventas, tomando como base el histórico de ventas de los 3 años anteriores. Para lo anterior se hizo una limpieza de datos y la elaboración de un modelo de análisis de datos para la detección de anomalías. Y se identificaron datos fuera de contexto o outlayers, y la consecuencia de esto fué un aumento en la velocidad en el análisis, haciéndolo 200 veces más rápido respecto del análisis manual, que era como se hacía antes, pasando de 6 meses a un solo día.
Source: Ciencia