Anuncios

Ofertas de trabajo

Especiales más

Top 5 - Ayer

Top 5 - La semana pasada

Top 5 - El mes pasado

Desarrollan una clasificadora de pepinos con la ayuda de Google

Hace un año, un exdiseñador de sistemas integrados para la industria automovilística japonesa llamado Makoto Koike comenzó a trabajar en la plantación de pepinos de sus padres, y le sorprendió la cantidad de trabajo que supone clasificar los pepinos por calibre, forma, color y otros atributos.

En Japón, cada agricultor tiene su propia forma de clasificarlos. La madre de Makoto dedica hasta 8 horas al día en temporada alta a distribuirlos manualmente en nueve clases distintas. Existen clasificadoras automáticas en el mercado, pero tienen limitaciones de rendimiento y son caras, por lo que los pequeños productores no las utilizan.

Los muchos usos del aprendizaje profundo
A Makoto se le ocurrió la idea de utilizar el aprendizaje automático para clasificar pepinos a partir de Google AlphaGo, el programa de inteligencia artificial de Google. “Cuando lo vi, me di cuenta de que era algo muy interesante”, relata Makoto. “Fue lo que me animó a desarrollar una clasificadora de pepinos con tecnología de aprendizaje profundo”.

El aprendizaje profundo permite a una computadora aprender, a partir de un conjunto de datos de entrenamiento, cuáles son las características importantes de las imágenes. Mediante una jerarquía de neuronas artificiales, el aprendizaje profundo puede clasificar imágenes de forma automática y muy precisa, e identificar, por ejemplo, distintas especies de gatos o modelos de automóviles y aviones, a veces incluso mejor que el ojo humano.

TensorFlow hace pública esta tecnología
¿Podría una máquina aprender a clasificar los pepinos como la madre de Makoto? El diseñador se puso a averiguar si podía aprovechar la tecnología de aprendizaje profundo mediante TensorFlow, la biblioteca de aprendizaje automático de código abierto de Google.

“Google acababa de abrir TensorFlow al público para que cualquiera pudiera usarlo, así que comencé a probarlo con imágenes de mis pepinos”, continúa Makoto. “Esta tecnología era mucho más precisa de lo que esperaba, y pensé que podría solucionar mi problema”.


El aprendizaje profundo, al límite
Uno de los problemas actuales del aprendizaje profundo es que necesita un conjunto de datos de entrenamiento muy grande. Por eso, Makoto pasó tres meses sacando fotos a 7.000 pepinos, pero no son suficientes.

“Cuando hice una validación con las imágenes de entrenamiento, la precisión al reconocer los pepinos era de más del 95%, pero, con pepinos reales, se reduce al 70%. Sospecho que el modelo de red neuronal tiene el problema de “sobreajustarse” (lo que pasa cuando el modelo está entrenado para encajar solamente con el conjunto de datos de entrenamiento) al no haber suficientes imágenes de ejemplo”.

El segundo problema del aprendizaje profundo es que consume muchos recursos informáticos. La clasificadora actual utiliza un PC corriente con Windows para el modelo de red neuronal, y, aunque reduce la resolución de las fotos de los pepinos, tarda tres días en completar un modelo de 7.000 imágenes.

“El sistema solo puede clasificar los pepinos según su forma, longitud y nivel de distorsión. No reconoce el color, la textura ni las imperfecciones, que mejorarían su precisión, pero también prolongarían el entrenamiento”.
Para mejorar el aprendizaje profundo, algunas empresas han comenzado a entrenarlo a gran escala, pero sus servidores son muy caros. Google ofrece Cloud Machine Learning (Cloud ML) para que los desarrolladores puedan probar el aprendizaje profundo sin tener que invertir mucho dinero.



Fecha de publicación:



Reciba la newsletter gratis | haga clic aquí


Otras noticias en este sector:


¡Suscríbase a nuestra newsletter y manténgase al día con las últimas noticias!

Suscribirse Ya soy suscriptor