Retos en Inteligencia Artificial con Intel

Periódicamente aparece una gran ola en computación, cuando el cambio va más allá de los laboratorios o los centros de procesos de datos de las grandes compañías, y tienen efectos notables en la tecnología que utilizamos en la vida cotidiana. La Inteligencia Artificial es una gran ola que ya se ha puesto en movimiento, e Intel se sitúa al frente con desarrollos innovadores en hardware, software y formación e investigación.

 

La Inteligencia Artificial y el Deep Learning, se enfrentan a retos importantes en varias áreas como la capacidad para manejar los enormes volúmenes de datos que requieren, el hardware necesario para obtener la “percepción” del mundo, como reconocimiento de vídeo, voz, etc., y otros. En cuando al tema de la creación de modelos se enfrenta a dos problemas principales, la regresión y la clasificación.

 

La regresión la podemos acotar como la alimentación multidimensional e interpolación de función. Se intenta obtener la aproximación a funciones con el mínimo coste o con la desviación mínima.

 

La regresión trata de predecir la dependencia numérica, el valor de una función, por ejemplo, el valor de una casa, desde un conjunto de parámetros de entrada, como la localización, el número de dormitorios y baños, la construcción, la edad, etc.

 

La clasificación intenta identificar los miembros de un grupo. De los múltiples eventos caracterizados por múltiples parámetros de entrada, se trata de saber en qué grupos etiquetarlos. Por ejemplo, los filtros de spam. Los correos son clasificados por un algoritmo, y si cumplen con ciertos requerimientos, se clasifica como spam.

Una máquina de aprendizaje incorpora partes sustanciales de diferentes campos, como estadísticas, inteligencia artificial, análisis de datos y métodos numéricos. Es una aplicación capaz de mejorar los resultados de las predicciones, a base de iteraciones en las que va mejorando, o, dicho de otro modo, aprende con la experiencia.

 

Este proceso de aprendizaje se llama entrenamiento y puede significar un importante número de iteraciones para gradualmente ir mejorando los resultados. Durante el proceso, se le proporcionan datos al algoritmo de la máquina de aprendizaje, con los que va refinando su representación interna, los parámetros numéricos, encontrando una cantidad de desviaciones o errores de aprendizaje.

El objetivo en este estado es minimizar el coste funcional, los errores funcionales. Cuando el rendimiento de los algoritmos mejora, decimos que hay aprendizaje.

Uno de los efectos del aprendizaje es que los problemas se pueden resolver desplegando una máquina diseñada para resolverlos. Una vez que puede clasificar correctamente los eventos, este es el objetivo final de una máquina de aprendizaje, y se llama scoring (tanteo) o predicción, el algoritmo está preparado para operar con datos que aún no ha visto.

En los casos de aprendizaje supervisado, los datos de entrenamiento están pre-etiquetados los valores de la función son conocidos.

En una situación de aprendizaje no supervisado, donde los algoritmos detectan automáticamente las características de los datos, dependiendo del propósito del algoritmo va a hacer suposiciones sobre lo que son los datos y sus propiedades. Son tareas habituales de aprendizaje no supervisado el agrupamiento y el filtrado.

En aprendizaje reforzado el coste depende del entorno y la situación requerida dentro de él. Finalmente, los requisitos determinan los costes. Los algoritmos calculan un error acumulativo o coste de función que el modelo hace para todos los ejemplos en cada paso del entrenamiento. El error acumulativo es utilizado en optimización para ajustar el siguiente conjunto de parámetros, y el proceso continúa.

Las redes de aprendizaje profundo pueden actuar de una manera supervisada o no. En teoría obtienes mejor tanteo a través de la detección automática de características.

El tanteo es lo que le da al algoritmo vida en el mundo. Te devuelve la recomendación de una película, filtra la búsqueda de fotos, permite a los robots maniobrar en un terreno no familiar.

Entrenas los algoritmos de aprendizaje en clasificación, regresión y predicción, para que finalmente puedan imitar el trabajo y complejidad de la mente humana.

Hoy ya estamos en situación de poner en marcha sistemas de Inteligencia Artificial, porque tenemos la capacidad de manejar grandes cantidades de datos que requiere el reconocimiento de texto, voz, etc., incluyendo objetos presentes en alta resolución. También tenemos la capacidad de procesamiento y almacenamiento de esas cantidades de datos. Y se han mejorado las técnicas matemáticas para producir algoritmos más potentes para las redes neuronales.

Intel está comprometido en hacer la mayor inversión en tecnología, formación, recursos e investigación para la Inteligencia artificial.

En hardware cuenta con los procesadores más avanzados y más utilizados en plataformas IA. El 80% de las 500 mayores supercomputadoras utilizan Intel Xeon Phi, y llegan nuevas familias más avanzadas.

Un punto crítico es el software. Intel cuenta con soluciones para Machine y Deep learning

A nivel más bajo, Intel optimiza las funciones primitivas mediante Math Kernel Library (MKL), Data Analytics Acceleration Library (DAAL), y la distribución propia de Python. En Intell Parallel Studio, el producto para el desarrollo empresarial, encontramos estas librerías y para los lenguajes C++, Fortran y Python, para Windows, Linux y macOS.

A nivel de framework, el compromiso es optimizar los más populares mediante la incorporación de librerías. Intel tiene distribuciones mejoradas de algunos de ellos como Neon o Caffe

En los últimos años ha hecho varias adquisiciones muy importantes.

Adquirió un líder reconocido en AI, Nervana Systems, para acelerar el tiempo de aprendizaje, optimizando las redes neuronales. Esperamos que en los próximos 3 años se divida por 100 el tiempo de aprendizaje, y ahora es la marca de referencia de Intel para IA.

También adquirió la plataforma de Cognitive Computing, Saffron, para impulsar el razonamiento basado en la memoria y los análisis de datos multi-fuente y dinámicos, con una tecnología que se adapta especialmente bien en los dispositivos pequeños, para IoT.

Aún pendiente de aprobación, Movidius es un líder en visión artificial, y viene a unirse a la solución completa de cámaras 3D, Intel RealSense

Esperamos ver inteligencia en cada dispositivo, con funciones de datos distribuidas desde cada dispositivo hasta la nube en un continuo, y con comunicaciones en tiempo real con redes 5G, momento en cual tendremos la infraestructura, el conocimiento y el software para crear soluciones de IA más avanzadas, que podrán pensar de forma independiente.

 

Más Información

Desde Danysoft y si rellenas este formulario, te ayudaremos a facilitarte la información que necesitas.

2 + 1 = ?

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir!

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos Relacionados

Materiales amigos Danysoft

Recopilatorio de las grabaciones, artículos, guías y libros puestos a disposición de la comunidad por Danysoft

22/07/2019

Seguir leyendo  

FotoWare Saas

Fotoware Saas en un sistema de gestión de Activos Digitales (Sistema DAM) que te permite trabajar con tus recursos digitales de forma organizada y rápida.

26/06/2019

Seguir leyendo  

Promocion del 25% en Intel Software

No dejes pasar esta increíble oportunidad de adquirir nuevas licencias de Intel Software con un tremendismo descuento del 25%.

18/06/2019

Seguir leyendo  

Intel Software Developer Workshop 2019

Conoce las últimas novedades de High Performance Computing e Inteligencia Artificial de Intel en nuestro Workshop que tendrá lugar en Madrid el día 23 de mayo 2019.

22/05/2019

Seguir leyendo