Periódicamente aparece una gran ola en computación, cuando el cambio va más allá de los laboratorios o los centros de procesos de datos de las grandes compañías, y tienen efectos notables en la tecnología que utilizamos en la vida cotidiana. La Inteligencia Artificial es una gran ola que ya se ha puesto en movimiento, e Intel se sitúa al frente con desarrollos innovadores en hardware, software y formación e investigación.
La Inteligencia Artificial y el Deep Learning, se enfrentan a retos importantes en varias áreas como la capacidad para manejar los enormes volúmenes de datos que requieren, el hardware necesario para obtener la “percepción” del mundo, como reconocimiento de vídeo, voz, etc., y otros. En cuando al tema de la creación de modelos se enfrenta a dos problemas principales, la regresión y la clasificación.
La regresión la podemos acotar como la alimentación multidimensional e interpolación de función. Se intenta obtener la aproximación a funciones con el mínimo coste o con la desviación mínima.
La regresión trata de predecir la dependencia numérica, el valor de una función, por ejemplo, el valor de una casa, desde un conjunto de parámetros de entrada, como la localización, el número de dormitorios y baños, la construcción, la edad, etc.
La clasificación intenta identificar los miembros de un grupo. De los múltiples eventos caracterizados por múltiples parámetros de entrada, se trata de saber en qué grupos etiquetarlos. Por ejemplo, los filtros de spam. Los correos son clasificados por un algoritmo, y si cumplen con ciertos requerimientos, se clasifica como spam.
Uno de los efectos del aprendizaje es que los problemas se pueden resolver desplegando una máquina diseñada para resolverlos. Una vez que puede clasificar correctamente los eventos, este es el objetivo final de una máquina de aprendizaje, y se llama scoring (tanteo) o predicción, el algoritmo está preparado para operar con datos que aún no ha visto.
En los casos de aprendizaje supervisado, los datos de entrenamiento están pre-etiquetados los valores de la función son conocidos.
En una situación de aprendizaje no supervisado, donde los algoritmos detectan automáticamente las características de los datos, dependiendo del propósito del algoritmo va a hacer suposiciones sobre lo que son los datos y sus propiedades. Son tareas habituales de aprendizaje no supervisado el agrupamiento y el filtrado.
En aprendizaje reforzado el coste depende del entorno y la situación requerida dentro de él. Finalmente, los requisitos determinan los costes. Los algoritmos calculan un error acumulativo o coste de función que el modelo hace para todos los ejemplos en cada paso del entrenamiento. El error acumulativo es utilizado en optimización para ajustar el siguiente conjunto de parámetros, y el proceso continúa.
Las redes de aprendizaje profundo pueden actuar de una manera supervisada o no. En teoría obtienes mejor tanteo a través de la detección automática de características.
El tanteo es lo que le da al algoritmo vida en el mundo. Te devuelve la recomendación de una película, filtra la búsqueda de fotos, permite a los robots maniobrar en un terreno no familiar.
Entrenas los algoritmos de aprendizaje en clasificación, regresión y predicción, para que finalmente puedan imitar el trabajo y complejidad de la mente humana.
Hoy ya estamos en situación de poner en marcha sistemas de Inteligencia Artificial, porque tenemos la capacidad de manejar grandes cantidades de datos que requiere el reconocimiento de texto, voz, etc., incluyendo objetos presentes en alta resolución. También tenemos la capacidad de procesamiento y almacenamiento de esas cantidades de datos. Y se han mejorado las técnicas matemáticas para producir algoritmos más potentes para las redes neuronales.
Intel está comprometido en hacer la mayor inversión en tecnología, formación, recursos e investigación para la Inteligencia artificial.
En hardware cuenta con los procesadores más avanzados y más utilizados en plataformas IA. El 80% de las 500 mayores supercomputadoras utilizan Intel Xeon Phi, y llegan nuevas familias más avanzadas.
Un punto crítico es el software. Intel cuenta con soluciones para Machine y Deep learning
A nivel más bajo, Intel optimiza las funciones primitivas mediante Math Kernel Library (MKL), Data Analytics Acceleration Library (DAAL), y la distribución propia de Python. En Intell Parallel Studio, el producto para el desarrollo empresarial, encontramos estas librerías y para los lenguajes C++, Fortran y Python, para Windows, Linux y macOS.
A nivel de framework, el compromiso es optimizar los más populares mediante la incorporación de librerías. Intel tiene distribuciones mejoradas de algunos de ellos como Neon o Caffe
En los últimos años ha hecho varias adquisiciones muy importantes.
Adquirió un líder reconocido en AI, Nervana Systems, para acelerar el tiempo de aprendizaje, optimizando las redes neuronales. Esperamos que en los próximos 3 años se divida por 100 el tiempo de aprendizaje, y ahora es la marca de referencia de Intel para IA.
También adquirió la plataforma de Cognitive Computing, Saffron, para impulsar el razonamiento basado en la memoria y los análisis de datos multi-fuente y dinámicos, con una tecnología que se adapta especialmente bien en los dispositivos pequeños, para IoT.
Aún pendiente de aprobación, Movidius es un líder en visión artificial, y viene a unirse a la solución completa de cámaras 3D, Intel RealSense
Dejar un comentario
¿Quieres unirte a la conversación?¡Siéntete libre de contribuir!