Informe Deep Learning

INTRODUCCION En el siguiente informe haremos una breve explicación sobre los temas tratados en la conferencia “Visión a

Views 174 Downloads 2 File size 822KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

INTRODUCCION

En el siguiente informe haremos una breve explicación sobre los temas tratados en la conferencia “Visión artificial con Deep learning” que estuvo a cargo del Ing. Juan Manuel Jacinto Sandoval, en la conferencia trato diferentes temas relacionados con la inteligencia artificial, así como también nos presentó algunos de sus trabajos desarrollados en este tema y nos invitó a involucrarnos más en el tema pues representa uno de los grandes retos de la ingeniería y no podemos ser ajenos a ella. Vivimos un momento histórico, no porque las organizaciones quieran incorporar algo radicalmente nuevo, sino porque ahora son conscientes de que existe tecnología capaz de procesar todos los datos de los que disponen, hacerlo en escalas de tiempo inferiores a las humanas e incluso proporcionar la inteligencia necesaria.

INTELIGENCIA ARTIFICIAL

La inteligencia artificial (IA) hace posible que las máquinas aprendan de la experiencia, se ajusten a nuevas aportaciones y realicen tareas como hacen los humanos. La mayoría de los ejemplos de inteligencia artificial de los que usted escucha hoy día – desde computadoras que juegan ajedrez hasta automóviles que se conducen por sí solos – se sustentan mayormente en aprendizaje a fondo (Deep learning) y procesamiento del lenguaje natural. Mediante el uso de estas tecnologías, las computadoras pueden ser entrenadas para realizar tareas específicas procesando grandes cantidades de datos y reconociendo patrones en los datos. El término inteligencia artificial fue adoptado en 1956, pero se ha vuelto más popular hoy día gracias al incremento en los volúmenes de datos, algoritmos avanzados, y mejoras en el poder de cómputo y el almacenaje. La investigación inicial de la inteligencia artificial en la década de 1950 exploraba temas como la solución de problemas y métodos simbólicos. En la década de 1960, el Departamento de Defensa de los Estados Unidos mostró interés en este tipo de trabajo y comenzó a entrenar computadoras para que imitaran el razonamiento humano básico. Por ejemplo, la Defense Advanced Research Projects Agency (DARPA, Agencia de Proyectos de Investigación Avanzada de Defensa) realizó proyectos de planimetría de calles en la década de 1970. Y DARPA produjo asistentes personales inteligentes en 2003, mucho tiempo antes que Siri, Alexa o Cortana fueran nombres comunes.

DEEP LEARNING El cerebro es uno de los órganos más complejos y vitales del ser humano. Se ha estimado que el cerebro humano contiene de cincuenta a cien mil millones de neuronas, de las cuales cerca de diez mil millones son células piramidales corticales, las cuales transmiten señales al cuerpo a través de mil billones de conexiones sinápticas. Las máquinas están empezando a utilizar el 'cerebro', muy parecido al del ser humano. Una red de neuronas artificial es una herramienta matemática que modela, de forma simplificada, el funcionamiento de las neuronas en el cerebro. La arquitectura es la siguiente: las neuronas se organizan en capas, donde las neuronas verdes son las entradas que reciben la información, las azules son las ocultas, que contienen cálculos intermedios de la red, y las amarillas son las salidas que contienen el resultado. Normalmente hay una capa de entrada, una de salida y varias ocultas. A más capas ocultas, más compleja es la red y mejores resultados predice, pero también es más difícil crear el modelo. Todas las neuronas contienen un número llamado bias, que indica su importancia en la red, además todas están conectadas entre sí y contienen un peso que indica la importancia de la conexión. La operación en la red de neuronas sería sencilla si no fuera por la función activación, la cual recibe como entrada la suma de todos los números que llegan por las conexiones anteriores, transforma el valor mediante una fórmula, y produce un nuevo número.

La misión de esta función activación es mantener los números producidos por cada neurona dentro de un rango razonable. Existen diferentes arquitecturas de redes de neuronas diferentes, entre las principales tenemos: la máquina de Boltzmann restringida (RBM), la red de creencia profunda (DBN), las redes de neuronas convolutivas (CNN), y las redes de neuronas recurrentes (RNN). Una de las claves de la IA avanzada está en el aprendizaje. Es cada vez más habitual que les pidamos a las máquinas que aprendan por sí solas. No podemos permitirnos el lujo de pre-programar reglas para lidiar con las infinitas combinaciones de datos de entrada y situaciones que aparecen en el mundo real. En vez de hacer eso, necesitamos que las máquinas sean capaces de autoprogramarse, en otras palabras, queremos máquinas que aprendan de su propia experiencia. La disciplina del Aprendizaje Automático (Machine Learning) se ocupa de este reto y gracias a la tormenta perfecta en la que nos acabamos de adentrar todos los gigantes de Internet han entrado de lleno en el mundo del aprendizaje automático, ofreciendo servicios en la nube para construir aplicaciones que aprenden a partir de los datos que ingieren.

ALGUNAS HERRAMIENTAS UTILIZADAS Tensor Flow Los sistemas de inteligencia artificial son cada vez más importantes en el mundo de la empresa para ahorrar costes económicos. El motor de búsqueda Google lanzó la herramienta de software abierto TensorFlow en 2015 y está teniendo un gran éxito comercial. Varias empresas la utilizan para sus procesos, pues resulta de gran utilidad por su versatilidad y nivel de desarrollo. Ya existían precedentes en 2011 como DistBelief, que realizaba funciones similares, basándose en el sistema de redes neuronales. La necesidad de crear una herramienta con un bagaje de datos mayor y editable, llevó al desarrollo de TensorFlow. Este software está tan extendido que, hoy, es imposible entender el desarrollo de la inteligencia artificial sin su aportación. En qué consiste TensorFlow TensorFlow es una biblioteca de código abierto que se basa en un sistema de redes neuronales. Esto significa que puede relacionar varios datos en red simultáneamente, de la misma forma que lo hace el cerebro humano. Por ejemplo, puede reconocer varias palabras del alfabeto porque relaciona las letras y fonemas. Otro caso es el de imágenes y textos que se pueden relacionar entre sí rápidamente gracias a la capacidad de asociación del sistema de redes neuronales. En el programa, se almacenan todas las pruebas y experimentos que se realizaron para el desarrollo de programas y aplicaciones. La decisión de liberar TensorFlow se tomó en noviembre de 2015, por lo que hoy es posible acceder a esta herramienta libremente y editarla en función de las necesidades. Ya cuando se lanzó, la capacidad de reconocimiento y relación que tenía era superior al 93 % en las imágenes, y su perfeccionamiento a través de la licencia OpenSource ha permitido su uso masivo. Además, también consiguió que en la versión de 2015 el tiempo de procesamiento se redujese a los 0,7 segundos de media.

Por lo tanto, se trata de una herramienta que mejoró en capacidad de procesamiento y en rapidez.

Aplicaciones de TensorFlow Los directivos de Google consideran que TensorFlow puede ser muy útil para las empresas sanitarias, de seguros y automovilísticas. Desde que liberó el código, varias empresas utilizan el software o se han basado en el mismo para desarrollar aplicaciones. El gigante de los seguros AXA ya utiliza el software para predecir (con un 78% de acierto) las posibilidades de que un asegurado cause un grave accidente de coche. Otra aplicación popular derivada del uso de los datos de TensorFlow es el motor de reconocimiento de imágenes DeepDream. Miles de startups e investigadores universitarios apuestan por TensorFlow como base para desarrollar sus propios sistemas de inteligencia artificial. Además de por altruismo, Google liberó TensorFlow para extender esta tecnología en el desarrollo de aplicaciones en distintos dispositivos. También podemos decir que responde a una estrategia a largo plazo para estar presentes en más dispositivos y plataformas. Una ventaja de la política de Google es que sus competidores, Amazon y Microsoft, se vieron obligados a facilitar herramientas de inteligencia artificial con código abierto. Hoy, ofrecer herramientas de libre acceso de inteligencia artificial es una política de empresa, sobre todo en el sector tecnológico.

Keras Keras es una biblioteca de Redes Neuronales de Código Abierto escrita en Python. Es capaz de ejecutarse sobre TensorFlow, Microsoft Cognitive Toolkit o Theano. Está especialmente diseñada para posibilitar la experimentación en más o menos poco tiempo con redes de Aprendizaje Profundo. Sus fuertes se centran en ser amigable para el usuario, modular y extensible. Inicialmente fue desarrollada como parte de los esfuerzos de investigación del proyecto ONEIROS (Open-ended Neuro-Electronic Intelligent Robot Operating System). Su autor principal y mantenedor ha sido el ingeniero de Google François Chollet. En 2017, el equipo de TensorFlow de Google decidió ofrecer soporte a Keras en la biblioteca de core de TensorFlow Chollet explica que Keras ha sido concebido para actuar como una interfaz en lugar de ser una framework de machine learning standalone. Ofrece un conjunto de abstracciones más intuitivas y de alto nivel haciendo más sencillo el desarrollo de modelos de aprendizaje profundo independientemente del backend computacional utilizado. Microsoft añadió un backend en CNTK a Keras también, disponible desde la CNTK v2.0. Keras contiene varias implementaciones de los bloques constructivos de las redes neuronales como por ejemplo los layers, funciones objetivo, funciones de activación, optimizadores matemáticos. Keras permite generar modelos de Deep learning en Smartphone tanto sobre iOS como sobre Android, sobre una Java Virtual Machine o sobre web.

Unidad de procesamiento gráfico (GPU) Una unidad de procesamiento gráfico o GPU (graphics processing unit) es un coprocesador dedicado al procesamiento de gráficos u operaciones de coma flotante, para aligerar la carga de trabajo del procesador central en aplicaciones como los videojuegos o aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la unidad central de procesamiento (CPU) puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos). La GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos. Es tentador utilizar GPU para Deep learning y la inferencia, dado el entusiasmo en torno a su aceleración. Sin embargo, es importante obtener una comprensión más profunda de la fuente de aceleración para utilizar estos recursos de manera efectiva. En este artículo, examinaremos la dependencia del rendimiento de una aplicación Deep Learning típica. Usaremos como ejemplo la máquina DGX-1 de nVidia, muy publicitada, pero los puntos a continuación son lo suficientemente genéricos como para aplicarlos a una GPU o TPU genérica.

PROCESO DE DEEP LEARNING PASO A PASO IDENTIFICACIÓN Y ENTRENAMIENTO: Supongamos que deseas que una máquina identifique a un conejo. Lo primero sería entrenar a un algoritmo con una imagen igual. Para ello, dividirías las funciones de las capas en primero un proceso de entrada para que luego se dé el proceso de salida. PROCESAMIENTOS DE DATOS DE ENTRADA: Ahora bien, lo que correspondería hacer seria elaborar una capa que comprenda a la información que será proporcionada. De esa forma, se haría necesario que las neuronas analizaran la información por cada pixel de la imagen. ELABORACIÓN DE UNA CAPA DE SEGUNDO NIVEL: Aquí se quiere procesar todos pixeles, esto se logra cuando se puede ver por separado los vectores que se encuentran dentro de los mismos pixeles. TERCER NIVEL: En este punto se hace una unión de todos los bordes para crear las formas y diseñar los objetos de la imagen como tal.

CAPA CUATRO: Se hace uso de los filtros para identificar que es un conejo y cuales no lo son. Las características que buscará será las siguientes: cuatro patas, una cola, dos orejas. Estos datos son trasladados a la última etapa, y es allí donde se hace la unión de las características para identificar si es o no un conejo.

LOS MEJORES EJEMPLOS DE DEEP LEARNING Es importante señalar que Deep learning ha inundado el sector empresarial, pero también está presente en otros ámbitos. Conoce algunos de los mejores ejemplos de Deep learning, a continuación:

 RECONOCIMIENTO DE VOZ: Los algoritmos de Deep learning han logrado ser una herramienta importante en este campo. Ya que, han podido asemejarse en todos los aspectos del habla humana, como lo es la fonética, la parte lingüística y hasta la acústica. Y, lo mejor del caso es que a medida que pasan los años, estos sistemas se actualizan y se mejoran de forma impresionante. Obteniendo así dos cosas esenciales, rapidez y presión, en la búsqueda de la voz. Un ejemplo de esto, es lo que creado una empresa haciendo uso de la tecnología de aprendizaje profundo el sistema de Baidu, que también se le llama Deep Speech 2. Su slogan se basa, en que es capaz de reconocer la voces mejor que lo haría un ser humano.

 LOS FAMOSOS TRADUCTORES DE IDIOMAS: Un ejemplo de esto es el que, de seguro has utilizado en Google. Lo que procura es imitar como traduciría un ser humano esa expresión al idioma que se necesita. A lo mejor te imaginas que esta tecnología traduce palabra por palabra, pero la verdad es que no es así. En vez de eso, la red neuronal puede comprender la frase en ese idioma y tomando en cuenta el sentido gramatical y el contexto, traduce la expresión. Así de sencillo, lo hace en cuestión de segundos. ¡Asombroso! ¿Cierto?

COMPRENSIÓN SEMÁNTICA: En este ejemplo entra lo que utiliza la Apple, el asistente virtual, llamado Siri. Aquí, las máquinas son capaces de comprender conversaciones y comentarios en las redes.

IDENTIFICACIÓN DE IMÁGENES: Otro ejemplo de Deep learning en este campo, es lo que hacen los policías y los departamentos de investigación para identificar un individuo. Hacen uso del reconocimiento facial, aquí los algoritmos se basan en analizar los pixeles introducidos y pueden reconocer aquellos que sean iguales a los que tiene en su data. Pero, este no es el único ejemplo de Deep learning, también se utiliza para identificar en tiendas físicas y en a la autentificación. También lo puedes ver en las redes sociales cuando, vas a etiquetar a un amigo y la misma red lo identifica sin necesidad de que coloques su nombre. CAMPO DE LA MEDICINA: Los aportes del aprendizaje profundo son increíbles, te muestro tres ejemplos de lo que ha logrado esta tecnología en este campo de estudio. Primeramente, está un sistema llamado RADIO, el cual se utiliza para diagnosticar cáncer a través de radiografías. Los investigadores dicen, que esta gran tecnología se caracteriza por ser una herramienta fácil de usar y muy rápida. Se menciona que puede analizar unos 10 millones de radiografías en poco más de 30 segundos. Otro ejemplo, que ha ayudado a la medicina por medio de Deep learning, es Art medical, la cual es una gran empresa que busca solucionar problemas. Los cuales se presentan en los con pacientes que se encuentran en cuidados intensivos. Por ello, han creado tubos que sirven para alimentación y monitores que son inteligentes. Esto puede contribuir a la evitar muertes por complicaciones adquiridas en los hospitales. En el mismo orden de ideas, se ha creado un sistema que puede predecir con un 80% de exactitud, en un paciente la presencia de alguna enfermedad mental.

Para finalizar con los ejemplos, tenemos a Corti. Que es una tecnología que se ha creado para analizar con detalle las llamadas de emergencia, puede detectar síntomas y hasta condiciones médicas por la forma de hablar de las personas. De esa manera le informa a los del servicio de emergencia que le está ocurriendo a la persona.

"Año de la lucha contra la corrupción y la impunidad"

UNIVERSIDAD NACIONAL DE PIURA FACULTAD CIENCIAS – ING ELECTRONICA Y TELECOMUNICACIONES

PROCESAMIENTO DIGITAL DE SEÑALES



CURSO

:



DOCENTE

: ING.JUAN MANUEL JACINTO SANDOVAL



TEMA

:



ALUMNO

:





DEEP LEARNING

DUARD ZAPATA OSCAR FABIAN CICLO ACADÉMICO

:

2019-I

PIURA – PERÚ

2019