IHC Antecedentes, Actualidad, Futuro

ANTECEDENTES La investigación de IHC a lo largo de los años ha sido fructífera. Por ejemplo, la interfaz gráfica utiliza

Views 140 Downloads 3 File size 75KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

ANTECEDENTES La investigación de IHC a lo largo de los años ha sido fructífera. Por ejemplo, la interfaz gráfica utilizada en Microsoft Windows 2000, está basada en las interfases de los Macintosh, que a su vez están basadas en los trabajos del Xerox PARC, que se basan a su vez en los trabajos del SRI (Stanford Research Institute) y del MIT (Massachusetts Institute of Technology). O por ejemplo, casi toda la creación actual de software se hace con ayuda de User Interface Toolkits y de Interface Builders (por ejemplo, Microsoft Visual Studio). Cabe decir, que estos conceptos fueron utilizados primero en el mundo universitario. Por otro lado, incluso el importante crecimiento de la World-Wide Web se debe, en parte, a los avances en investigación en el mundo de la IHC, como sucede por ejemplo con la tecnología hipertexto. A continuación hablaremos de los cambios más significativos en el mundo de la IHC: • • • • • • • •

Manipulación

directa

El Las Programas Edición y Hoja

MANIPULACIÓN

de

de ratón ventanas dibujo procesamiento de

Reconocimiento DIRECTA

objetos

y de

de DE

OBJETOS

gráficos (mouse) (windows) pintura texto cálculo Hipertexto gestos GRÁFICOS

• 1963. IVAN SUTHERLAND. Tesis doctoral en el MIT: SketchPad [SUT63]. El sistema SketchPad soportaba la manipulación de objetos gráficos mediante un lápiz óptico, permitiendo coger los objetos, moverlos y cambiarles el tamaño utilizando algunas restricciones. Fue producido en los laboratorios Lincoln (Lincoln Labs) con el soporte de las fuerzas aéreas y la NSF. • 1966-1967. WILLIAM NEWMAN. William Newman’s Reaction Handler [NEW68]. Este sistema fue creado en el Imperial College de Londres y permitía la manipulación directa de gráficos. Introduzco los “Light Handles”, una forma de potenciómetro gráfico que fue, con toda probabilidad, el primer widget. • 1968. MIT’s Lincoln Labs. AMBIT/G. Este sistema incluyó representaciones de iconos, reconocimiento de gestos, menús dinámicos con la ayuda de dispositivos apuntadores y selección de iconos apuntándolos. • 1975. DAVID CANFIELD SMITH. Tesis doctoral en Stanford: Pygmalion [SMI75]. Acuñó por primera vez el término Icono. • Años 70. Xerox PARC. Muchas de las técnicas de interacción de interfaces de manipulación directa (por ejemplo, la forma como se selecciona el texto, como se manipulan los objetos, etc.) se hicieron populares a raíz de la investigación llevada a cabo por el

laboratorio de Xerox PARC. Otro importante hito de aquellas investigaciones fue la idea de WYSIWYG (what you see is what you get), idea que ha llegado hasta nosotros a través de procesadores de texto como Microsoft Word 2000. • 1977. ALAN KAY, Xerox PARC: Dynabook. En este artículo, ALAN KAY acuñó el término de interfases de manipulación directa [KAY77] • 1981. Xerox Star. Sale al mercado el primer sistema comercial que hace extenso el uso de la Manipulación Directa: Xerox Star [SMI82]. Le siguen el Apple Lisa en 1982 [WIL83] y el Macintosh en 1984 [WIL84]. • 1982. BEN SHNEIDERMAN, Universidad de Maryland. BEN SHNEIDERMAN acuñó el término “Manipulación directa”, identificando además los distintos componentes [SHN83].

EL RATÓN Es el segundo dispositivo de entrada más utilizado. El mouse o ratón es arrastrado a lo largo de una superficie para maniobrar un apuntador en la pantalla del monitor. Fue inventado por Douglas Engelbart y su nombre se deriva por su forma la cual se asemeja a la de un ratón. Otro tipo de dispositivo similar es el lápiz óptico, la tableta digitalizadora o incluso las pantallas táctiles. • 1965. NLS. El primer ratón se desarrolló en los laboratorios SRI, como parte del proyecto NLS (financiado por ARPA, NASA y Rome ADC), como sustituto económico de los lápices ópticos que habían sido usados desde 1954. • 1968. DOUG ENGELBART. Algunos de los usos actuales del ratón fueron demostrados ya en 1968, dentro del proyecto NLS, en un film [ENG68]. • 1970. Xerox PARC popularizó el ratón como un dispositivo de entrada práctico. • 1981. Xerox Star. Se comercializa por primera vez como parte del Xerox Star. Más tarde aparece en el Apple Lisa (1982), y en el Apple Macintosh (1984).

LAS

VENTANAS

• 1968. ENGELBART. El uso de múltiples ventanas fue demostrado por ENGELBART, dentro del proyecto NLS [ENG68]. • 1969. ALAN KAY. Tesis doctoral en Universidad de Utah. ALAN KAY propuso la idea de ventanas traslapadas [KAY69]. • 1974. Stanford University. Sistema COPILOT. • 1974. MIT. Editor de textos EMACS. • 1974. Xerox PARC. Los sistemas Smalltalk [GOL79] e InterLisp [TEI77], introdujeron el uso de las ventanas traslapadas. • 1979. Lisp Machines Inc. Uno de los sistemas comerciales que primero introdujo el uso de ventanas fue en Lisp Machines Inc. (LMI) y en Symbolics Lisp Machines. • 1981. Xerox PARC. El Cedar Window Manager fue el gestor de ventanas con más

relevancia de la época [SWI86]. • 1981. Xerox Star. Xerox Star fue el primer sistema comercial que popularizó las ventanas. En sus primeras versiones no utilizaba ventanas traslapadas. Sólo permitía ventanas principales y no superpuestas. • 1982. Apple Lisa. Junto al Xerox Star(1981), el Apple Lisa también ayudó a popularizar el uso de ventanas. Este sistema utilizaba ventanas traslapadas. • 1983. Carnegie Mellon University’s Information Technology Center. Al anterior gestor de ventanas, le siguió el Andrew. • 1983. Lee Lorenzen & Dan Meyer. Primera versión de GEM (Graphical Environment Manager) Desktop para Atari. • 1984. Apple Macintosh. El Apple Macintosh, junto con sus predecesores (Xerox Star en 1981 y Apple Lisa en1982), ayudó a popularizar el uso de las ventanas en las aplicaciones informáticas. Este sistema utilizaba ventanas traslapadas. • 1984. MIT. El sistema de ventanas estándar X Window (que utilizan muy a menudo los sistemas UNIX), fue desarrollado en 1984 por investigadores del MIT [SCH86]. • 1985. Lee Lorenzen & Dan Meyer. Segunda versión de GEM Desktop, para AtariAmstrad PC1512. • 1985. MicroSoft. Sale la primera versión de MS-Windows (1.0) sobre MSDOS. • 1988 Lee Lorenzen & Dan Meyer. Tercera –y última– versión de GEM Desktop. Disponible para PC y ya disponía de un Programmers Toolkit y de un Editor de Textos. • 1992. MicroSoft. MS-Windows for WorkGroups (3.1). • 1995. MicroSoft. MS-Windows NT 3.51 y MS-Windows 95.

PROGRAMAS DE DIBUJO Y PINTURA • 1963. IVAN SUTHERLAND. Tesis doctoral en el MIT: SketchPad [SUT63]. La gran mayoría de la tecnología actual que utilizan los programas gráficos, fue demostrada el 1963 por SUTHERLAND en el sistema Sketchpad. • 1965. NLS. Uno de los periféricos imprescindibles en el mundo de las aplicaciones de dibujo es el ratón. El uso de este dispositivo de entrada fue demostrado en 1965 por NLS. • 1968. KEN PULFER & GRANT BECHTHOLD, National Research Council of Canada. En 1968 se construyó un ratón que se utilizó en un sistema de animación de largometrajes para dibujar los fotogramas de una película. • 1971. National Film Board of Canada. El film “Hunger” ganó muchos premios después de ser dibujado utilizando una tableta financiada por el National Film Board of Canada, en vez de un ratón [BUR71] • 1975. WILLIAM NEWMAN, Xerox PARC’s Alto. El Markup de WILLIAM NEWMAN fue el primer programa de dibujo seguido de cerca por el Draw de PATRICK BAUDELAIRE, que además gestionaba líneas y curvas [GOL88]. • 1974-1975. DICK SHOUP, Xerox PARC. El primer programa de ordenador para pintar fue el Superpaint.

• 1985. DIGITAL RESEARCH, INC. GEM Paint Version 2.01. Programa de dibujo de Mapa de Bits. • 1985. DIGITAL RESEARCH, INC. GEM Draw 1.0. Programa de dibujo Vectorial con fuentes de Mapa de Bits. Podia abrir dos ventanas y realizar “drag & drop” entre ellas.

EDICIÓN

Y

PROCESAMIENTO

DE

TEXTOS

• 1962. ENGELBART, Stanford Research Lab. Se implementó un procesador de textos con word wrap automático, buscar y reemplazar, macros definidas por el usuario, scroll y comandos para mover, copiar y borrar caracteres, palabras o bloques de texto. • 1965. Stanford University. TVEdit fue uno de los primeros editores basados en CRT que fue ampliamente usado [TOL65]. • 1967. Brown University (financiado por IBM). El Hypertext Editing System, disponía de editor de pantalla y formateo de cadenas de caracteres de tamaño arbitrario con la ayuda de un lápiz óptico [VAN71]. • 1967. MIT. TECO fue uno de los primeros editores de texto de pantalla. • 1968. NLS. Se demuestra la edición con la ayuda del ratón. • 1974. MIT. Editor de textos EMACS [STA79]. • 1974. Butler Lampson & Charles Simony, Xerox PARC. El Bravo fue el primer editorformateador WYSIWYG. Los primeros editores comerciales WYSIWYG fueron el Star, el LisaWrite y el MacWrite.

• 1990. Ventura Software Inc. Desarrollan este postprocesador de textos que usaba la técnica de WYSIWYG muy avanzada. Aunque ya empezaron a aparecer versiones en 1986 fue en 1990 cuando se puede utilizar en entorno PC junto con GEM. Actualmente ha derivado a la familia de productos Corel. • Primeros años 1990. Varios procesadores de texto fueron populares en entornos PC entre los que cabe destacar el “Word Star”, el “MS-Word” –el precursor del mayormente utilizado hoy en día–. HOJA

DE

CÁLCULO

• 1977-1978. FRANKSTON & BRICKLIN, MIT & Harward Business School. Estos estudiantes realizaron la primera hoja de cálculo de la historia. Se llamaba VisiCalc y fue desarrollada para el Apple II. La solución fue basada en un algoritmo de backtracking (dependency-directed backtracking) diseñado por SUSSMAN y STALLMAN en el MIT AI Lab. • 1982. LOTUS DEVELOPMENT CORPORATION. Se funda la compañía y introduce la primera versión de Lotus 1-2-3. HIPERTEXTO

• 1945. VANNEVAR BUSH. Se introdujo la idea de Hipertexto (MEMEX idea). • 1965. TED NELSON. Acuñó la palabra hipertexto [NEL65]. ACTUALIDAD Y FUTURAS APLICACIONES La Interacción entre Humanos y Computadoras, (HCI) (Human-Computer Interacton) es un área de investigación multidisciplinaria enfocada en las modalidades de interacción entre humanos y computadoras, algunas veces se utiliza el término más genérico de Interface Humano Maquina, (HMI), para referirse a la interface de usuario en un sistema de manufactura o de control de procesos. En otras palabras, la disciplina HCI investiga y trata todos los aspectos relacionados con el diseño y la implementación de las interfaces entre los humanos y las computadoras. Dada la naturaleza y objetivos, la HCI en forma innata involucra múltiples disciplinas relacionadas con la ciencia d la computación, (procesamiento de imágenes, visión computarizada, lenguajes de programación y otras similares), así como disciplinas relacionadas con las ciencias humanas (ergonomía, factores humanos, psicología cognitiva, y otras similares). La investigación sobre HCI primariamente concierne al diseño, implementación y especificación de nuevas interfaces para mejorar la interacción entre humanos y máquinas. El término mejora puede quedar relacionado con diferentes aspectos, incluyendo lo intuitivo en el uso, así como la robustez de una interface. Una interface natural, intuitiva, eficiente, robusta y configurable puede reducir fuertemente el espacio entre los modelos mentales humanos y la forma en que las computadoras, máquinas o robots, desarrollan sus tareas. Sin embargo estudios sobre HCI, que se remontan a 1975 y avances tecnológicos recientes en electrónica de consumo han abierto nuevos escenarios excitantes: gestos, posturas corporales t de manos, vocalizaciones y miradas son solo algunas de los nuevos modos de interacción que se pueden utilizar para diseñar interfaces de usuario naturales (NUIs). La edición de Septiembre de Computing Now se enfoca en la evolución actual de las interacciones hombre-máquina y en los grandes beneficios potenciales que representan las tecnologías HCI ¿Porqué el HCI está jugando un rol clave en el Desarrollo de las TIC? En el inicio de la ciencia de la computación, los diseñadores y desarrolladores le prestaron mucha menor atención a la problemática de hacer que el hardware y los productos de software fueran utilizables, o 'amigables al usuario.' Así lo requerimientos provenientes desde un creciente conjunto de usuarios para el uso simple de dispositivos eventualmente captaron la atención de los investigadores bajo la denominación de usabilidad. La Organización Internacional de Normalización (ISO) International Standards Organization, define a la usabilidad como 'la extensión por el cual un producto puede ser utilizado por usuarios específicos para alcanzar objetivos específicos con eficacia, eficiencia y satisfacción en un contexto especificado de uso' Entonces, la usabilidad define un conjunto de criterios tales como eficiencia, seguridad y utilidad, los cuales están relacionados principalmente con los sistemas de computación. Otro concepto importante quedo asociado con la usabilidad a partir de mediados la década de 1990. La Experiencia del Usuario (UX) se enfoca principalmente en parámetros relacionados con la satisfacción del usuario, la atractivo y emocionalmente satisfactorio y el atractivo estético para el usuario. El concepto de UX se ha extendido y definido mejor en algunas áreas de investigación. Por ejemplo, los diseñadores de interfaces de web a menudo impulsan el Panal de Experiencia del Usuario User Experience Honeycomb para

identificar las prioridades en la fase de diseño. Las siete celdas del panal representan a los parámetros que deben ser balanceados cuidadosamente para proporcionar a los usuarios una experiencia de calidad (QoE) satisfactoria, al asegurar que la interface es: útil, utilizable, deseable, encontrable, accesible, creíble y valuable. La compresión de los modelos mentales humanos es otro aspecto importante en la HCI. Los usuarios aprenden y guardan conocimiento y habilidades en formas diferentes, a menudo influenciados por su edad así como por factores culturales y sociales del contexto. De esta forma los estudios de HCI apuntan a cerrar los huecos entre los usuarios y las nuevas tecnologías, (las cuales actualmente se producen más rápidamente que en el pasado). Formas naturales eficientes y efectivas de HCI pueden reducir el nivel de las habilidades necesarias para utilizar dispositivos complejos; con lo cual se pueden reducir las desigualdades potenciales entre las personas al ayudarlos a solucionar algún problema relacionado con la 'frontera digital" — la separación entre aquellos que poseen acceso a las tecnologías TIC digitales y las habilidades necesarias para utilizarlas; y aquellos que ni tienen acceso a tales tecnologías ni poseen tales habilidades. Nuevas Tendencias y Oportunidades. Desde hace muchos años los humanos han enviado comandos a las 'maquinas," principalmente, por medio del paradigma de teclado y mouse, también conocido por WIMP (Windows Icon Menus Print and Click Devices). Aquí el término maquina se utiliza en su amplio espectro: Adicionalmente a los dispositivos de apuntan y seleccionar que usualmente están vinculados a las computadoras; utilizamos un tipo de teclado para discar números en un teléfono e interactuar con la TV, para seleccionar un amplio rango de funciones en el tablero de un automóvil y en muchas otras actividades que emplean la modalidad de interacción basada en un teclado. En la mayoría de los casos, la salida de la maquina hacia el usuario se basa en un dispositivo de pantalla, tal como un monitor. Como lo ha previsto Andy van Dam, en su visionaria ponencia en el primer número del Nuevo siglo de IEEE Computer Graphics & Applications' las interfaces post WINP no solo sacaran ventaja de otros de nuestros sentidos sino que además incrementaran la forma natural en la que interactuamos con nuestro ambiente y con otros humanos" Muchos sensores de bajo costo han comenzado a impactar la forma en que la gente interactúa con sus dispositivos. Las pantallas sensibles y multisensibles han impulsado el cambio en los teléfonos celulares, los teléfonos inteligentes y los gestos están ahora siendo la modalidad de mayor interacción para activar funciones en dispositivos personales. Al mismo tiempo las tecnologías de reconocimiento de la voz y el incremento de la potencia computacional de las CPU les permite a los usuarios proporcionar entradas efectivamente cuando no pueden desarrollar los gestos. Los dispositivos personales son el ejemplo más evidente de como las nuevas formas de HCI pueden reducir la brecha entre los modelos mentales de los humanos y la tecnología. Un mercado que ha liderado esta profunda innovación en HCI es el de entretenimiento. Con los usuarios preguntándoles a los fabricantes de dispositivos de juegos por nuevas formas de controlar a los caracteres, los desarrolladores de las consolas de juegos han propuesto controladores para liberar a los jugadores de las restricciones de utilizar un teclado y un mouse. Las nuevas interfaces se transformar en un medio para proveer respuestas táctiles así como para actuar por un conjunto de interfaces tangibles (el controlador se transforma en un volante, un arma, o una raqueta de tenis, por ejemplo). Los sensores, tales como el Microsoft Kinect representan un paso adicional hacia la implementación de interfaces completamente naturales en donde el cuerpo humano se

transforme en el controlador. El dispositivo le permite a los usuarios proporcionar comandos a la maquina por medio de gestos y posturas corporales tal como el hardware incluido desarrolla un procesamiento en tiempo real de los datos de base desde una cámara que obtiene un esquema del esqueleto humano conformado por un conjunto de huesos y junturas. Al reconocer la posición y orientación de los huesos le permite al hardware identificar las posturas y gestos, los cuales puede ser mapeados con comandos para controlar la maquina. Los investigadores han propuesto también sensores que pueden realizar el seguimiento de las manos de un usuario. Por ejemplo el Leap Motion puede realizar un seguimiento interactivo de las manos de un usuario al identificar la posición de los dedos y del centro de la palma, y luego computar las junturas de los dedos utilizando un resolvedor cinemático inverso. Algunos fabricantes de automóviles están proponiendo actualmente una alternativa de seguimiento de manos como modalidad de interacción en reemplazo de las pantallas táctiles tradicionales dirigidas a la gestión de las funciones de información y entretenimiento. En forma similar algunos televisores inteligentes le permiten el control a los usuarios por medio de gestos, con lo cual se puede reemplazar el control remoto tradicional. Los escenarios mencionados solo podían encontrarse en las películas de ciencia ficción, hace solo unos años atrás, pero ahora están presenten en la realidad de la HCI. Por otra parte nuevos e intrigantes escenarios aparecen como inminentes. Tales como interfaces cerebrales que parecen adecuadas para invertir la relación entre los humanos y las maquinas. El éxito de este nuevo paradigma de interacción descansa en avances tecnológicos futuros, que apuntan a transformar los dispositivos de interfaces en objetos usables y embebidos. Las interfaces basadas en tecnologías de realidad aumentada (AR), son ejemplos claros de esta transformación. Muchas aplicaciones para turismo, entretenimiento, mantenimiento, compras y redes sociales, ya están disponibles para los dispositivos personales pero nuevos sensores usables podrían pronto cambiar nuestros hábitos. Google Glass será promocionado (masivamente) en el futuro cercano y nuevos campos de aplicación se proponen diariamente. La interacción Humano-computadora y la integración humano-maquina están condenadas a transformarse en conceptos similares, y ciertamente, las soluciones del estilo de Google Glass pueden pronto ser reemplazadas por lentes de contacto que implementen interfaces basadas en el uso natural del ojo. Nuevas formas de HCI pueden cambiar significativamente nuestras vidas. Nuevos paradigmas de interacción ofrecen el cambio para la mejora de la calidad de vida para la gente que no puede sacarle ventaja a las interfaces actuales, debido a limitaciones físicas, por ejemplo. Por otra parte, nuevos problemas aparecerán, particularmente relacionados con la privacidad, la seguridad y la ética, lo cual puede potencialmente enlentecer la difusión de los nuevos productos de hardware y software basados en dispositivos usables (e invisibles). Sin embargo, algunos investigadores ya han investigado relaciones entre el diseño de interfaces y las cuestiones legales y de privacidad; las legislaciones nacionales son heterogéneas y aun no están listas para afrontar a los avances actuales y futuros de la HCI. Artículos Temáticos Para el primer articulo del tema de este mes hemos seleccionado "Tecnologías Gestuales: Desplazando a las Interfaces en una Nueva Dirección," en el cual su autor Lee Garber examina la evolución de las interfaces basadas en gestos con un enfoque en las tendencias de las tecnologías futuras. Al detectar el cuerpo, las manos, y los ojos. Los investigadores han desarrollado formas para utilizar las posturas, los gestos y las expresiones para

controlar dispositivos. El artículo también investiga los desafíos relacionados con las interfaces gestuales, especialmente vinculadas con las usabilidad y la robustez. En el articulo "El Camino hacia las Interfaces Conversacionales con Voz Natural," Charles L Ortiz discute los desafíos de la implementación efectiva de interfaces vocales. Una vez más la eficiencia y la robustez juegan roles centrales en la adopción, particularmente vinculados con la identificación tanto de las representaciones del contexto como de la semántica del significado, los cuales son cruciales para la interpretación correcta de las sentencias del lenguaje natural. La identificación del contexto esta a menudo relacionada con los estados afectivos de las personas, las emociones pueden afectar profundamente la forma en que interactuamos con otras personas, así como con los dispositivos. En el artículo de Sidney K D"Mello y sus colaboradores "Percepción Humana Natural Unimodal y Multimodal de los Estados Afectivos No Primarios durante las Interacciones entre Humanos y Computadoras" se presenta un estudio pormenorizado sobre los estados afectivos durante la HCI. Los autores se enfocan en la detección de afectos multimodales los cuales miden los estados de las personas por medio de un conjunto de parámetros, estado neutro, tedio, confusión, compromiso y frustración; cuando se suministran estímulos unimodales o multimodales. El artículo considera los diferentes impactos de las emociones humanas cuando uno (unimodal), dos (bimodal) o más que dos (multimodales) estímulos, (ya sean olfativos, visuales o auditivos) se producen. A partir de esto una interface se puede diseñar para estimular a los usuarios en formas diferentes, el estudio de las emociones percibidas juega un role central en la investigación del HCI. Para un buen ejemplo de como la HCI puede colaborar en la superación de las limitaciones físicas o mentales pasamos al articulo de "Haptic-Assisted Target Acquisition in a Visual Point-and-Click Task for Computer Users with Motion Impairments." cuyos autores Christopher Asque, Andy Day, y Stephen Laycock presentan una interface haptica que puede soportar a personas con impedimentos de movimiento de forma de que puedan lograr desarrollar tareas de apuntado y selección (point and click), con lo cual se mejora la accesibilidad al software de una computadora. El artículo final se enfoca en la modalidad bien conocida de interacción de toque múltiple. En el artículo "Comprendiendo las Interacciones de Lapicera y Toque para la Exploración de Datos en Pizarras Interactivas," Jagoda Walny y sus colaboradores han investigado como las soluciones de lapicera y toque pueden solucionar los problemas con múltiples niveles de indirecciones, (implementados por menees, cajas y paneles). El artículo describe una interface basada en toque para pizarras interactivas que se aplican al dominio de información de visualización (InfoVis), en el cual los usuarios son invitados a interactuar con tres tipos de gráficos en un formato sin modos ni botones predefinidos. Estos artículos temáticos resaltan solo algunas de las actuales corrientes de investigación en el campo. Si está buscando por investigaciones adicionales sobre otros campos relevantes de las áreas de aplicación para la HCI, podría considerar algunas ediciones especiales publicadas por las revistas y transacciones de la IEEE Computer Society. Por ejemplo la IEEE Transactions on Affective Computing recientemente ha publicado un numero especial enfocado en interfaces afectivas para juegos y en la IEEE Computer Graphics & Applications se consideran displays interactivos en su edición de Marzo-Abril de 2013, y el número de Abril de 2012 de Computer ha resaltado los nuevos paradigmas en HCI. Perspectivas de la Industria

Este mes también tenemos un video sobre la Perspectiva de la Industria de Ivan Tashey de Microsoft, quien presenta las tendencias en NUIs con especial enfoque en interfaces inteligentes de audio que pueden identificar a los hablantes y adaptar las interacciones entre humanos y maquinas. Las oportunidades de la HCI son enormes. El progreso hacia interfaces más naturales y utilizables para la interacción hombre maquina pueden ayudar con ventajas incalculables y puede cambiar profundamente la vida diaria. Los invitamos a profundizar en el manto de posibilidades iniciando con los artículos incluidos en el tema de este mes.