{"id":492,"date":"2023-01-05T13:56:29","date_gmt":"2023-01-05T11:56:29","guid":{"rendered":"http:\/\/quadern-int-int-recursos-test.azurewebsites.net\/?page_id=492"},"modified":"2023-02-14T11:23:00","modified_gmt":"2023-02-14T09:23:00","slug":"4-2-interacciones-conversacionales","status":"publish","type":"page","link":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/4-2-interacciones-conversacionales\/","title":{"rendered":"4.2. Interacciones conversacionales"},"content":{"rendered":"<p>Los \u00faltimos a\u00f1os se han popularizado notablemente los <strong>dispositivos y aplicaciones conversacionales<\/strong>, especialmente los que se basan en una interacci\u00f3n mediante la voz. De hecho, en 2022, en los Estados Unidos, el n\u00famero de personas que los usaban al menos una vez al mes era de unos 124 millones, aproximadamente un 45 % de la poblaci\u00f3n.<\/p>\n<p>Estos dispositivos y aplicaciones conversacionales pueden basarse, como decimos, en la <strong>voz<\/strong>, pero tambi\u00e9n en el <strong>texto<\/strong> y pueden tomar formas diversas: canales de mensajer\u00eda, aplicaciones espec\u00edficas, integraci\u00f3n dentro de webs o ser parte de sistemas operativos. Su prop\u00f3sito es llevar a cabo tareas a partir de las \u00f3rdenes que les damos, peticiones o preguntas y su desarrollo est\u00e1 ligado al procesamiento de lenguaje natural y la inteligencia artificial.<\/p>\n<p>Aun as\u00ed, no todas las interacciones basadas en la conversaci\u00f3n, especialmente los que usan texto (chatbots) tienen el mismo grado de relaci\u00f3n con la inteligencia artificial. Muchos de estos chatbots se basan en un lenguaje marcado que se llama AIML (<em>Artificial Intelligence Markup Language<\/em>), que facilita el hecho de <strong>estructurar las posibles respuestas utilizando patrones y categor\u00edas<\/strong>. Si bien es \u00fatil, este lenguaje no permite el razonamiento l\u00f3gico ni el verdadero aprendizaje, en cambio, otros asistentes por voz m\u00e1s recientes emplean Aprendizaje Profundo (<em>Deep learning<\/em>), una tecnolog\u00eda basada en redes neuronales que pretende modelar abstracciones a partir de grandes cantidades de datos.<\/p>\n<p>Uno de los primeros programas que fue capaz de procesar lenguaje natural con el prop\u00f3sito de mantener una conversaci\u00f3n de texto con la persona usuaria fue Eliza. Este programa inform\u00e1tico fue dise\u00f1ado por el MIT entre el 1964 y el 1966. Funcionaba reconociendo palabras clave que relacionaba con frases ya registradas a su base de datos para dar una respuesta u otra, de manera abierta como lo har\u00eda un terapeuta.<\/p>\n<figure id=\"attachment_413\" aria-describedby=\"caption-attachment-413\" style=\"width: 640px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" class=\"wp-image-414 size-full\" src=\"\/wp-content\/uploads\/2023\/01\/PID_00293913_36.jpg\" alt=\"\" width=\"640\" \/><figcaption id=\"caption-attachment-413\" class=\"wp-caption-text\">Figura 27. Interfaz del chatbot Eliza (1964-1966)<br \/>Fuente: dominio p\u00fablico.<\/figcaption><\/figure>\n<div class=\"featured featured-grey\"><p>Actualmente podemos encontrar diferentes implementaciones de Eliza en la red, como por ejemplo la que llev\u00f3 a cabo Norbert Landsteiner, <a href=\"https:\/\/www.masswerk.at\/elizabot\/\" target=\"_blank\" rel=\"noopener\">mass:werk<\/a>.<\/p>\n<\/div>\n<p>Por otro lado, los <strong>bots de redes sociales<\/strong> como Twitter o de <strong>sistemas de mensajer\u00eda<\/strong> como Telegram son bastante populares. Integrarlos en este tipo de entornos facilita centrarse en los contenidos y en la vertiente creativa y no espec\u00edficamente a crear una interfaz, puesto que los chatbots quedar\u00e1n integrados en las diferentes plataformas, con su propia est\u00e9tica.<\/p>\n<p>La variedad de bots en Twitter es enorme, por ejemplo, @RecuerdameBot sirve para pedir que nos recuerdel tuit que deseemos al cabo de un tiempo concreto; @dreamjobsbot comparte im\u00e1genes generadas con inteligencia artificial en respuesta a los trabajos so\u00f1ados que los diferentes usuarios le hacen llegar, y @MakeItAQuote convierte cualquier tuit en que se le etiquete en una imagen como si fuera una frase de alguien famoso.<\/p>\n<p>Tambi\u00e9n es interesante dedicar atenci\u00f3n a la otra vertiente de las interacciones conversacionales, los chatbots que se basan en la voz. Uno de los precedentes en este \u00e1mbito es Audrey (1952), un dispositivo de reconocimiento autom\u00e1tico de d\u00edgitos. La m\u00e1quina pod\u00eda entender de cero a nueve d\u00edgitos, pero su aspecto ten\u00eda poco que ver con los altavoces que se comercializan hoy: ocupaba dos metros de altura. Shoebox, desarrollado diez a\u00f1os despu\u00e9s de Audrey, era m\u00e1s peque\u00f1o y reconoc\u00eda diecis\u00e9is palabras, adem\u00e1s de los d\u00edgitos, y seis \u00f3rdenes de control. A pesar de que se desarrollan, por ejemplo, programas que permiten la conversi\u00f3n de voz en texto, no ser\u00e1 hasta el 2010, aproximadamente, que el campo de los asistentes vuelve a generar bastante inter\u00e9s. Es el momento de lanzamiento de Watson de IBM, Siri de Apple, el Asistente de Google, Cortana de Microsoft y Alexa de Amazon. Estos asistentes de voz ya usan el reconocimiento complejo y responden a una variedad amplia de \u00f3rdenes.<\/p>\n<figure id=\"attachment_414\" aria-describedby=\"caption-attachment-414\" style=\"width: 640px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" class=\"wp-image-415 size-full\" src=\"\/wp-content\/uploads\/2023\/01\/PID_00293913_37.jpg\" alt=\"\" width=\"640\" \/><figcaption id=\"caption-attachment-414\" class=\"wp-caption-text\">Figura 28. Director de IBM realizando una demostraci\u00f3n de Shoebox (1962)<br \/>Fuente: <a href=\"https:\/\/www.ibm.com\/ibm\/history\/exhibits\/specialprod1\/specialprod1_7.html\" target=\"_blank\" rel=\"noopener\">web IBM Shoebox<\/a>.<\/figcaption><\/figure>\n<p>Eliza, Audrey, Alexa, Cortana\u2026 \u00bfOs hab\u00e9is fijado que la mayor\u00eda de interfaces conversacionales tienen nombres de mujer? Y no solo esto, sino que la mayor\u00eda, por defecto, tienen voces que podemos asociar a lo femenino.<\/p>\n<p>Si nos movemos en el \u00e1mbito de la ficci\u00f3n, un joven Harrison Ford en <em>Blade runner<\/em> (1985) interactuaba con un superordenador llamado Esper. Concretamente, en una escena de la pel\u00edcula, le pide recorrer y acercar una imagen mediante \u00f3rdenes de voz. En este caso, no se prescind\u00eda de la pantalla, sino que el asistente m\u00e1s bien sustitu\u00eda el rat\u00f3n o el teclado. En la pel\u00edcula <em>Her<\/em>, en cambio, el protagonismo no es anecd\u00f3tico, sino que toda la narraci\u00f3n versa sobre el enamoramiento del protagonista hacia un asistente conversacional, en concreto, lleva por nombre Samantha.<\/p>\n<p>Actualmente, el uso de asistentes conversacionales de voz es bastante diferente seg\u00fan los pa\u00edses. Por ejemplo, volviendo a los Estados Unidos, hay todav\u00eda un cierto crecimiento, pero sostenido, y la mayor\u00eda de personas que usan asistentes de voz es con el m\u00f3vil y no con altavoces, a pesar de que estos \u00faltimos cada vez son m\u00e1s populares.<\/p>\n<p>En cuanto a nuestra interacci\u00f3n con los asistentes de voz, podemos diseccionarla en el flujo siguiente: en primer lugar, nosotros iniciamos la comunicaci\u00f3n haciendo una pregunta o diciendo algo, habitualmente mediante lo que se llama <em>wakeword<\/em>, una palabra o conjunto de palabras que activan el dispositivo o aplicaci\u00f3n. Seguidamente, usando el reconocimiento autom\u00e1tico del lenguaje (Natural Language Processing, NLP por sus siglas en ingl\u00e9s), son capaces de reconocer las palabras clave y hacer b\u00fasquedas a internet (a nuestro correo, por ejemplo) y tambi\u00e9n a la nube (noticias del d\u00eda, datos de bolsa\u2026) comparando patrones de otras b\u00fasquedas y de nuestras propias acciones previas. Con todos estos contenidos, el asistente toma una decisi\u00f3n sobre qu\u00e9 respuesta darnos, que convierte de texto a voz (<em>text-to-speech<\/em>).<\/p>\n<figure id=\"attachment_415\" aria-describedby=\"caption-attachment-415\" style=\"width: 640px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" class=\"wp-image-416 size-full\" src=\"\/wp-content\/uploads\/2023\/02\/PID_00293914_38.jpg\" alt=\"\" width=\"640\" \/><figcaption id=\"caption-attachment-415\" class=\"wp-caption-text\">Figura 29. Flujo de interacci\u00f3n conversacional<br \/>Fuente: elaboraci\u00f3n propia.<\/figcaption><\/figure>\n<p>Uno de los trabajos art\u00edsticos que reflexiona sobre el reconocimiento y el aprendizaje a partir de la voz es <em>Echo<\/em> (2021), un proyecto de Lua Coderch en colaboraci\u00f3n con Julia M\u00fagica, Llu\u00eds Nacenta e Iv\u00e1n Paz. Se trata de una escultura de c\u00f3digo abierto que solo puede usar palabras que ha o\u00eddo previamente, palabras que combina para poder hablar y construir frases. El t\u00edtulo de la pieza hace referencia al mito de la ninfa Eco, que fue castigada a no poder usar su voz y obligada a repetir la \u00faltima palabra de la persona con quien ten\u00eda una conversaci\u00f3n. Cuando est\u00e1 instalada en el espacio expositivo, la invitaci\u00f3n a interactuar se hace mediante el uso de un sencillo objeto: un taburete. Es as\u00ed como entendemos que se nos est\u00e1 invitando como p\u00fablico a sentar y contribuir al aprendizaje de Echo. El a\u00f1o 2022, la pieza recibi\u00f3 el premio ARCO\/Beep de arte electr\u00f3nico.<\/p>\n<p>Con Echo el taburete tiene el prop\u00f3sito de facilitar la interacci\u00f3n con el p\u00fablico, pero lo cierto es que cuando miramos un altavoz inteligente, por ejemplo, no tenemos muchas claves para saber qu\u00e9 tenemos que hacer o qu\u00e9 se espera de nosotros. Por eso, a continuaci\u00f3n, presentamos una serie de consejos de dise\u00f1o para Alexa extra\u00eddos de la gu\u00eda de dise\u00f1o para desarrolladores de Amazon, pero que pueden aplicarse de manera m\u00e1s amplia. Conocer estas indicaciones es \u00fatil para poder adaptarlas o, incluso, como hemos visto con Echo, cambiarlas en nuestros propios proyectos art\u00edsticos.<\/p>\n<p>Los consejos est\u00e1n agrupados en cuatro grandes bloques:<\/p>\n<ol>\n<li>S\u00e9 adaptable: facilita que los usuarios se expresen con sus palabras.<\/li>\n<li>S\u00e9 personal: individualiza la interacci\u00f3n, crea familiaridad.<\/li>\n<li>Estate disponible: no te bases en los men\u00fas verticales de las interfaces gr\u00e1ficas, muestra las opciones al mismo nivel.<\/li>\n<li>S\u00e9 narrativo: el objetivo es hablar con las personas, no hacia las personas. Por eso, recomiendan variedad en el vocabulario, brevedad y evitar repeticiones innecesarias.<\/li>\n<\/ol>\n<p>Extra\u00eddo de: <a href=\"https:\/\/developer.amazon.com\/en-US\/docs\/alexa\/alexa-design\/get-started.html\" target=\"_blank\" rel=\"noopener\">https:\/\/developer.amazon.com\/en-us\/docs\/alexa\/alexa-design\/get-started.html<\/a><\/p>\n<p>Otro proyecto que plantea de manera creativa la interacci\u00f3n conversacional es <em>Conversational Implant<\/em>, una instalaci\u00f3n interactiva dise\u00f1ada por <a href=\"https:\/\/becoming.network\/ci.html\" target=\"_blank\" rel=\"noopener\">Becoming<\/a>. El sistema dispone de una interfaz que permite a las personas usuarias mantener una conversaci\u00f3n, el marco de la cual gira alrededor de una narraci\u00f3n sobre objetos, vegetales y animales como entidades iguales. Las conversaciones escritas son transformadas en voz mediante TTS (<em>Text to Speech<\/em>) y transmitidas a la planta con el prop\u00f3sito de fortalecerla con voces casi humanas.<\/p>\n<figure id=\"attachment_416\" aria-describedby=\"caption-attachment-416\" style=\"width: 640px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" class=\"wp-image-417 size-full\" src=\"\/wp-content\/uploads\/2023\/01\/PID_00293913_39.jpg\" alt=\"\" width=\"640\" \/><figcaption id=\"caption-attachment-416\" class=\"wp-caption-text\">Figura 30. Conversational implant 2018-2019<br \/>Fuente: <a href=\"https:\/\/becoming.network\/ci.html\" target=\"_blank\" rel=\"noopener\">web de los artistas<\/a>.<\/figcaption><\/figure>\n<p>Finalmente, hay que comentar que <strong>las interfaces de voz han despertado varias inquietudes<\/strong>. Por un lado, nos facilitan el acceso y comunicaci\u00f3n sin que tengamos que tocar o hacer clic en una pantalla. Aun as\u00ed, tambi\u00e9n afectan c\u00f3mo y qu\u00e9 informaci\u00f3n acaban devolviendo, especialmente, en cuanto a los contenidos que obtiene de internet. Cuando somos nosotros que introducimos las b\u00fasquedas con texto en la pantalla de un buscador, este \u00faltimo nos suele devolver m\u00faltiples resultados ordenados en varias p\u00e1ginas. Si bien est\u00e1 demostrado que la mayor\u00eda de usuarios no pasan de la primera p\u00e1gina, la posibilidad de consultar otros resultados contin\u00faa estando. En el caso de las interfaces por voz, se restringe esta opci\u00f3n y nosotros, como personas usuarias, recibimos la informaci\u00f3n ya seleccionada, como si se tratara de una <strong>elecci\u00f3n transparente<\/strong>.<\/p>\n<p>Un \u00e1mbito adicional de preocupaci\u00f3n hacia las interfaces de voz es la <strong>capacidad de escucharnos continuamente<\/strong>. En el apartado 3.3 aparecen dos trabajos art\u00edsticos, <a href=\"https:\/\/rubezchong.com\/hacking-voice-assistants\" target=\"_blank\" rel=\"noopener\"><em>HacKIT<\/em><\/a>, de Rubez Chong, y <a href=\"http:\/\/bjoernkarmann.dk\/project_alias\" target=\"_blank\" rel=\"noopener\"><em>Project Alias<\/em><\/a>, de Bj\u00f8rn Karmann. Adem\u00e1s de estos proyectos, hay iniciativas de c\u00f3digo abierto como <a href=\"https:\/\/mycroft.ai\/\" target=\"_blank\" rel=\"noopener\"><em>Mycroft<\/em><\/a>, que, con un esp\u00edritu propositivo, quieren garantizar una buena experiencia sin sacrificar la privacidad de las personas usuarias.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los \u00faltimos a\u00f1os se han popularizado notablemente los dispositivos y aplicaciones conversacionales, especialmente los que se basan en una interacci\u00f3n mediante la voz. De hecho, en 2022, en los Estados Unidos, el n\u00famero de personas que los usaban al menos una vez al mes era de unos 124 millones, aproximadamente un 45 % de la [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":[],"acf":[],"_links":{"self":[{"href":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/pages\/492"}],"collection":[{"href":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/comments?post=492"}],"version-history":[{"count":3,"href":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/pages\/492\/revisions"}],"predecessor-version":[{"id":781,"href":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/pages\/492\/revisions\/781"}],"wp:attachment":[{"href":"http:\/\/quadern-interaccio-interactivitat-test.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/media?parent=492"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}