J’ai prononcé ce discours lors de la première Conférence européenne sur l’analyse des conversations (ECCA 2020), qui, en raison du C-19, a dû être présenté sous forme de vidéo au lieu d’un discours debout.
J’ai essayé de faire un mélange entre un essai cinématographique et une présentation de recherche sur un travail en cours, donc cela n’a pas toujours fonctionné de mettre des références sur chaque diapositive. Je les ai ajoutés ci-dessous avec des liens vers les données utilisées lorsqu’elles sont disponibles.
Abstrait
Le premier article publié par Sacks (1963) sur la « description sociologique » utilise la métaphore d’une mystérieuse machine « parler et faire », où des chercheurs de différentes disciplines proposent des descriptions incompatibles et contradictoires de sa fonctionnalité. Nous pourrions bientôt nous retrouver dans une situation similaire à celle décrite par Sacks, alors que l’IA continue d’imprégner les sciences sociales et que l’AC commence à considérer l’IA soit comme un objet de recherche, soit comme un outil de recherche, ou plus probablement comme une caractéristique omniprésente des deux.
Il existe désormais une industrie florissante dans le domaine de l’« IA conversationnelle » et des outils basés sur l’IA qui prétendent émuler ou analyser la conversation, mais l’étude et l’utilisation de l’IA au sein de l’AC sont encore inhabituelles. Alors qu’une littérature croissante utilise l’AC pour étudier la robotique sociale, les interfaces vocales et la conception d’expériences utilisateur conversationnelles (Pelikan & Broth, 2016 ; Porcheron et al., 2018), peu d’analystes de conversation utilisent même des outils numériques, sans parler des méthodes statistiques et informatiques. qui sous-tendent l’IA conversationnelle. De même, les chercheurs et les développeurs d’IA conversationnelle citent rarement la recherche sur l’AC et ne s’intéressent que récemment à l’AC comme solution possible à des problèmes difficiles liés au traitement du langage naturel (NLP). Cette situation présente une opportunité d’engagement mutuel entre l’IA conversationnelle et l’AC (Housley et al., 2019). Pour susciter un débat sur cette question, je présenterai trois projets qui combinent l’IA et l’AC de manière très différente et discuterai des implications et des possibilités de programmes de recherche combinés.
Le premier projet utilise une série d’analyses de cas uniques pour explorer des enregistrements dans lesquels une IA conversationnelle avancée prend avec succès des rendez-vous par téléphone avec un preneur d’appel humain. La seconde revisite les débats sur l’utilisation de la reconnaissance vocale automatisée pour la transcription CA (Moore, 2015) à la lumière des avancées récentes significatives en matière de synthèse vocale basée sur l’IA, et comprend une démonstration en direct de « Gailbot », un système de transcription automatisé jeffersonien. Le troisième projet utilise et étudie l’IA dans un contexte d’AC appliqué. À l’aide d’une analyse vidéo, l’étude examine comment un homme handicapé et son soignant interagissent tout en utilisant des interfaces vocales basées sur l’IA et un système de « domotique » co-conçu dans le cadre d’une routine domestique d’éveil, d’alimentation et de soins personnels. Les données sont tirées d’un corpus d’environ 500 heures de données vidéo enregistrées par les participants à l’aide d’un système de « caméra de sécurité intelligente » à commande vocale et basé sur l’IA.
Ces trois exemples d’interprétations et d’utilisations potentielles par l’AC des machines « parler et faire » de l’IA fournissent matière à un débat sur la manière dont les programmes de recherche en CA pourraient conceptualiser l’IA et l’utiliser ou la combiner avec l’AC d’une manière mutuellement informative.
Vidéos (par ordre d’apparition)
Le senseur. (29 mars 2007).
Laboratoire d’IA du MIT. (25 septembre 2011).
Présentation (Google I/O ’18). (9 mai 2018).
Données en ligne
Consortium de données linguistiques. (2013). Corpus anglais CABank CallHome [Data set]. Talkbank.
Jefferson, G. (2007). CABank Anglais Jefferson NB Corpus [Data set]. Parlez Banque.
Bibliographie
D’accord, P. (1997). Vers une pratique technique critique : leçons apprises en essayant de réformer l’IA. Sciences sociales, systèmes techniques et travail coopératif : au-delà du grand fossé. Erlbaum.
Alač, M., Gluzman, Y., Aflatoun, T., Bari, A., Jing, B. et Mozqueda, G. (2020). Comment les interactions quotidiennes avec les assistants vocaux numériques résistent à un retour à l’individu. Esthétique événementielle, 9(1), 51.
Berger, I., Viney, R. et Rae, JP (2016). Existe-t-il des états continus de discussions naissantes ? Journal de pragmatique, 9129-44.
Bolden, Grande-Bretagne (2015). Transcription comme recherche : transcription « manuelle » et analyse de conversation. Recherche sur le langage et l’interaction sociale, 48(3), 276-280.
Brooker, P., Dutton, W. et Mair, M. (2019). Les nouveaux fantômes dans la machine : l’IA « pragmatiste » et les périls conceptuels de la description anthropomorphique. Études ethnographiques, 16272-298.
Bouton, Graham. (1990). Monter une impasse : confusion entre analyse de conversation et modélisation informatique. Dans P. Luff, N. Gilbert et D. Frolich (Eds.), Ordinateurs et conversations (p. 67-90). Presse académique.
Bouton, Graham et Dourish, P. (1996). Technométhodologie : Paradoxes et possibilités. Actes de la conférence SIGCHI sur les facteurs humains dans les systèmes informatiques.
Button, G. et Sharrock, W. (1996). Travail de projet : Organisation de la conception et du développement collaboratifs en génie logiciel. Travail coopératif assisté par ordinateur (CSCW), 5(4), 369-386.
Casino, T. et Freenor, Michael. (2018). Une introduction à Google Duplex et aux conversations naturelles, Saule.
Duca, D. (2019). Qui perturbe la transcription dans le monde universitaire ? — SAGE Océan | Big Data, nouvelles technologies, sciences sociales. SAUGE Océan.
Fischer, JE, Reeves, S., Porcheron, M. et Sikveland, RO (2019). Progressivité pour la conception d’interfaces vocales. Actes de la 1ère conférence internationale sur les interfaces utilisateur conversationnelles – CUI ’191–8.
Garfinkel, H. (1967). Etudes en ethnométhodologie. Prentice-Hall.
Goodwin, C. (1996). Vision transparente. Dans EA Schegloff & SA Thompson (Eds.), Interaction et grammaire (p. 370-404). La Presse de l’Universite de Cambridge.
Heath, C. et Luff, P. (1992). Collaboration et contrôle : gestion de crise et technologie multimédia dans les salles de contrôle des lignes du métro de Londres. Travail coopératif assisté par ordinateur (CSCW), 1(1-2), 69-94.
Patrimoine, J. (1984). Garfinkel et l’ethnométhodologie. Presse politique.
Patrimoine, J. (1988). Des explications comme comptes : une perspective analytique de conversation. Dans C. Antaki (éd.), Analyser l’explication quotidienne : un recueil de méthodes (p. 127-144). Publications Sauge.
Hoey, EM (2017). Organisation de déchéance en interaction [PhD Thesis, Max Planck Institute for Psycholinguistics, Radbound University, Nijmegen].
Housley, W., Albert, S. et Stokoe, E. (2019). Traitement d’action naturelle. Dans JE Fischer, S. Martindale, M. Porcheron, S. Reeves et J. Spence (Eds.), Actes du Symposium À mi-chemin vers le futur 2019 (p. 1 à 4). Association pour les machines informatiques.
Kendrick, KH (2017). Utiliser l’analyse des conversations en laboratoire. Recherche sur le langage et l’interaction sociale, 50(1), 1-11.
Lee, S.-H. (2006). Deuxièmes convocations lors d’ouvertures de conversations téléphoniques coréennes. La langue dans la société, 35(02).
Léviathan, Y. et Matias, Y. (2018). Google Duplex : un système d’IA pour accomplir des tâches réelles par téléphone [Blog]. Google AI Blog.
Local, J. et Walker, G. (2005). Impératifs méthodologiques pour étudier l’organisation phonétique et les structures phonologiques de la parole spontanée. Phonétique, 62(2-4), 120-130.
Luff, P., Gilbert, N. et Frolich, D. (éd.). (1990). Ordinateurs et conversations. Presse académique.
Moore, RJ (2015). Transcription automatisée et analyse des conversations. Recherche sur le langage et l’interaction sociale, 48(3), 253-270.
Ogden, R. (2015). Les données nous invitent toujours à réécouter : arguments en faveur de la combinaison de nos méthodes. Recherche sur le langage et l’interaction sociale, 48(3), 271-275.
O’Leary, DE (2019). Le Duplex de Google : faire semblant d’être humain. Systèmes intelligents en comptabilité, finance et gestion, 26(1), 46-53.
Pelikan, HRM et Broth, M. (2016). Pourquoi ce Nao ? Actes de la conférence CHI 2016 sur les facteurs humains dans les systèmes informatiques – CHI \textquotesingle16.
Pelikan, HRM, Broth, M. et Keevallik, L. (2020). « Es-tu triste, Cozmo ? » : Comment les humains donnent un sens aux affichages d’émotions d’un robot domestique. Actes de la conférence internationale ACM/IEEE 2020 sur l’interaction homme-robot461-470.
Porcheron, M., Fischer, JE, Reeves, S. et Sharples, S. (2018). Interfaces vocales dans la vie quotidienne. Actes de la conférence ACM 2018 sur les facteurs humains dans les systèmes informatiques (CHI’18).
Reeves, S. (2017). Quelques défis conversationnels liés à la conversation avec des machines. Parler avec des agents conversationnels dans l’action collaborative, atelier à la 20e conférence ACM sur le travail coopératif assisté par ordinateur et l’informatique sociale.
Relieu, M., Sahin, M. et Francillon, A. (2019). Lenny le robot comme ressource pour l’analyse séquentielle : exploration du traitement de l’initiation de réparation au prochain tour au début des appels non sollicités.
Robles, JS, DiDomenico, S. et Raclaw, J. (2018). Être un utilisateur ordinaire de la technologie et des médias sociaux. Langue et communication, 60150-167.
Sacs, H. (1984). Faire « être ordinaire ». Dans J. Heritage et JM Atkinson (Eds.), Structures de l’action sociale : études en analyse de conversation (p. 413-429). La Presse de l’Universite de Cambridge.
Sacks, H. (1987). Sur les préférences d’accord et de contiguïté dans les séquences en conversation. Dans G Button et JR Lee (éd.), Discussion et organisation sociale (p. 54 à 69). Questions multilingues.
Sacks, H. (1995a). Conférences sur la conversation : Vol. II (G. Jefferson, éd.). Wiley-Blackwell.
Sacks, H., Schegloff, EA et Jefferson, G. (1974). Une systématique des plus simples pour l’organisation des conversations à tour de rôle. Langue, 50(4), 696-735.
Sahin, M., Relieu, M. et Francillon, A. (2017). Utiliser des chatbots contre le spam vocal : analyser l’efficacité de Lenny. Actes du treizième symposium sur la confidentialité et la sécurité utilisables319-337.
Schegloff, EA (1988). Sur un servo-mécanisme virtuel réel pour deviner les mauvaises nouvelles : une conjecture de cas unique. Problèmes sociaux, 35(4), 442-457.
Schegloff, EA (1993). Réflexions sur la quantification dans l’étude de la conversation. Recherche sur le langage et l’interaction sociale, 26(1), 99-128.
Schegloff, EA (2004). Répondre au téléphone. Dans GH Lerner (éd.), Analyse de conversation : études de la première génération (p. 63-109). Société d’édition John Benjamins.
Schegloff, EA (2010). Quelques autres « Euh(m)s ». Processus discursifs, 47(2), 130-174.
Soltau, H., Saon, G. et Kingsbury, B. (2010). La boîte à outils de reconnaissance vocale IBM Attila. Atelier IEEE 2010 sur la technologie du langage parlé97-102.
Stivers, T. (2015). Codage de l’interaction sociale : une approche hérétique dans l’analyse des conversations ? Recherche sur le langage et l’interaction sociale, 48(1), 1-19.
Stokoe, E. (2011). Formation aux compétences d’interaction et de communication simulées : la « méthode de jeu de rôle analytique-conversation ». Dans Analyse de conversation appliquée (p. 119-139). Palgrave Macmillan Royaume-Uni.
Stokoe, E. (2013). La (in)authenticité de la conversation simulée : comparaison des interactions jouées et réelles et des implications pour la formation à la communication. Recherche sur le langage et l’interaction sociale, 46(2), 165-185.
Stokoe, E. (2014). La méthode de jeu de rôle analytique de conversation (CARM) : une méthode de formation aux compétences de communication comme alternative au jeu de rôle simulé. Recherche sur le langage et l’interaction sociale, 47(3), 255-265.
Stokoe, E., Sikveland, RO, Albert, S., Hamann, M. et Housley, W. (2020). Les humains peuvent-ils simuler le fait de parler comme les autres humains ? Comparaison de clients simulés à de vrais clients dans les demandes de service. Études du discours, 22(1), 87-109.
Turing, A. (1950). Machines informatiques et intelligence. Esprit, 49433-460.
Walker, G. (2017). Pitch et projection de plus de discussions. Recherche sur le langage et l’interaction sociale, 50(2), 206-225.
Wong, JC (29 mai 2019). « Un atelier clandestin en col blanc » : les entrepreneurs de Google Assistant allèguent un vol de salaire. Le Gardien.