logoJEPTALNRECITAL2016

JEP-TALN-RECITAL 2016, Paris, France

23ème Conférence sur le Traitement Automatique des Langues Naturelles
31ème Journées d’Études sur la Parole
18ème Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues

Inalco, Paris, 4-8 Juillet 2016

Mercredi 6 juillet 2016


9h00-10h00 - Présentations orales

TALN/RECITAL

Lisibilité - Mercredi 9h00-10h00 (Oral2A) - amphi 4

Présidente de session : Anne-Laure Ligozat

  • Bleu, contusion, ecchymose : tri automatique de synonymes en fonction de leur difficulté de lecture et compréhension
    Thomas Francois, Mokhtar Billami, Núria Gala and Delphine Bernhard
    Abstract: La lisibilité d'un texte dépend fortement de la difficulté des unités lexicales qui le composent. La simplification lexicale vise ainsi à remplacer les termes complexes par des équivalents sémantiques plus simples à comprendre : par exemple, "bleu" (résultat d'un choc) est plus simple que "contusion" ou "ecchymose". Il est pour cela nécessaire de disposer de ressources qui listent des synonymes pour des sens donnés et les trient par ordre de difficulté. Cet article décrit une méthode pour constituer une ressource de ce type pour le français. Les listes de synonymes sont extraites de BabelNet et de JeuxDeMots, puis triées grâce à un algorithme statistique d'ordonnancement. Les résultats du tri sont évalués par rapport à 36 listes de synonymes ordonnées manuellement par quarante annotateurs.
  • Exploitation de reformulations pour l'acquisition d'un vocabulaire expert/non expert
    Edwige Antoine and Natalia Grabar
    Abstract: Les notions de domaines techniques, comme les notions médicales, présentent souvent des difficultés de compréhension par les non experts. Un vocabulaire qui associe les termes techniques aux expressions grand public peut aider à rendre les textes techniques mieux compréhensibles. L'objectif de notre travail est de construire un tel vocabulaire. Nous proposons d'exploiter la notion de reformulation grâce à trois méthodes: extraction d'abréviations, exploitation de marqueurs de reformulation et de parenthèses. Les segments associés grâce à ces méthodes sont alignés avec les terminologies médicales. Nos résultats permettent de couvrir un grand nombre de termes médicaux et montrent une précision d'extraction entre 0,68 et 0,98. Au total, plusieurs dizaines de milliers de paires sont proposés. Ces résultats sont analysés et comparés avec les travaux existants.

Indexation - Mercredi 9h00-10h00 (Oral2B) - amphi 7

Président de session : Vincent Claveau

  • Modélisation unifiée du document et de son domaine pour une indexation par termes-clés libre et contrôlée
    Adrien Bougouin, Florian Boudin and Beatrice Daille
    Abstract: Dans cet article, nous nous intéressons à l'indexation de documents de domaines de spécialité par l'intermédiaire de leurs termes-clés. Plus particulièrement, nous nous intéressons à l'indexation telle qu'elle est réalisée par les documentalistes des bibliothèques numériques. Après analyse de la méthodologie des ingénieurs documentaliste de l'Inist (Institut de l'information scientifique et technique), ou indexeurs professionnels, nous proposons une méthode à base de graphe combinant les informations présentes dans le document et la connaissance du domaine pour réaliser une indexation (hybride) libre et contrôlée. Au delà de la capacité de notre méthode à fournir des termes-clés ne se trouvant pas nécessairement dans le document, nos expériences montrent une amélioration significative vis-à-vis de l'approche à base de graphe classique.
  • Fouille de motifs et CRF pour la reconnaissance de symptômes dans les textes biomédicaux
    Pierre Holat, Nadi Tomeh, Thierry Charnois, Delphine Battistelli, Marie-Christine Jaulent and Jean-Philippe Métivier
    Abstract: Dans cet article, nous nous intéressons à l'extraction d'entités médicales de type symptôme dans les textes biomédicaux. Cette tâche est peu explorée dans la littérature et il n'existe pas à notre connaissance de corpus annoté pour entraîner un modèle d'apprentissage. Nous proposons deux approches faiblement supervisées pour extraire ces entités. Une première est fondée sur la fouille de motifs et introduit une nouvelle contrainte de similarité sémantique. La seconde formule la tache comme une tache d'étiquetage de séquences en utilisant les CRF (champs conditionnels aléatoires). Nous décrivons les expérimentations menées qui montrent que les deux approches sont complémentaires en termes d'évaluation quantitative (rappel et précision). Nous montrons en outre que leur combinaison améliorent sensiblement les résultats.

JEP

La parole dans tous ses états 1 - Mercredi 9h00-10h00 (Oral3) - amphi 6

Présidente de session : Véronique Delvaux

  • Perception audio-visuelle de séquences VCV produites par des personnes porteuses de Trisomie 21 : une étude préliminaire
    Alexandre Hennequin, Amélie Rochet-Capellan and Marion Dohen
    Abstract: La parole des personnes avec trisomie 21 (T21) présente une altération systématique de l’intelligibilité qui n’a été quantifiée qu’auditivement. Or la modalité visuelle pourrait améliorer l’intelligibilité comme c’est le cas pour les personnes « ordinaires » 1. Cette étude compare la manière dont 24 participants ordinaires perçoivent des séquences VCV voyelle-consonne-voyelle) produites par quatre adultes (2 avec T21 et 2 ordinaires) et présentées dans le bruit en modalités auditive, visuelle et audiovisuelle. Les résultats confirment la perte d’intelligibilité en modalité auditive pour les personnes avec T21. Pour les deux locuteurs impliqués, l’intelligibilité visuelle est néanmoins équivalente à celle des deux locuteurs ordinaires et compensent le déficit d’intelligibilité auditive. Ces résultats suggèrent l’importance d’intégrer la multimodalité pour améliorer l’intelligibilité des personnes avec T21.
  • Perception et production de voyelles de l’anglais par des apprenants francophones : effet d’entraînements en perception et en production
    Jennifer Krzonowski, Emmanuel Ferragne and François Pellegrino
    Abstract: Cette étude propose de tester l’effet de deux entraînements, en perception et en production, sur l’acquisition de voyelles de l’anglais britannique par des francophones. L’étude se focalise sur deux régions de l’espace acoustique pour lesquelles plusieurs catégories phonologiques existent en anglais alors qu’une seule existe en français. Trois groupes ont été constitués : l’un recevant un entraînement de type High Variability Perceptual Training, un second recevant un entraînement en production et le troisième constituait un groupe contrôle ne recevant pas d’entraînement. Les performances des participants ont été évaluées avant et après entraînement en perception et en production. Les résultats semblent montrer un effet de l’entraînement en perception sur les performances en perception et en production et un effet plus restreint de l’entraînement en production. Mais leur interprétation reste difficile du fait d’un effet test/re-test observé sur le groupe contrôle.
  • Effort produit et ressenti selon le voisement en français
    Camille Robieux, Thierry Legou, Yohann Meynadier and Meunier Christine
    Abstract: Les muscles laryngés et articulatoires sont impliqués dans la réalisation des traits qui distinguent les phonèmes. Cette étude porte sur l’auto-perception par les locuteurs et la répartition de l’effort vocal et articulatoire en fonction du trait de voisement en parole modale comparée à la parole chuchotée en français. Pour les 12 obstruantes du français, l’effort est ressenti plus important pour les voisées que les non voisées correspondantes, excepté dans le cas des fricatives labiodentales. Les analyses de la production des occlusives bilabiales montrent que l’effort laryngé est supérieur pour les consonnes voisées et l’effort articulatoire supérieur pour les non voisées, mais l’inverse pour les fricatives. Ces résultats indiquent que l’effort ressenti lors de sa propre production repose sur une perception prédominante de l’effort laryngé sur l’effort articulatoire en voix modale comme en voix chuchotée ; mais qu’il est cependant modulé selon le lieu et le mode d’articulation des consonnes.

10h00-10h30 - Pause Café (hall 2ème étage)


10h30-12h30 - Présentations orales

TALN/RECITAL

Sémantique distributionnelle et relations sémantiques - Mercredi 10h30-12h30 (Oral3A) - amphi 4

Président de session : Olivier Ferret

  • Word2Vec vs DBnary ou comment (ré)concilier représentations distribuées et réseaux lexico-sémantiques ? Le cas de l'évaluation en traduction automatique
    Christophe Servan, Zied Elloumi, Hervé Blanchon and Laurent Besacier
    Abstract: Cet article présente une approche associant réseaux lexico-sémantiques et représentations distribuées de mots appliquée à l’évaluation de la traduction automatique. Cette étude est faite à travers l’enrichissement d’une métrique bien connue pour évaluer la traduction automatique (TA) : METEOR.
    METEOR permet un appariement approché (similarité morphologique ou synonymie) entre une sortie de système automatique et une traduction de référence. Nos expérimentations s’appuient sur la tâche Metrics de la campagne d’évaluation WMT 2014 et montrent que les représentations distribuées restent moins performantes que les ressources lexico-sémantiques pour l’évaluation en TA mais peuvent néanmoins apporter un complément d’information intéressant à ces dernières.
  • Évaluation des modèles sémantiques distributionnels : le cas de la dérivation syntaxique
    Gabriel Bernier-Colborne and Patrick Drouin
    Abstract: Nous évaluons deux modèles sémantiques distributionnels au moyen d'un jeu de données représentant quatre types de relations lexicales et analysons l'influence des paramètres des deux modèles. Les résultats indiquent que le modèle qui offre les meilleurs résultats dépend des relations ciblées, et que l'influence des paramètres des deux modèles varie considérablement en fonction de ce facteur. Ils montrent également que ces modèles captent aussi bien la dérivation syntaxique que la synonymie, mais que les configurations qui captent le mieux ces deux types de relations sont très différentes.
  • Extraction de relations d’hyperonymie à partir de Wikipédia (RECITAL)
    Adel Ghamnia
    Abstract: Ce travail contribue à montrer l’intérêt d’exploiter la structure des documents accessibles sur le Web pour enrichir des bases de connaissances sémantiques. En effet, ces bases de connaissances jouent un rôle clé dans de nombreuses applications du TAL, Web sémantique, recherche d’information, aide au diagnostic, etc. Dans ce contexte, nous nous sommes intéressés ici à l’identification des relations d’hyperonymie présentes dans les pages de désambiguïsation de Wikipédia. Un extracteur de relations d’hyperonymie dédié à ce type de page et basé sur des patrons lexico-syntaxiques a été conçu, développé et évalué. Les résultats obtenus indiquent une précision de 0.68 et un rappel de 0.75 pour les patrons que nous avons définis, et un taux d’enrichissement de 33% pour les deux ressources sémantiques BabelNet et DBPédia.
  • Détection et classification non supervisées de relations sémantiques dans des articles scientifiques
    Kata Gabor, Isabelle Tellier, Thierry Charnois, Haïfa Zargayouna and Davide Buscaldi
    Abstract: Dans cet article, nous abordons une tâche encore peu explorée, consistant à extraire automatiquement l'état de l'art d'un domaine scientifique à partir de l'analyse d'articles en relevant. Nous la ramenons à deux sous-tâches élémentaires : l’identification de concepts et la reconnaissance de relations entre ces concepts. Nous mettons en oeuvre ces deux étapes dans le corpus de l'ACL Anthology. Les concepts candidats sont identifiés grâce à des ressources externes, et une analyse manuelle nous permet de proposer une typologie des relations sémantiques pouvant les relier. Nous cherchons ensuite à reconnaître et classifier automatiquement ces relations de manière non-supervisée, en nous appuyant sur différentes techniques de clustering et de bi-clustering. Nous confrontons nos résultats avec un échantillon de données manuellement annotées.

Syntaxe et Discours - Mercredi 10h30-12h30 (Oral3B) - amphi 7

Président de session : Bruno Guillaume

  • Ne nous arrêtons pas en si bon chemin : améliorations de l'apprentissage global d'analyseurs en dépendances par transition
    Lauriane Aufrant, Guillaume Wisniewski and François Yvon
    Abstract: Dans cet article, nous proposons trois améliorations simples pour l'apprentissage global d'analyseurs en dépendances par transition de type ArcEager : un oracle non déterministe, la reprise sur le même exemple après une mise à jour et l'entraînement en configurations sous-optimales. Leur combinaison apporte un gain moyen de 0,2 UAS sur le corpus SPMRL. Nous introduisons également un cadre général permettant la comparaison systématique de ces stratégies et de la plupart des variantes connues. Nous montrons que la littérature n'a étudié que quelques stratégies parmi les nombreuses variantes possibles, négligeant ainsi plusieurs pistes d'améliorations potentielles.
  • Conjonctions de subordination, verbes de dire et d'attitude propositionnelle : une modélisation STAG pour le discours (RECITAL)
    Timothée Bernard
    Abstract: Nous proposons une nouvelle modélisation en grammaire d'arbres adjoints synchrone (STAG) syntaxe/sémantique pour les conjonctions de subordination (ConjSub) et les verbes de dire et d'attitude propositionnelle (VAP ; dire, penser, croire, etc.). Cette modélisation, plus riche que les modélisations traditionnelles, est conçue pour l'analyse du discours et fondée sur l'observation que ces deux catégories sont loin d'être homogènes. En effet, des travaux antérieurs ont montré d'une part que les occurrences de ConjSub pouvaient être divisées en deux classes aux propriétés syntaxiques et sémantiques différentes, d'autre part que les VAP présentaient en discours deux usages distincts : évidentiel et intentionnel.
    Notre proposition vise donc à rendre compte précisément de ces différences tout en modélisant les interactions entre VAP et ConjSub.
  • Apprentissage d’analyseur en dépendances cross-lingue par projection partielle de dépendances
    Ophélie Lacroix, Guillaume Wisniewski, François Yvon and Lauriane Aufrant
    Abstract: Cet article présente une méthode simple de transfert cross-lingue de dépendances. Nous montrons tout d'abord qu'il est possible et pertinent d'apprendre un analyseur en dépendances par transition à partir d'un apprentissage sur des données partiellement annotées. Nous proposons ensuite de construire de grands ensembles de données partiellement annotés pour plusieurs langues cibles en projetant les dépendances via la connaissance des liens d'alignement et en se focalisant sur les liens les plus sûrs. En apprenant des analyseurs pour les langues cibles à partir de ces données partielles, nous montrons que cette méthode simple obtient des performances qui rivalisent avec celles de méthodes état-de-l'art récentes, tout en ayant un coût algorithmique moindre.
  • Un modèle simple de coût cognitif de la résolution d'anaphores (RECITAL)
    Olga Seminck
    Abstract: Nous proposons des résultats préliminaires d’un projet de recherche en TAL et en psycholinguistique. Le but de notre projet est de modéliser le coût cognitif que représente la résolution d’anaphores. Nous voulons obtenir un modèle explicatif qui établit la contribution de différents facteurs qui influencent le coût cognitif. Dans cet article, nous proposons une modélisation inspirée par des techniques venues du TAL. Nous utilisons un solveur d’anaphores probabiliste basé sur l’algorithme couples de mentions 1 et la notion d’entropie pour établir une mesure de coût cognitif des anaphores. Ensuite, nous montrons par des visualisations quelles sont les prédictions de cette première modélisation pour les pronoms personnels de la troisième personne dans le corpus ANCOR-Centre.

JEP

La parole dans tous ses états 2 - Mercredi 10h30-12h30 (Oral4) - amphi 6

Présidente de session : Véronique Delvaux

  • Étude de la contribution acoustique de la structure formantique à la perception du ton chuchoté
    Zhang Xuelu and Rudolph Sock
    Abstract: Cette étude contribue à exploiter la contribution de la structure formantique du segment vocalique à la perception du ton que le segment porte, et ce en voix chuchotée. Le mandarin a été choisi en tant que langue cible, pour la raison que les traits tonals (tone features) dans le mandarin s’appuient acoustiquement sur deux dimensions: registre et contour. Nous supposons qu’en l’absence du F0, la structure formantique subit toujours une modification en fonction du ton et fournit des indices acoustiques des traits tonals à l’auditeur. Nous nous intéressons aux rapports entre les deux dimensions musicales et la modification la structure formantique. À travers l’analyse des données acoustiques issues de 13 locutrices, nous avons observé une divergence d’importance dans les intervalles F2-F3 et F3-F4 en fonction du ton. Cette divergence semble liée aux contrastes tonals en registre et non au contour mélodique. Elle dépend d’ailleurs de la nature de voyelle.
  • Variation prosodique et traduction poétique (LSF/français) : Que devient la prosodie lorsqu’elle change de canal ?
    Fanny Catteau, Marion Blondel, Coralie Vincent, Patrice Guyot and Dominique Boutet
    Abstract: L’étude de la prosodie des langues vocales repose en partie sur la mesure des paramètres de durée, d’intensité et de fréquence sonores. Les langues des signes, quant à elles, empruntent le canal visuo-gestuel et mobilisent des articulateurs manuels et non manuels (buste, tête, éléments du visage). Notre étude a pour objectif d’établir des outils permettant de comparer, au niveau prosodique, la traduction en français de séquences poétiques et la version originale en langue des signes française (LSF). Nous avons recueilli des données vidéo augmentées de capture de mouvement – qui offrent plusieurs pistes d’exploration des paramètres prosodiques pour la LSF – ainsi que des données audio des traductions en français – qui révèlent les stratégies des interprètes pour interpréter la variation prosodique.
  • Stress, charge cognitive et signal de parole : étude exploratoire auprès de pilotes de chasse.
    Stavaux Luc, Véronique Delvaux, Kathy Huet, Myriam Piccaluga and Bernard Harmegnies
    Abstract: Cet article traite des effets de la charge cognitive sur la fréquence fondamentale de pilotes de F-16 placés dans un scénario de vol de nuit. La charge cognitive a été estimée à l’aide de paramètres liés à la tâche (hétéro-évaluation), à l’individu (anxiété, auto-évaluation du stress ressenti) et à la situation (simulation contrôlée). Nos résultats montrent que l’écart mélodique est un bon candidat pour évaluer le niveau de la charge cognitive, même si la relation entre eux présente des profils individuels spécifiques. La création d’une typologie des situations de communication, l’adjonction d’autres indices acoustiques et le croisement avec des données physiologiques constituent les perspectives de cette étude.
  • De bé à bébé : le transfert d'apprentissage auditori-moteur pour interroger l'unité de production de la parole
    Tiphaine Caudrelier, Amélie Rochet-Capellan, Pascal Perrier and Jean-Luc Schwartz
    Abstract: La parole est souvent décrite comme une mise en séquence d’unités associant des représentations linguistiques, sensorielles et motrices. Le lien entre ces représentations se fait-il de manière privilégiée sur une unité spécifique ? Par exemple, est-ce la syllabe ou le mot ? Dans cette étude, nous voulons contraster ces deux hypothèses. Pour cela, nous avons modifié chez des locuteurs du français la production de la syllabe « bé », selon un paradigme d’adaptation auditori-motrice, consistant à perturber le retour auditif. Nous avons étudié comment cette modification se transfère ensuite à la production du mot « bébé ». Les résultats suggèrent un lien entre représentations linguistiques et motrices à plusieurs niveaux, à la fois celui du mot et de la syllabe. Ils montrent également une influence de la position de la syllabe dans le mot sur le transfert, qui soulève de nouvelles questions sur le contrôle sériel de la parole.
  • Accès lexical et reconnaissance du voisement en voix chuchotée
    Yohann Meynadier and Sophie Dufour
    Abstract: La reconnaissance du trait de voisement de consonnes obstruantes chuchotées en français a été examinée via un paradigme d’amorçage sémantique auditif-visuel. Un effet d’amorçage d’amplitude similaire à celui observé en voix modale a été observé uniquement lorsque l’obstruante du mot amorce chuchoté est sourde (dessert-CHOCOLAT). Aucun effet d’amorçage n’a été observé quand l’obstruante du mot amorce est voisée (désert) que ce soit sur le mot-cible SABLE associé sémantique de désert ou sur le mot cible CHOCOLAT associé sémantique de dessert. Ainsi, même si certaines études ont montré qu’en voix chuchotée les consonnes obstruantes voisées maintiennent des traces phonétiques de leur identité sous-jacente, notre étude montre que ces consonnes sont ambigües pour l’auditeur et que leur reconnaissance n’est pas immédiate.
  • Dénomination d’image versus détection interne de phonème : deux méthodes pour étudier la planification de la production de parole
    Pierre Hallé, Laura Manoiloff and Juan Segui
    Abstract: Cette étude est motivée initialement par une question méthodologique : la validité des mesures de temps de dénomination d’image, très utilisés pour explorer les processus de planification de la production de parole. Idéalement, le temps de dénomination est le temps écoulé entre affichage de l’image et début acoustique de la réponse verbale. Dans cet article, nous résumons la littérature sur les inconvénients de cette mesure. Nous présentons ensuite notre étude, qui compare directement temps de dénomination d’image et temps de détection interne de phonème initial. Les sujets sont hispanophones. Les noms d’image sont contrastés en fréquence lexicale et phonème initial. Les temps de réponse pour les deux mesures sont très proches. Cependant, ceux de détection de phonème sont insensibles au type de phonème initial, contrairement aux temps de dénomination. Au delà de l’avantage méthodologique de la détection de phonème, nos données suggèrent que celle-ci opère sur des représentations relativement abstraites.

12h30-14h00 - Déjeuner (CROUS Tolbiac)


14h00-15h40 - Présentations orales communes

Session commune JEP/TALN 1 - Mercredi 14h00-15h40 (SC1) - amphi 4

Président de session : Laurent Besacier

  • Auto-encodeurs pour la compréhension de documents parlés (JEP)
    Killian Janod, Mohamed Morchid, Richard Dufour, Georges Linarès and Renato De Mori
    Abstract: Les représentations de documents au moyen d'approches à base de réseaux de neurones ont montré des améliorations significatives dans de nombreuses tâches du traitement du langage naturel. Dans le cadre d'applications réelles, où des conditions d'enregistrement difficiles peuvent être rencontrées, la transcription automatique de documents parlés peut générer un nombre de mots mal transcrits important. Cet article propose une représentation des documents parlés très bruités utilisant des caractéristiques apprises par un auto-encodeur profond supervisé. La méthode proposée s'appuie à la fois sur les documents bruités et leur équivalent propre annoté manuellement pour estimer une représentation plus robuste des documents bruités. Cette représentation est évaluée sur le corpus DECODA sur une tâche de classification thématique de conversations téléphoniques atteignant une précision de 83% avec un gain d'environ 6%.
  • Comparaison d'approches de classification automatique des actes de dialogue dans un corpus de conversations écrites en ligne sur différentes modalités (TALN)
    Soufian Salim, Nicolas Hernandez and Emmanuel Morin
    Abstract: L'analyse des conversations écrites porteuses de demandes d'assistance est un enjeu important pour le développement de nouvelles technologies liées au support client. Dans cet article, nous nous intéressons à l'analyse d'un même type d'échange sur un canal différent : les conversations se déroulant sur les plate-formes d'entraide entre utilisateurs. Nous comparons des approches de classification supervisées sur trois modalités des CMR différentes à même thématique : des courriels, forums et chats issus de la communauté Ubuntu. Le système emploie une taxonomie fine basée sur le schéma DIT++. D'autres expériences sont détaillées, et nous rapportons les résultats obtenus avec différentes approches et différents traits sur les différentes parties de notre corpus multimodal.
  • Utilisation des représentations continues des mots et des paramètres prosodiques pour la détection d’erreurs dans les transcriptions automatiques de la parole (JEP)
    Sahar Ghannay, Yannick Estève, Nathalie Camelin, Camille Dutrey, Fabian Santiago and Martine Adda-Decker
    Abstract: Récemment, l'utilisation des représentations continues de mots a connu beaucoup de succès dans plusieurs tâches de traitement du langage naturel.
    Dans ce papier, nous nous proposons d'étudier leur utilisation pour la tâche de détection des erreurs de transcriptions automatiques de la parole.
    Dans une architecture neuronale, nous les avons intégrés et évalués, en plus des paramètres classiques (lexicales, syntaxiques,etc.), et d'un ensemble de paramètres prosodiques .
    De plus, la principale contribution de cet article porte sur la combinaison de différentes représentations : plusieurs approches de combinaison sont proposées et évaluées afin de tirer profit de leur complémentarité.
    Les expériences sont effectuées sur des transcriptions automatiques du corpus ETAPE générées par le système de reconnaissance automatique du LIUM.
    Les résultats obtenus sont meilleurs que ceux d'un système état de l'art basé sur les champs aléatoires conditionnels.
    Pour terminer, nous montrons que la mesure de confiance produite est bien calibrée selon une évaluation en terme d'Entropie Croisée Normalisée.
  • Détection de concepts pertinents pour le résumé automatique de conversations par recombinaison de patrons (TALN)
    Jérémy Trione, Benoit Favre and Frederic Bechet
    Abstract: Ce papier décrit une approche pour créer des résumés de conversations parlées par remplissage de patrons. Les patrons sont générés automatiquement à partir de fragments généralisés depuis un corpus de résumés d'apprentissage. Les informations nécessaires pour remplir les patrons sont détectés dans les transcriptions des conversations et utilisés pour sélectionner les fragments candidats. L'approche obtient un score ROUGE-2 de 0.116 sur le corpus RATP-DECODA. Les résultats obtenus montrent que cette approche abstractive est plus performante que les approches extractives utilisées habituellement dans le domaine du résumé automatique.

15h40-16h10 - Pause Café (hall 2ème étage)


16h10-17h00 - Présentations orales communes

Session commune JEP/TALN 2 - Mercredi 16h10-17h00 (SC2) - amphi 4

Président de session : Benoît Favre

  • Étude des réseaux de neurones récurrents pour étiquetage de séquences (TALN)
    Marco Dinarelli and Isabelle Tellier
    Abstract: Dans cet article nous étudions plusieurs types de réseaux neuronaux récurrents (RNN) pour l’étiquetage
    de séquences. Nous proposons deux nouvelles variantes de RNN et nous les comparons
    aux variantes plus classiques de type Jordan et Elman. Nous expliquons en détails quels sont les
    avantages de nos nouvelles variantes par rapport aux autres RNN. Nous évaluons tous les modèles,
    les nouvelles variantes ainsi que les RNN existants, sur deux tâches de compréhension de la parole :
    ATIS et MEDIA. Les résultats montrent que nos nouvelles variantes de RNN sont plus efficaces que
    les autres.
  • Estimation de la qualité d'un système de reconnaissance de la parole pour une tâche de compréhension (JEP)
    Olivier Galibert, Nathalie Camelin, Paul Deléglise and Sophie Rosset
    Abstract: Dans ce travail, nous nous intéressons à l'évaluation de la qualité des systèmes de reconnaissance de la parole étant donné une tâche de compréhension. L'objectif de ce travail est de pouvoir fournir un outil permettant la sélection d'un système de reconnaissance automatique de la parole le plus adapté pour un système de dialogue donné. Nous utilisons dans cette étude différentes métriques, notamment le WER, NE-WER, et ATENE métrique proposée récemment pour l'évaluation des systèmes de reconnaissance de la parole étant donné une tâche de reconnaissance d'entités nommées. Cette dernière métrique montrait une meilleure corrélation avec les résultats de la tâche globale que toutes les autres métriques testées. Nos mesures indiquent une très forte corrélation avec la mesure ATENE et une moins forte avec le WER.

17h00-18h00 - Présentations orales

TALN/RECITAL

Multimodalité - Mercredi 17h00-18h00 (Oral4A) - amphi 4

Présidente de session : Fabienne Moreau

  • Évaluation d'une nouvelle structuration thématique hiérarchique des textes dans un cadre de résumé automatique et de détection d'ancres au sein de vidéos
    Anca Simon, Guillaume Gravier and Pascale Sébillot
    Abstract: Dans cet article, nous évaluons, à travers son intérêt pour le résumé automatique et la détection d'ancres dans des vidéos, le potentiel d'une nouvelle structure thématique extraite de données textuelles, composée d'une hiérarchie de fragments thématiquement focalisés. Cette structure est produite par un algorithme exploitant les distributions temporelles d'apparition des mots dans les textes en se fondant sur une analyse de salves lexicales. La hiérarchie obtenue a pour objet de filtrer le contenu non crucial et de ne conserver que l'information saillante des textes, à différents niveaux de détail. Nous montrons qu'elle permet d'améliorer la production de résumés ou au moins de maintenir les résultats de l'état de l'art, tandis que pour la détection d'ancres, elle nous conduit à la meilleure précision dans le contexte de la tâche Search and Anchoring in Video Archives à MediaEval. Les expériences sont réalisées sur du texte écrit et sur un corpus de transcriptions automatiques d'émissions de télévision.
  • Prédiction automatique de fonctions pragmatiques dans les reformulations
    Natalia Grabar and Iris Eshkol
    Abstract: La reformulation participe à la structuration du discours, notamment dans le cas des dialogues, et contribue également à la dynamique du discours. Reformuler est un acte significatif qui poursuit des objectifs précis. L'objectif de notre travail est de prédire automatiquement la raison pour laquelle un locuteur effectue une reformulation. Nous utilisons une classification de onze fonctions pragmatiques inspirées des travaux existants et des données analysées. Les données de référence sont issues d'annotations manuelles et consensuelles des reformulations spontanées formées autour de trois marqueurs (c'est-à-dire, je veux dire, disons). Les données proviennent d'un corpus oral et d'un corpus de discussions sur les forums de santé. Nous exploitons des algorithmes de catégorisation supervisée et un ensemble de plusieurs descripteurs (syntaxiques, formels, sémantiques et discursifs) pour prédire les catégories de reformulation. La distribution des énoncés et phrases selon les catégories n'est pas homogène. Les expériences sont positionnées à deux niveaux: générique et spécifique. Nos résultats indiquent qu'il est plus facile de prédire les types de fonctions au niveau générique (la moyenne des F-mesures est autour de 0,80), qu'au niveau des catégories individuelles (la moyenne des F-mesures est autour de 0,40). L'influence de différents paramètres est étudiée.

Lexique des sentiments et Question-réponses - Mercredi 17h00-18h00 (Oral4B) - amphi 7

Présidente de session : Béatrice Daille

  • Construire un lexique de sentiments par crowdsourcing et propagation
    Mathieu Lafourcade, Nathalie Le Brun and Alain Joubert
    Abstract: Cet article présente une méthode de construction d'une ressource lexicale de sentiments/émotions. Son originalité est d'associer le crowdsourcing via un GWAP (Game With A Purpose) à un algorithme de propagation, les deux ayant pour support et source de données le réseau lexical JeuxDeMots. Nous décrivons le jeu permettant de collecter des informations de sentiments, ainsi que les principes et hypothèses qui sous-tendent le fonctionnement de l'algorithme qui les propage au sein du réseau. Enfin, nous donnons les résultats quantitatifs et expliquons les méthodes d'évaluation qualitative des données obtenues, à la fois pour le jeu et pour la propagation par l'algorithme, ces méthodes incluant une comparaison avec Emolex, une autre ressource de sentiments/émotions.
  • Évaluation de l’apprentissage incrémental par analogie
    Vincent Letard, Gabriel Illouz and Sophie Rosset
    Abstract: Cet article examine l’utilisation du raisonnement analogique dans le contexte de l’apprentissage incrémental. Le problème d’apprentissage sous-jacent développé est le transfert de requêtes formulées en langue naturelle vers des commandes dans un langage de programmation. Nous y explorons deux questions principales : Comment se comporte le raisonnement par analogie dans le contexte de l’apprentissage incrémental ? De quelle manière la séquence d’apprentissage influence-t-elle la performance globale ? Pour y répondre, nous proposons un protocole expérimental simulant deux utilisateurs et différentes séquences d’apprentissage. Nous montrons que l’ordre dans la séquence d’apprentissage n’a d’influence significative que sous des conditions spécifiques. Nous constatons également la complémentarité de l’incrément avec l’analogie pour un nombre d’exemples d’apprentissage minimal.

JEP

Synthèse - Mercredi 17h00-18h00 (Oral5) - amphi 6

Président de session : Gwénolé Lecorvé

  • De l'utilisation de descripteurs issus de la linguistique computationnelle dans le cadre de la synthèse par HMM
    Sébastien Le Maguer, Bernd Moebius, Ingmar Steiner and Damien Lolive
    Abstract: Durant les dernières décennies, la modélisation acoustique effectuée par les systèmes de synthèse de parole paramétrique a fait l'objet d'une attention particulière.
    Toutefois, dans la plupart des systèmes connus, l'ensemble des descripteurs linguistiques utilisés pour représenter le texte reste identique.
    Plus specifiquement, la modélisation de la prosodie reste guidée par des descripteurs de bas niveau comme l'information d'accentuation de la syllabe ou bien l'étiquette grammaticale du mot.
    Dans cet article, nous proposons d'intégrer des informations basées sur la prédictabilité d'un évènement (la syllabe ou le mot).
    Plusieurs études indiquent une corrélation forte entre cette mesure, fortement présente dans la linguistique computationnelle, et certaines spécificités lors de la production humaine de la parole.
    Notre hypothèse est donc que l'ajout de ces descripteurs améliore la modélisation de la prosodie.
    Cet article se focalise sur une analyse objective de l'apport de ces descripteurs sur la synthèse HMM pour la langue anglaise et française.
  • Patrons Rythmiques et Genres Littéraires en Synthèse de la Parole
    Elisabeth Delais-Roussarie, Damien Lolive, Hiyon Yoo and David Guennec
    Abstract: Au cours des vingt dernières années, la qualité de la parole synthétique a été améliorée, grâce notamment à l’émergence de nouvelles techniques telles la synthèse de parole par corpus. Cependant, les patrons rythmiques obtenus ne sont pas toujours perçus comme très naturels. Dans ce papier, nous comparons les patrons rythmiques observés en parole naturelle et synthétique pour trois genres littéraires. Le but de ce travail est d'appréhender comment le rythme pourrait être amélioré en synthèse de parole. La comparaison des patrons rythmiques est réalisée grâce à une analyse de la durée par rapport à la structure prosodique, sur corpus composé de six comptines, quatre poèmes et deux extraits de conte. Ce travail laisse penser que les différences rythmiques entre naturel et synthétique sont principalement dues au marquage de la structure prosodique, particulièrement au niveau des groupes intonatifs. De fait, le taux d’allongement des syllabes accentuées en fin de groupes intonatifs est beaucoup plus important en synthèse que dans la parole naturelle.
  • Se concentrer sur les différences : une méthode d'évaluation subjective efficace pour la comparaison de systèmes de synthèse
    Jonathan Chevelu, Damien Lolive, Sébastien Le Maguer and David Guennec
    Abstract: En proposant une nouvelle approche de synthèse de la parole, les études comportent généralement une évaluation subjective d'échantillons acoustiques produits par un système de référence et un nouveau système.
    Ces échantillons sont réalisés à partir d'un petit ensemble de phrases choisies aléatoirement dans un unique domaine.
    Ainsi, statistiquement, des échantillons pratiquement identiques sont présentés et réduisent les écarts de mesure entre les systèmes, au risque de les considérer comme non significatifs.
    Pour éviter cette problématique méthodologique, nous comparons deux systèmes sur des milliers d'échantillons de différents domaines.
    L'évaluation est réalisée uniquement sur les paires d'échantillons les plus pertinentes, c'est-à-dire les plus différentes acoustiquement.
    Cette méthode est appliquée sur un système de synthèse de type HTS et un second par sélection d'unités.
    La comparaison avec l'approche classique montre que cette méthode révèle des écarts qui jusqu'alors n'étaient pas significatifs.

18h00-19h00 - Assemblées générales

AG ATALA (amphi 4)

AG AFCP (amphi 6)


19h00-20h00 - Cocktail à l'INALCO (foyer ou cafétéria)