Vous êtes ici : Accueil › Recherche
› RECHERCHER
Titre
Auteur
Mot-clé
Année avant
Année après
Plus d'options

› AFFINER

› RESULTATS DE LA RECHERCHE  
12 résultats › Tri  › Par 
collection_x
Source : Hypotheses.org

Annotation guidelines for the visual domain

jangorisch (18 sept. 2013)

After the visual maptask corpus has been recorded, annotation guidelines for the visual modality are developed. In parallel to the verbal transcriptions, the first version of the visual annotation guidelines is underway to be tested on the pilot recordings. The guidelines are largely informed by ...

Voir plus d'informations | Voir la fiche de la ressource

Source : Hypotheses.org

New MTX Corpus (Audio Visual Maptask)

Prévot, Laurent (6 mars 2014)

A new corpus has been recorded. The transcription and alignment of this "MTX-Corpus" is completed. One aim of the project is to analyze conversational feedback at different interactional situations (spontaneous conversation, task-oriented dialogue and an intermediate condition). While working on the ...

Voir plus d'informations | Voir la fiche de la ressource

Source : Hypotheses.org

Séminaire CoFee Ellen Gurman Bard

Prévot, Laurent (25 nov. 2012)

Nous avons le plaisir de vous annoncer un séminaire d'Ellen Gurman Bard qui aura lieu le jeudi 29 novembre à 14h30 en salle de conférence. Ellen Gurman Bard, Dept of Linguistics and English Language, University of Edinburgh. http://www.lel.ed.ac.uk/~ellen/ Titre: Maybe not the first time: ...

Voir plus d'informations | Voir la fiche de la ressource

Source : Hypotheses.org

Kristiina Jokinen's Talk @ LPL

Prévot, Laurent (6 sept. 2015)

Engagement and Affects in WikiTalk Interactions September 30th, 14h LPL Conference Room (5 avenue Pasteur) Kristiina Jokinen University of Helsinki (Finland) University of Tartu (Estonia) In this talk I will talk about my work related to interaction modelling, and discuss issues related to ...

Voir plus d'informations | Voir la fiche de la ressource

Source : Hypotheses.org

Conversational Feedback

Prévot, Laurent (18 oct. 2012)

This site is about the ANR project "Conversational Feedback". In a conversation, feedback is mostly performed through short utterances produced by another participant than the main current speaker. These utterances are among the most frequent in conversational data. They are also considered as ...

Voir plus d'informations | Voir la fiche de la ressource

Source : Hypotheses.org

Seminar Jan Gorisch

Prévot, Laurent (27 janv. 2013)

What: Matching accross turns in talk-in-interaction: The role of prosody and gesture Who: Jan Gorisch http://staffwww.dcs.shef.ac.uk/people/J.Gorisch/ When: February, 5th, 9h30 Where: Laboratoire Parole et Langage, B011 (Salle de Conférence), Aix-En-Provence Slides

Voir plus d'informations | Voir la fiche de la ressource

Source : Hypotheses.org

CoFee presented @ LIF (Marseille)

Prévot, Laurent (29 déc. 2014)

Une approche quantitative de l'usage des items de feedback en français Laurent Prévot, Séminaire Talep 10/02/2015, LIF, Marseille Les énoncés de feedback sont parmi les plus fréquents dans situations de communication interactives. Ils sont cruciaux pour les théories de la communication ...

Voir plus d'informations | Voir la fiche de la ressource

Source : Hypotheses.org

New DVD-Corpus

jangorisch (16 janv. 2014)

A new corpus has been recorded. The transcription of this "DVD-Corpus" is nearly finished. One aim of the project is to analyse conversational feedback at different interactional situations (spontaneous conversation, task-oriented dialogue and an intermediate condition). Therefore, a corpus ...

Voir plus d'informations | Voir la fiche de la ressource

Source : Hypotheses.org

CoFee Workshop, November 26-27th

Prévot, Laurent (21 nov. 2015)

• Date(s) : 26/11/2015 - 27/11/2015 • Lieu / location/notice : Laboratoire Parole et Langage, 5 av Pasteur, Aix-en-Provence, salle A003 (26/11) et salle A-102 (27/11, accès réservé) ------ Program : CoFee Workshop - Day 1, November 26th (Public access, room A003) 9:00-9:15 Introduction and ...

Voir plus d'informations | Voir la fiche de la ressource