Aller au contenu principal
Valentin Pelloin

Valentin Pelloin

Chercheur

Bio

Valentin Pelloin est chercheur en informatique au sein du service recherche de l'Institut National de l'Audiovisuel (INA).

Durant son doctorat au Laboratoire d'Informatique de l'Université du Mans (LIUM), Valentin a travaillé sur des problématiques de compréhension automatique de la parole. Il s'est intéressé à l'extraction de représentations sémantiques à partir de la parole et du texte, grâce à des architectures neuronales. La thèse, financée par le projet ANR AISSPER (Intelligence Artificielle pour une Compréhension de la Parole Contrôlée par la Sémantique) a donné lieu à de nombreuses collaborations scientifiques et actions de vulgarisation auprès du grand public.

Fin 2023, il rejoint l'INA pour travailler sur le traitement automatique de la parole au travers de plusieurs thématiques : reconnaissance de la parole (ASR), détection des locuteur·ices, extraction d'informations end-to-end.

Thématiques de recherche :

  • traitement automatique de la parole
  • machine learning, apprentissage automatique, apprentissage auto-supervisé

Mail : vpelloin (at) ina.fr

Site web personnel : https://vpelloin.eu

Liste de publications

2024

Gender Representation in TV and Radio: Automatic Information Extraction methods versus Manual Analyses
D. Doukhan, L. Dodson, M. Conan, V. Pelloin, A. Clamouse, M. Lepape, G. Van Hille, C. Méadel et M. Coulomb-Gully
InterSpeech 2024, septembre 2024

Automatic Classification of News Subjects in Broadcast News: Application to a Gender Bias Representation Analysis
V. Pelloin, L. Dodson, E. Chapuis, N. Hervé et D. Doukhan
InterSpeech 2024, septembre 2024

2022

ASR-Generated Text for Language Model Pre-training Applied to Speech Tasks
V. Pelloin, F. Dary, N. Hervé, B. Favre, N. Camelin, A. Laurent et L. Besacier
Interspeech 2022, septembre 2022 (lien)

Using ASR-Generated Text for Spoken Language Modeling
N. Hervé, V. Pelloin, B. Favre, F. Dary, A. Laurent, S. Meignier et L. Besacier
"Challenges & Perspectives in Creating Large Language Models", ACL 2022 Workshop, mai 2022 (lien)