L’intelligibilité des données

Contexte

Feder - Wallonie

Les interactions sur des plate-formes et avec des outils multiples sont génératrices d’un contenu massif (big data) et hétérogène, de nature (texte, image, son, etc.) et de sources différentes. Gérer et animer ces interactions multiples est complexe car il faut jongler avec ces contenus qui sont soit trop volumineux pour en faire sens, soit trop hétérogènes pour pouvoir générer des informations utiles à l’interaction. Produire et intégrer des contenus multiplateformes est coûteux pour l’organisation et il est difficile de mesurer le retour sur investissement. Même si bon nombre d’outils permettent de mesurer l’existence ou non d’une transaction (achat ou échange d’information), ces outils professionnels ne permettent pas de mesurer, par exemple, la création d’une relation ou la création d’une communauté et la nature de celles-ci. Du côté des utilisateurs se pose la question du droit de savoir et de comprendre ce qui est généré dans l’interaction.

Les besoins d’intelligibilité sur la nature des relations et des contenus (‘big data’) générés dans l’utillisation des médias sociaux sont pourtant indispensables. Les traitements algorithmiques (‘data  mining’, lexicométries) sont possibles, tout autant que la création d’un outil. Le Fonds Européen de Développement Régional (FEDER) défend et soutient financièrement ce projet. Dès son lancement en janvier 2016, découvrez l’état d’avancement du projet sur le site du Social Media Lab.

 

Les objectifs d’un outil de profiling

Alors que les besoins d’intelligibilité grandissent aussi rapidement que la production de contenu, notre objectif est d’outiller les utilisateurs professionnels et non-professionnels pour qu’ils puissent faire sens de ce qui est produit dans l’interaction. Le traitement des données générées par les utilisateurs, s’il est rendu intelligible, pourrait informer les utilisateurs en interaction qui pourraient ainsi améliorer la performance de l’interaction. De même, l’analyse pourrait mettre en évidence la valeur ajoutée de ces interactions multi-plateformes dans l’atteinte des objectifs.

Il est donc important de prendre en compte la manière dont les analyses et visualisations des données sont comprises, appropriées et utilisées par les usagers des médias sociaux car les données traitées prennent sens et réalité au cours des interactions sociales. Les différents outils élaborés dans le laboratoire devront permettre d’aider non seulement les producteurs mais aussi les consommateurs de visualisations de données produites sur les médias sociaux. Les recherches en sciences humaines qui seront menées conjointement aux développements technologiques devront contribuer à lutter contre les obstacles que peuvent rencontrer les usagers dans la compréhension et l’utilisation des données traitées et visualisées.

Dans ce projet, l’attention sera portée sur le cycle court de la production de contenu: données générées dans l’interaction ? extraction ? traitement algorithmique ? mise en visibilité ou intelligibilité grâce à une interface ? réinjection dans l’interaction transformée (voir schéma ci-dessous).

L’objectif est donc ici de rendre intelligibles, via la création de briques technologiques, les modèles de traitement des données – lexicométrie, eyetracking, social graphs – pour permettre leur utilisation et appropriation par les usagers notamment en identifiant les compétences nécessaires pour leur donner sens. Il s’agit également de mettre en place des outils pour suivre le cheminement des données traitées pour mieux comprendre leur devenir et leur réintégration dans les processus d’interactions. Ainsi ce projet développera un outil de profiling d’utilisation (qui produit quoi et comment ?) des médias socio-numériques à destination des utilisateurs. Ces technologies ont une grande utilité dans le domaine du ‘media planning » et de la gestion des connaissances.

On ne sait finalement que peu de choses sur la manière dont les visualisations de données sont reçues, sur la manière dont les données sont réinjectées dans les interactions, sur leur efficacité et leur impact. Il s’agira dès lors de voir comment, dans les pratiques professionnelles de community management, rendre les données intelligibles, comment les traiter, etc.

Intelligibilité des données

Recherche en cours:

        • Beauté des données. Quelle est l’influence de l’ornementation des visualisations de données sur la construction de sens de l’utilisateur ?

          Résumé

          Tiffany Andry est assistante de recherche et l’Institut Langage et communication. Sa thèse de doctorat, soutenue en mars 2021 et encadrée par François Lambotte et Pierre Fastrez, concerne la construction de sens opérée par les utilisateurs des visualisations de données statistiques. Alors qu’à l’heure actuelle l’enjolivement des visualisations est constaté, quelle est l’influence des ornementations des visualisations de données sur la construction de sens ?

        • « Une approche linguistique pour la détection automatique de communautés d’expertise: Le cas des forums de Doctissimo. »

          Avec pour promoteurs les professeurs François Lambotte (Social Media Lab, UCL) et Cédrick Fairon (CENTAL, UCL), ce projet de Damien De MeyereDamien de Meyere s’inscrit dans les mutations que connait l’information de santé sous l’impulsion des techniques de communication numérique. Pour l’heure, on s’est peu intéressé au processus de mise en débat des connaissances médicales sur Internet au travers du prisme linguistique. Pourtant, avec l’émergence et l’importante popularisation des réseaux sociaux, nous assistons à l’émergence d’un nombre important de communautés en ligne qui mènent à la production d’un savoir collectif en constante élaboration.

        • « Optimisation et adaptation d’un outil d’étude de marché à des flux massifs et hétérogènes de données médias »

          En coopération avec l’Université de Liège et le partenaire industriel SoPRISM, ce projet a pour but de répondre de trouver des solutions face à l’utilisation croissante des médias sociaux (Facebook, LinkedIn, Twitter, etc.) mais également des, qui sont adressé par le projet. Notamment le projet se concerne avec les questions: Comment entamer les différentes sources et les rendre analysable dans une seule solution? Comment adapter des méthodes statistique et sélectionner les variables les plus discriminantes? Et finalement, quelle sont les enjeux face au règlement général sur la protection des données (RGPD/GDPR)?