Passer au contenu principal
Qualtrics Home page

Essayez Qualtrics
gratuitement

Compte gratuit

Analyse textuelle : définition et exemples

59 minutes de lecture

Analyse textuelle : définition, avantages et exemples

Découvrez comment fonctionne un logiciel d’analyse textuelle et comment ils peuvent être utilisés pour trouver des éléments pertinents dans des informations non structurées afin de faire passer vos programmes d’expérience client, employé, marque et produit à un niveau supérieur. 

Écrit par Rohan Sinha, Senior Principal CX chez Qualtrics.

Le retour d’expérience par écrit constitue la meilleure approche pour retranscrire une conversation en face à face avec un client ou un employé. En écrivant librement, nos clients ont la capacité de nous indiquer ce qui les intéresse réellement et pourquoi, sans être orientés par la subjectivité des questions posées. Le client choisit librement ce à quoi il attache de l’importance.

Toutefois, répertorier une kyrielle d’éléments revient à lire un roman et oblige à requalifier chaque phrase significative pour ensuite être analysée dans un ensemble cohérent. Cette démarche fastidieuse ne permet pas d’exploiter rapidement les données recensées. Si vous voulez que vos équipes soient en capacité de déchiffrer ces commentaires textuels, deux solutions s’offrent à vous. Une formation longue et coûteuse. Ou l’utilisation d’un outil d’analyse de texte pour mettre en lumière les éléments importants à retenir et à mettre en perspective. Passons désormais en revue les bases de l’analyse textuelle et voyons ensemble les outils et bonnes pratiques à emprunter.

En savoir plus sur Text iQ, notre logiciel d’analyse textuelle

Qu’est-ce que l’analyse de texte ?

L’analyse de texte est la manière avec laquelle les informations sont captées et traitées à partir d’un document écrit. Dans le domaine de la gestion d’expérience, le texte peut avoir la forme de réponses à une enquête, à un e-mail, à un ticket d’assistance, d’une retranscription issue d’un centre d’appel, d’avis sur les produits, de publications sur les réseaux sociaux, et tout autre commentaire livré sous forme de texte libre, par opposition à un questionnaire à choix multiples. L’analyse textuelle donne la capacité aux entreprises de lire des informations en dehors d’un système structuré.

L’analyse textuelle peut répondre à deux questions élémentaires : 

  1. Où est-ce que ce que se situe votre niveau de performance sur des sujets que vous connaissez bien, comme les temps d’attente, la fiabilité de votre service et les coûts ?
  2. Qu’est-ce qui n’est pas visible de prime abord et dont vous ne vous doutez même pas de l’existence possible, comme les bogues logiciels, un processus d’intégration lacunaire ou des défauts dans votre produit ?

Un puissant programme d’analyse peut parfaitement répondre à ces deux questions à grande échelle, tout en conservant un lien fort et personnalisé avec votre client.

Les deux techniques les plus répandues en analyse textuelle sont : 

  • Analyse des sentiments : technique permettant d’identifier le sentiment (positif, neutre, négatif) sous-jacent contenu dans les réponses textuelles 
  • Détection et catégorisation des thèmes : méthode qui consiste à faire ressortir de grandes thématiques pouvant être pertinentes pour le développement de l’entreprise (exemples : “qualité des aliments”, “efficacité du personnel”, “disponibilité des produits”)

Ces deux manières de procéder sont souvent utilisées simultanément, offrant une compréhension du sujet abordé par la personne interrogée dans un premier temps, et une compréhension du ressenti vécu par cette même personne dans un second temps.

Il s’agit de techniques globales qui recoupent avec toutes les autres manières d’identifier les émotions, les intentions… Il demeure important de garder à l’esprit que certains logiciels prétendent analyser les émotions en partant du texte, alors qu’ils ont tendance à utiliser des combinaisons de mots pour aboutir à l’émotion.

Cela peut porter à confusion, car on pourrait très bien dire “Le vol a été retardé” avec colère, désespoir ou joie (si nous étions nous-mêmes peu en avance), mais le texte ne dégagerait que l’aspect négatif sans jamais retranscrire de tonalité dans l’expression de la phrase.

En conséquence, l’utilisation parallèle des thématiques avec les sentiments provenant des mots est le seul moyen de discerner l’émotion, à l’inverse d’un algorithme qui catégorise selon des critères sans nuances.

Analyse de texte, exploration de texte et traitement automatique du langage naturel (NLP en anglais)

Il n’est pas rare, lorsqu’on parle d’analyse textuelle, de voir des termes clés comme l’exploration de texte et l’analyse de texte utilisés de manière interchangeable, amenant à une confusion entre les deux.

Compte tenu de l’ambiguïté qui règne sur le sujet, il est plus aisé de les différencier sur leur mode d’application que sur leur définition stricte.

L’exploration de texte (text mining en anglais) est un concept qui renvoie à l’utilisation des techniques statistiques pour récupérer des données quantifiables, provenant d’un texte non structuré. Ces données sont ensuite réutilisées dans un autre champ d’application, comme le reporting MIS, la non-conformité réglementaire, la détection des fraudes ou la sélection des candidatures. L’analyse quantitative du texte est importante, mais ne donne pas la possibilité de révéler un sentiment ou un ressenti derrière les retours clients.

L’analyse de texte (text analysis en anglais) est un concept reprenant les méthodes de l’exploration de texte, mais qui les améliore par l’identification de patterns, d’informations, de sentiments et de tendances révélées par les logiciels d’expérience client ou employé. L’analyse textuelle se concentre sur la découverte d’informations permettant de prendre des mesures dans des domaines spécialisés tels que la gestion de l’expérience.

Dans le cadre de l’analyse textuelle, il existe également le traitement du langage naturel (NLP), également appelé compréhension du langage naturel. Il s’agit d’une forme d’analyse des sentiments qui aide la technologie à mieux appréhender le texte du langage humain. Les algorithmes de traitement du langage naturel peuvent utiliser l’apprentissage automatique pour comprendre et évaluer des données précieuses, de manière cohérente et sans aucun parti pris. Il peut être suffisamment sophistiqué pour comprendre le contexte des données textuelles, même avec des concepts complexes et des ambiguïtés.

Par conséquent, il est très important d’utiliser des plateformes d’analyse de texte spécialisées pour les données relatives à la Voix du client ou des employés, par opposition aux outils généraux d’exploration de texte disponibles sur le marché.

Découvrez comment Qualtrics Text iQ utilise l’analyse des sentiments

L’importance de l’analyse de texte

L’analyse textuelle est devenue un outil incontournable de l’informatique décisionnelle, en particulier dans le cadre des programmes de gestion de l’expérience qui cherchent à améliorer l’expérience de leurs clients, produits, marques et employés.

Avant l’analyse textuelle, la plupart des entreprises devaient s’appuyer sur des données d’enquête quantitatives pour trouver les axes d’améliorations de l’expérience.

Bien que ces données demeurent essentielles à tout programme, elles sont limitées par les contraintes inhérentes à l’ensemble prédéterminé de réponses auquel le questionné fait face.

Par exemple, une entreprise de télécommunication peut poser une question typique de satisfaction client ou de CSAT à la suite d’un appel d’assistance : “Dans quelle mesure êtes-vous satisfait du service que vous avez reçu ?”

Une question de suivi dans les enquêtes auprès des clients peut s’intéresser aux raisons du score de satisfaction en restreignant les réponses possibles à quelques options : 

  • Temps d’attente
  • Vitesse de résolution
  • Attitude du conseiller
  • etc…

Ces options étant limitées en nombre, elles circonscrivent en conséquence l’analyse que l’on peut en extraire. Par exemple, si la raison première du client n’est pas proposée dans les choix possibles, des informations pertinentes ne seront pas captées.

Il est inenvisageable de pouvoir énumérer toutes les raisons et motifs d’un client. Laissez la possibilité d’un texte ouvert pour inclure ces commentaires permet d’élargir le champ d’analyse.

C’est là que l’analyse de texte est cruciale pour identifier les variables inconnues, les thèmes occultés par l’entreprise, mais qui pourraient avoir une importance déterminante dans les ajustements apportés à l’insatisfaction des clients.

La meilleure alternative consiste à poser une question ouverte sur les raisons du score donné par le client : “Pourquoi avez-vous attribué cette note ?”

L’utilisation de techniques d’analyse textuelle dans les enquêtes sur ces questions ouvertes permet aux entreprises de mieux comprendre les frustrations ressenties par les clients. Cela aide aussi à mieux identifier les problèmes graves, par rapport aux problèmes moins graves.

En offrant la possibilité aux clients de s’exprimer avec leurs propres mots sur leur expérience, vous pouvez mieux analyser les informations clients. L’analyse textuelle vous aide à être beaucoup plus précis dans les actions à déployer pour parfaire leur expérience.

Être capable d’établir des corrélations entre les données structurées et non structurées fournit des informations extrêmement pertinentes sur les décisions à prendre.

Il se pourrait qu’il existe une forte corrélation entre un personnel donnant une explication claire des prochaines étapes et un CSAT élevé, ou entre un personnel ayant une bonne connaissance du produit et d’un CSAT élevé.

Grâce aux techniques d’analyse de texte, ces données peuvent être aussi facilement organisées et introduites dans votre programme de gestion de l’expérience que les données quantitatives afin de vous donner un meilleur aperçu de ce qui motive l’expérience du client, de l’employé, de la marque ou du produit. 

Lorsqu’un client témoigne de son expérience avec ses propres mots, vous êtes capable d’effectuer une analyse des sentiments et des sujets en temps réel. Cet avantage vous permet d’identifier des améliorations difficiles à apercevoir en utilisant des données quantitatives uniquement.

Les applications métiers de l’analyse textuelle

L’analyse de texte est utilisée de plusieurs manières dans la gestion de l’expérience (XM). 

Si nous divisons XM en 4 piliers, nous pouvons voir ci-dessous certains des cas d’utilisation les plus courants :

Expérience client

Augmenter la fidélité : Découvrez des informations clés sur les principaux problèmes auxquels les clients promoteurs sont confrontés afin que des mesures puissent être prises pour empêcher ces clients fidèles de devenir des détracteurs.

Prévenir le désabonnement : ​​Identification intelligente des mentions de concurrents faites par des clients très insatisfaits. Vous pouvez également utiliser l’analyse textuelle pour déceler des sentiments négatifs ou des sujets clés tels que le potentiel de désabonnement qui apparaissent dans les commentaires de vos clients.

Vente croisée/vente incitative : En combinant des données opérationnelles telles que les dépenses des clients ou la valeur vie avec les dates de renouvellement à venir et une analyse de leurs commentaires sur des sujets tels que la fidélité, les récompenses, les incitations, etc., il est possible de prédire le potentiel de vente croisée en utilisant une combinaison d’IA et l’analyse textuelle.

Expérience employé

Attrition des employés : Combinez des données structurées telles que les scores d’engagement avec une faible implication sur des sujets tels que le support des managers, etc.

Bien-être des employés : Grâce à des alertes en temps réel sur des sujets tels que la dépression et l’anxiété, une intervention peut être effectuée si nécessaire.

Équilibre travail-vie personnelle : Utiliser l’analyse de texte pour comprendre les sujets liés à l’équilibre travail-vie personnelle, identifier les catégories d’employés les plus touchées et prendre des mesures en conséquence.

Expérience produit

Lancement d’un nouveau produit : Utilisation de l’analyse textuelle pour obtenir des commentaires précieux sur les fonctionnalités à améliorer ou à supprimer dans la prochaine version.

Utilisation du produit : L’analyse des données de garantie peut donner des informations clés sur les fonctionnalités dans lesquelles investir davantage pour augmenter l’utilisation, réduire les coûts de service, etc.

Expérience de la marque

Efficacité de la campagne : Analysez les principaux facteurs de satisfaction pour vos campagnes ainsi que les données opérationnelles telles que les dépenses de campagne, la portée, etc. pour déterminer le retour sur investissement.

Suivi de la marque : Comprendre les principaux thèmes qui viennent à l’esprit concernant la marque et les concurrents.

Découvrez Text iQ – notre logiciel d’analyse textuelle

Modélisation de sujet dans l’analyse textuelle

Dans l’analyse de texte, l’une des techniques les plus courantes pour structurer des données est une méthode appelée modélisation thématique (parfois appelé catégorisation ou taxonomie).

Nous allons explorer ici de quoi il s’agit, comment cela fonctionne et comment l’utiliser lors de l’analyse de réponses textuelles dans plusieurs langues.

Qu’est-ce qu’un modèle de sujet (model topic) ?

Les “sujets” ou “catégories” font référence à un groupe de concepts ou de thèmes similaires dans vos réponses textuelles.

Partons du principe qu’un client d’une entreprise de services publics dise “le double tarif est cher” tandis qu’un autre commente “le forfait à double tarification est cher”. Bien que les termes employés sont différents (“double tarif” et “forfait à double tarification”), ils font tous deux référence au même sujet.

De cette manière, les deux commentaires peuvent être regroupés dans la thématique “Type de tarif”.

La modélisation de sujet est un processus qui cherche à agréger différents sujets dans un sous-ensemble cohérent et compréhensible. Il est possible d’avoir un modèle de sujet à un seul niveau, dans lequel il n’y a pas de regroupements ni de structures hiérarchiques, mais ils ont généralement tendance à avoir plusieurs couches.

Ce type de regroupement de sujets parent-enfant est traditionnellement appelé taxonomie, qui consiste à regrouper des sujets en concepts plus larges qui ont du sens pour une entreprise particulière.

Un exemple courant pourrait être un sujet parent tel que “Attributs du personnel” qui contient divers sujets enfants (ou sous-ensembles) tels que “l’attitude du personnel”, “l’efficacité du personnel” et “les connaissances du personnel”.

La taxonomie est essentielle dans la gestion de l’expérience, car elle permet de rendre compte aux parties prenantes concernées et de remonter les commentaires vers les équipes et les services appropriés qui peuvent agir sur la base des informations recueillies.

Par exemple, dans une entreprise hôtelière, la catégorie “Expérience du personnel” peut être pertinente pour le directeur de l’hôtel du point de vue de la formation, tandis que l’expérience en chambre peut présenter un intérêt particulier pour le responsable de l’entretien ménager.

Avoir une taxonomie est essentiel pour transmettre les bonnes informations aux bonnes personnes au sein de l’organisation.

Les éléments clés du topic modeling dans l’analyse textuelle

Nombre de couches

Un modèle thématique peut comporter plusieurs niveaux hiérarchiques. Cependant, il est recommandé, en matière de gestion de l’expérience, de limiter le modèle à deux couches. Toute structure excédant deux couches de lecture devient extrêmement complexe à comprendre et à utiliser pour un professionnel, mais plus important encore, il est très fastidieux à construire et à maintenir au fil du temps.

Sujets exclusifs

Un autre concept de base dans la modélisation de sujet est la possibilité d’avoir plusieurs sujets pour la même phrase ou réponse. Cela signifie que les sujets doivent être mutuellement non exclusifs. Par exemple : “La perte de mes bagages a été la source d’une grande frustration.” pourraient être classés simultanément dans deux sous-thèmes d’analyse des sentiments : “Bagage perdu” et “Émotion & Frustration”.

Multilingue

Le modèle thématique doit pouvoir s’appliquer à toutes les langues dans lesquelles votre entreprise agit. Cela signifie que le modèle doit être capable de glaner des témoignages multilingues dans les ensembles thématiques de votre modèle. Par exemple, si un client à Londres déclare “long queue at the branch for withdrawing cash using a cheque” tandis qu’un client à Paris déclare “file d’attente trop longue au guichet pour retirer de l’argent en utilisant un chèque”, le modèle de sujet devrait être capable d’assigner les deux commentaires au sujet “Expérience en succursale & Temps d’attente”. Ainsi, dans la manière de bâtir le reporting, il existe une cohérence dans le modèle unique utilisé.

Comment modéliser des sujets pour l’analyse de texte

D’après notre expérience, il existe deux manières de modéliser un sujet dans un programme de gestion de l’expérience :

  • Du bas vers le haut : l’ensemble de données sous-jacent nourrit les sujets en cours de création
  • Du haut vers le bas : les sujets sont décidés indépendamment de l’ensemble de données

Modélisation de sujet ascendante dans l’analyse textuelle

Lorsque vous êtes confronté à la modélisation de sujet, vous constaterez l’emploi récurrent du jargon relatif (“sac de mots”, “ngrams” et “vecteurs” étant certains de nos favoris !), mais pour les besoins de cet article, nous avons gardé les choses simples avec trois façons principales de créer vos sujets sur la base d’un ensemble de données existant.

Algorithmes d’apprentissage automatique : il s’agit d’une fonctionnalité courante dans les bons logiciels d’analyse de texte, et ils utilisent souvent un ensemble de données de référence pour proposer des sujets. Ces ensembles de données de référence sont généralement créés à partir de données textuelles accessibles au public, telles que des articles de recherche, du contenu médiatique ou des blogs. Bien que cela soit formidable d’un point de vue linguistique, cela peut ne pas être utile lorsque vous l’utilisez pour formuler des sujets pour un programme VOC ou un programme d’expérience employé. Ainsi, même s’il s’agit d’une méthode utile, vous devez être prudent lorsque vous utilisez uniquement des algorithmes d’apprentissage pour développer votre modèle de sujet.

Techniques statistiques : une analyse statistique avancée comme le clustering peut être utilisée pour suggérer les principaux mots-clés ou combinaisons utilisés en fonction de leur occurrence ou de leur fréquence. Bien que cette approche soit rudimentaire, elle a beaucoup de sens lorsque l’on examine les données d’expérience à l’aide de techniques d’analyse textuelle, surtout si l’on pense à des points de contact spécifiques de l’expérience client qui peuvent se baser sur un grand volume de données.

Requête manuelle : le moyen le plus simple, mais également très efficace, d’approche ascendante de création de sujets consiste à formuler des sujets manuellement en fonction du nombre de fois que certains mots sont utilisés dans l’ensemble de données. Cela peut parfois être rejeté comme étant laborieux, inefficace et archaïque. Cependant, il existe de nombreuses techniques simples qui peuvent être utilisées pour accélérer ce processus et le rendre très fiable pour votre ensemble de données.

Modélisation de sujet descendante dans l’analyse de texte

Ce type de modélisation est une manière beaucoup plus normée de construire votre modèle et il existe généralement deux méthodes principales :

  1. Les modèles industriels. Vous pouvez appliquer des modèles de taxonomie prédéfinis et de nombreux logiciels d’analyse textuelle proposent à la fois des modèles industriels et horizontaux basés sur leur expérience avec d’autres clients ayant des cas d’utilisation similaires. C’est une bonne façon de commencer l’exercice de modélisation de sujet. Cependant, il est important de ne pas vous fier uniquement au modèle prédéfini. Les entreprises au sein des mêmes secteurs présentent des modèles économiques très différents et leurs clients utiliseront une terminologie totalement différente pour désigner les produits, services ou promotions qui pourraient être sans équivalent d’une organisation à l’autre. 
  2. Requêtes manuelles basées sur l’expérience du domaine. Cette approche est très proche de l’approche manuelle suggérée dans la modélisation ascendante, sauf qu’elle est de nature plus prescriptive et repose sur l’expérience et les préjugés de l’utilisateur qui construit le modèle. Les exemples incluent la duplication de sujets à partir d’un modèle de taxonomie historique ou un utilisateur professionnel expérimenté dictant les sujets auxquels ses clients font référence.

Nos meilleures pratiques de modélisation de sujet pour l’analyse textuelle

Nous avons évoqué les avantages et les inconvénients de chaque approche, et lorsqu’il s’agit de votre propre modélisation à des fins d’analyse de texte, nous recommandons de combiner plusieurs d’entre elles pour être la plus efficace.

Qu’il s’agisse de l’expérience client ou des données de commentaires des employés, les étapes suivantes pourraient vous fournir le meilleur modèle de sujet à adopter selon vos besoins

Étape 1 : Du haut vers le bas avec un modèle prédéfini

Supposons que votre équipe dispose de 100 000 témoignages provenant d’un point de contact client particulier et que vous devez fournir une analyse sur tous les sujets contenus dans les données. Le moyen le plus rapide d’appliquer un modèle et de prendre une longueur d’avance consiste à utiliser un modèle prédéfini. Cela pourrait être fait de 2 manières :

Modèles industriels : Le logiciel d’analyse textuelle devrait être en mesure de vous offrir la possibilité d’utiliser des modèles horizontaux/verticaux prédéfinis parmi lesquels sélectionner votre zone de projet.

Modèles préconfigurés : Utilisation d’un modèle qui avait été configuré historiquement pour un cas d’utilisation similaire ailleurs dans l’organisation. Il est extrêmement important que le logiciel de texte offre la possibilité d’utiliser des modèles provenant d’autres projets. Cela pourrait même être une simple exportation d’un modèle préconfiguré d’un projet vers un fichier exportable, puis l’importation du fichier dans le nouveau projet où l’analyse doit être effectuée. Ne vous inquiétez pas trop de la précision des sujets à ce stade.

Étape 2 : Du bas vers le haut : Détection automatique du sujet

La plupart des logiciels d’analyse textuelle devraient être capables de détecter des thèmes sur l’ensemble de données exploitées ou de sélectionner automatiquement des sujets de l’ensemble de données en fonction de la capacité d’apprentissage ou de regroupement qu’ils utilisent.

Même si vous ne devez jamais vous fier entièrement aux recommandations automatiques de sujets, elles constituent une deuxième étape utile pour renforcer le modèle que vous avez utilisé à la première étape. Une fois que vous avez vos recommandations, il est très important de parcourir les sujets générés automatiquement et d’ajouter ceux qui vous semblent pertinent de coupler au modèle existant.

Étape 3 : Améliorer la précision

Le modèle prédéfini ainsi que les sujets générés automatiquement nécessitent désormais un ajustement pour augmenter la précision. Parcourez chaque sujet pour vérifier s’il capte et cible les bonnes réponses. Pour la première passe, nous conseillons de vérifier au moins 15 à 20 verbatims par sujet pour obtenir un bon niveau de précision.

Il est impératif que le logiciel d’analyse utilisé fournisse une interface utilisateur simple qui vous permet de :

  1. Sélectionner facilement les sujets et vérifier le rappel sur chacun d’eux
  2. Vérifier les règles pour chaque sujet
  3. Vérifier les verbatims de chaque sujet dans l’espace vocal
  4. Apporter des modifications aux règles et vérifier les modifications apportées par la modification au nombre de verbatims tagués.

Étape 4 : Augmenter le rappel

La dernière étape, et sans doute la plus importante, consiste à augmenter le rappel sur le modèle et à le rendre plus efficace en le peaufinant manuellement pour augmenter le pourcentage total de commentaires rattachés à au moins un sujet.

Il existe deux approches :

  1. Améliorer les sujets existants : les sujets existants dans le modèle devront peut-être inclure davantage de mots ou de synonymes pour augmenter le nombre de verbatims attribués par thématique. Pour ce faire, vous devez inclure plus de mots dans vos règles de sujet existantes. Ce processus pourrait impliquer une lecture manuelle importante et prendre beaucoup de temps. L’apprentissage automatique peut aider dans ce processus en fournissant des suggestions de mentions de mots similaires à celles déjà utilisées dans le sujet, ce qui accélère considérablement le processus si le logiciel que vous utilisez le permet.
  2. Créer davantage de sujets pour capter les verbatims classés comme inconnu ou non tagué : une véritable approche ascendante partira des verbatims et les utilisera pour créer le modèle. Mais qui lira 10 000 commentaires ? Utilisez plutôt des techniques telles que les rapports en nuage de mots. Ceux-ci montrent clairement les mots les plus fréquemment mentionnés dans l’ensemble de données et, lorsque le rapport est filtré pour le segment “inconnu”, vous pouvez voir les mots les plus mentionnés dans cette section. Cela vous donne une meilleure vue des mots que le modèle a ignorés, afin que vous puissiez identifier ceux qui doivent être attribués à tel ou tel sujet, ou si un nouveau sujet doit être créé.

La précision dans l’analyse textuelle

Afin de prendre des décisions et d’agir en fonction des données, vous devez avoir confiance dans ces données structurées ou non structurées. De nombreuses personnes sont obsédées par l’exactitude de leurs analyses de texte.

Cela est effectivement important, mais il existe de nombreux cas où la précision peut être une illusion, en particulier dans la VOC ou d’autres programmes XM dans lesquels les signaux issus de l’analyse de texte sont vitaux, quelle que soit leur précision.

Comment mesure-t-on la précision de l’analyse textuelle ?

Lorsque l’on parle d’exactitude, il est important de se rappeler qu’elle dépend d’une grande variété de facteurs, notamment :

  • la source des données textuelles (par exemple, Tweets, avis sur les produits, transcriptions de discussions, etc.)
  • la complexité du jargon dans le secteur économique analysé
  • influences régionales et culturelles, par exemple, en introduisant des concepts comme le sarcasme
  • la longueur et la complexité des phrases utilisées par les répondants

La précision de l’analyse de texte est généralement mesurée à l’aide de deux concepts : le rappel et la précision.

  • Le rappel est le nombre de résultats corrects divisé par le nombre de résultats qui auraient dû être envoyés. Un rappel de 80 % signifie que 20 % de vos données n’ont pas du tout été captées par l’analyse et n’ont été étiquetées dans aucune catégorie ou sujet.
  • La précision est le nombre de résultats corrects divisé par le nombre de tous les résultats renvoyés. Une précision de 80 % signifie que 20 % de vos données ont été incorrectement catégorisées dans le modèle.

Dans les programmes Expérience client et Voix du client, le rappel et la couverture sont habituellement mesurés comme le pourcentage d’enregistrements réellement étiquetés sous au moins 1 sujet dans le modèle de taxonomie.

Par exemple, dans un ensemble de données de commentaires clients comprenant 100 verbatims pour un fournisseur de télécommunications, nous savons que 70 verbatims font référence aux différents plans tarifaires disponibles pour les clients.

Le modèle d’analyse de texte extrait 50 verbatims pertinents pour les « plans tarifaires ».

Et sur ces 50, seuls 45 contiennent correctement des mentions de « plans tarifaires ».

Quelle doit être la précision de votre analyse textuelle ?

Maintenant que nous comprenons le concept d’exactitude, il est également utile de comprendre les dangers d’être trop ambitieux quant à l’exactitude de l’analyse textuelle, en particulier lorsqu’il s’agit de programmes de gestion de l’expérience comme la voix du client.

Les calculs de précision présentent trois défis principaux :

1. Les grands ensembles de données présentent un défi

La précision est un concept statistique et peut être très difficile à vérifier dans de grands ensembles de données, par exemple lorsque vous appliquez des techniques d’analyse textuelle à des millions d’enregistrements de commentaires clients.

2. Cela demande beaucoup de travail

Estimer l’exactitude repose sur des méthodes et des calculs sophistiqués, dont certains utilisent les probabilités pour y parvenir. Afin d’utiliser les vrais positifs et les faux négatifs pour comprendre votre score de précision, vous avez besoin d’informations à jour sur ce qui est correct et ce qui ne l’est pas. Cela ne peut être fait qu’en étiquetant manuellement les données, devenant un processus très fastidieux, même lorsque l’analyse elle-même est effectuée via l’apprentissage automatique.

3. Ce n’est pas pratique avec plusieurs sujets

Pour estimer l’exactitude, la plupart des gens examinent le rappel de la taxonomie ou du modèle thématique. Par exemple, si vous avez 10 000 commentaires textuels et que votre modèle de sujet à plusieurs niveaux (taxonomique/hiérarchique) attribue au moins 1 sujet à 8 500 commentaires, alors nous considérons que le rappel est de 85 %.

Cependant, le calcul du rappel dans notre exemple ci-dessus (Plan tarifaire) est en réalité effectué pour un seul sujet. Si notre opérateur télécom avait 30 sujets ? Le véritable modèle de rappel consisterait à calculer le rappel de chaque sujet ou nœud de catégories au sein du modèle, et c’est là que l’on se heurte à des difficultés.

Supposons qu’un commentaire client indique “Le modèle de paiement Pay as You Go est excellent, mais le support technique n’a pas été utile”, a en fait été étiqueté sous le sujet “Utilité du personnel”, mais pas sous “Plan tarifaire”, par le calcul de rappel au niveau du modèle de sujet, le rappel sera de 100%. Cependant, si vous faites la même analyse au niveau du Plan Tarifaire, le rappel est de 0.

Précision de l’analyse des sentiments dans l’analyse textuelle

Nous avons parcouru certains des défis relatifs à l’exactitude dans l’analyse des sujets, mais il existe tout autant de difficultés dans l’analyse des sentiments :

Ironie et sarcasme

Lorsque les gens expriment des émotions négatives en utilisant des mots positifs, cela devient un problème pour les modèles de sentiments. Il existe différentes manières de les repérer en utilisant des méthodes basées sur des règles ou basées sur l’apprentissage. Les méthodes basées sur des règles sont cependant limitées, car elles ne sont efficaces que si des règles sont préalablement définies, et qu’aucune inconnue n’existe. Les modèles basés sur l’apprentissage qui utilisent des ensembles de données de référence massifs sont plus susceptibles de fournir une meilleure précision.

La bonne nouvelle, cependant, est que dans un programme d’expérience client multicanal, de tels cas représenteraient généralement bien moins de 0,5 % de vos données VOC globales.

Négations

Cela fait référence à l’utilisation de mots négatifs comme “pas” ou “jamais”. Les négations explicites telles que “le personnel n’était pas poli” sont facilement détectées par les systèmes basés sur des règles ou basés sur un dictionnaire. Les négations implicites comme “ça m’a coûté un bras et une jambe” nécessitent des règles personnalisées ou des modèles de sentiments basés sur l’apprentissage pour les capturer avec précision.

La précision est-elle si importante dans l’analyse textuelle ?

La réponse est oui. Être capable d’agir et de prendre des décisions sur la base des commentaires des gens nécessite bien sûr d’avoir confiance dans les données elles-mêmes et dans votre analyse de texte.

Cependant, comme nous l’avons vu, considérer l’exactitude comme une ambition statistique peut être inatteignable et potentiellement limiter la valeur que vous en retirez.

Il existe des cas où un rappel élevé est vital, car quelques feedbacks alarmants doivent suffire à prendre des mesures rapides. Comme pour une société émettrice de cartes de crédit, quelques mentions du mot “fraude” devraient suffire à déclencher une action.

Ou une équipe numérique, où toute hausse de mentions de “liens brisés” ou d’”erreurs de page” devrait suffire à agir et à améliorer l’expérience web.

Il y a aussi des occasions où la précision n’a pas d’importance. Par exemple, dans l’analyse de marque, les mentions de noms de concurrents doivent être analysées quel que soit le sentiment.

Ou, si vous avez des commentaires de clients affectés à des sujets liés aux blessures, aux poursuites, aux procédures judiciaires, etc., ils n’ont pas besoin de précision sur les sentiments pour tirer la sonnette d’alarme et déclencher une enquête plus approfondie.

L’analyse textuelle dans plusieurs langues

Une grande partie de l’action visant à améliorer l’expérience des clients et des employés consiste à écouter le vaste univers de commentaires non structurés qui existent sous la forme de réponses à des enquêtes auprès des clients, de conversations dans les centres d’appels, d’e-mails, de médias sociaux et de bien d’autres canaux.

Les grandes entreprises mondiales sont confrontées au défi supplémentaire de devoir systématiquement écouter, analyser et rendre compte des commentaires dans plusieurs langues. En effet, certaines des plus grandes entreprises doivent le faire à travers des millions de réponses textuelles rédigées dans au moins 20 langues différentes.

Il existe généralement 2 façons de procéder :

  • Utilisation de la langue maternelle pour chaque langue humaine analysée
  • Traduction de toutes les réponses dans une seule “langue de référence” et analyse de tout le contenu dans cette langue

Bien que chaque approche présente des avantages et des inconvénients, l’essentiel est de trouver un équilibre entre précision et coût.

Estimer la précision et le coût de l’analyse textuelle

Il est largement admis que l’analyse dans la langue maternelle tend à offrir une plus grande précision. Cela est vrai étant donné que la traduction peut perdre les nuances linguistiques et renvoyer des résultats grammaticalement incorrects.

Il y a cependant quelques points à garder à l’esprit :

  • les moteurs de traduction deviennent de plus en plus intelligents chaque année grâce à l’ajout de nouvelles technologies. Par exemple, Google Translate est devenu plus précis au fil des années grâce à des capacités d’apprentissage automatique qui tiennent compte des nuances linguistiques.
  • la traduction fonctionne plutôt bien sur les noms, les adjectifs et les adverbes. Ces parties du discours sont généralement les plus utilisées dans la construction de sujet. La structure globale de la phrase peut perdre en précision, mais dans l’ensemble, ces parties du discours sont bien traduites. Et c’est ce qui est utilisé dans les outils de création de sujets et de sentiments lexicaux. Si la technologie n’est pas lexicale et utilise un mécanisme d’apprentissage, la précision des résultats ressentis sur le texte traduit peut varier.

L’analyse de la langue maternelle peut également être très onéreuse.

Dans la plupart des outils d’analyse de texte, la taxonomie est construite/personnalisée pour refléter une structure cohérente afin de capter les commentaires textuels qui seront utilisés pour mesurer et rendre compte des expériences des employés ou des clients.

Il s’agit donc d’une taxonomie dans laquelle toutes les ressources doivent être investies dès le départ pour construire, puis maintenir périodiquement, une précision constante.

Le coût de création du modèle thématique augmente de façon exponentielle pour l’analyse de la langue maternelle. Par exemple, s’il faut 2 semaines pour construire un modèle entièrement personnalisé pour le point de contact service après-vente en anglais, cela prendra potentiellement 4 semaines pour le faire également en allemand.

Cela suppose par ailleurs que l’équipe CX soit capable de trouver les utilisateurs locaux sur chaque marché, de les former à l’utilisation de la technologie/du logiciel, puis de leur demander de créer les modèles linguistiques locaux.

Le coût ne s’arrête pas à la phase de construction : à mesure que vous ajoutez des points de contact ou des enquêtes, les modèles de texte doivent être actualisés, dans toutes les langues. Tous les 3 mois, vous devrez auditer et ajouter ou modifier des sujets pour maintenir des niveaux de précision cohérents, et vous devrez le faire dans toutes les langues.

Les organisations doivent évaluer si la valeur supplémentaire liée à l’augmentation de la précision grâce à l’analyse en langue maternelle vaut le coût supplémentaire des ressources.

Il y a également d’autres éléments à garder à l’esprit pour l’analyse de la langue maternelle :

Disponibilité de capacités en langue maternelle : les capacités d’analyse linguistique doivent exister pour chaque langue en question.

Et s’il est facile de trouver des capacités d’analyse natives pour des langues comme l’allemand, le français, l’espagnol, etc., il est plus difficile de trouver ces capacités lorsqu’il s’agit de langues nordiques ou baltes par exemple. C’est pour cette raison que certains des plus grands moteurs d’analyse textuelle au monde n’analysent qu’un nombre limité de langues dans leur forme native.

  • Vous pouvez toujours rendre compte dans toutes les langues locales. L’analyse textuelle comporte trois phases différentes : création, analyse et rapport. Vous pouvez créer des modèles dans n’importe quelle langue, mais pour les rapports destinés à différents pays, les rapports, sous forme de tableaux de bord, peuvent toujours être présentés dans la langue locale. Les utilisateurs locaux devraient donc toujours pouvoir lire les rapports et les analyses dans leur langue maternelle.
  • La cohérence est la clé de la mesure : qu’une technologie prenne ou non en charge 35 langues, l’objectif ultime doit toujours être d’avoir une cohérence dans la modélisation et le reporting ; et l’efficacité dans la construction et la maintenance d’un modèle de taxonomie, que ce soit via l’analyse de la langue maternelle ou en utilisant une “langue de référence”.
  • L’analyse des sentiments est davantage influencée par la traduction que par l’analyse du sujet. Il est donc préférable que l’évaluation des sentiments soit effectuée dans la langue maternelle plutôt que dans la langue traduite. Cela ne devrait pas signifier des dépenses supplémentaires, car la plupart des solutions d’analyse de texte utilisent des techniques d’analyse des sentiments prédéfinies qui ne nécessitent généralement pas un gros chantier de création de modèle dans un scénario CX.

Quelles sont les meilleures pratiques pour l’analyse textuelle dans plusieurs langues ?

Idéalement, la création de modèles ne devrait pas être effectuée dans plus de 2 langues de base, en gardant à l’esprit la taille de l’équipe, la répartition géographique, les capacités linguistiques des équipes d’analyse et le coût/effort nécessaire pour créer et maintenir plusieurs modèles linguistiques.

L’approche la plus efficace comprend quatre étapes clés :

  1. Choisissez une technologie capable de traduire de manière transparente et automatique des verbatims multilingues en une ou deux langues de base.
  2. Créez un modèle de sujet dans la langue traduite en utilisant une combinaison d’approches ascendantes et descendantes. La technologie devrait faciliter la construction de ce système en utilisant une combinaison de méthodes de catégorisation automatiques et manuelles.
  3. La technologie doit être capable de fournir une évaluation des sentiments dans la langue maternelle, car elle est plus précise.
  4. À des fins de reporting, le modèle de texte ou les étiquettes de catégorie contenus dans le modèle de base doivent être facilement traduits dans la langue maternelle au niveau de la couche de reporting, afin que les utilisateurs de langue maternelle puissent facilement voir les rapports dans leur propre langue ainsi que le texte intégral de la langue maternelle d’origine.

Outils essentiels pour les logiciels d’analyse textuelle

Tout au long de ce guide, nous avons parcouru les différentes méthodes derrière l’analyse de texte et les complexités liées à la création de modèles et à l’exécution d’une analyse textuelle dans plusieurs langues.

Gérer tout cela vous-même serait presque inenvisageable, et très peu d’organisations sont bâties pour en avoir la capacité.

Heureusement, il existe de nombreux outils d’analyse de texte disponibles pour vous aider à tirer des enseignements d’un texte libre. Voici ce que vous devez rechercher dans un outil d’analyse textuelle pour votre organisation :

Collection

Multicanal : la collecte sollicitée et non sollicitée de données textuelles est absolument essentielle pour un programme CX d’entreprise. Si vous analysez uniquement les données d’enquête, vous passez à côté de nombreuses informations exploitables provenant de sources comme les médias sociaux, les interactions avec les centres d’appels, le chat en ligne, etc.

Les meilleurs outils d’analyse de texte peuvent analyser des données provenant de plusieurs sources plutôt que de se limiter à une ou deux. Cela vous aide à avoir une vision complète de ce que disent les clients ou les employés, d’où qu’ils le disent, afin que vous puissiez avoir une meilleure idée de l’expérience et donc prendre les meilleures décisions pour l’améliorer.

L’analyse des données

Statistiques + Analyse textuelle : Doit avoir la capacité d’exécuter une analyse de régression sur les sujets de texte et le sentiment, pour déterminer l’impact réel sur le score CX KPI. Que l’attitude du personnel ait plus d’impact sur mon NPS ou sur la qualité du produit, il est très important de comprendre la corrélation et la régression des scores fondés sur les informations textuelles.

Prendre des mesures concrètes

L’analyse textuelle ne peut pas seulement être utilisée pour une analyse globale des causes profondes et pour générer des améliorations depuis le back-office. Elle doit être le détonateur pour enclencher les mesures d’amélioration à apporter. Cela ne doit pas se limiter à des conditions basées sur les scores attribués par le client, mais doit pouvoir être déclenché en fonction du sujet ou des définitions de sentiments des commentaires.

La visualisation de données

Flexibilité des visualisations : L’analyse textuelle ne se résume pas à de simples nuages ​​de mots colorés ou à des bulles thématiques. Elle offre une flexibilité infinie dans la visualisation des informations avec des données structurées (telles que les segments, les régions, le NPS, le score d’effort, etc.) et avec des données opérationnelles (telles que les volumes d’appels, le temps de traitement, la valeur à vie du client, etc.). Cette grande flexibilité permet une découverte facile et rapide des informations et la priorisation des actions à entreprendre. Les visuels les plus utiles sont sous forme de graphique à barres hiérarchique de sujets et de sentiments, ou de barres empilées avec des données thématiques et opérationnelles, etc.

Simple à comprendre : assurez-vous que les visualisations sont simples à interpréter pour tous les membres de l’organisation. En règle générale, vous devriez être en mesure de voir d’un seul coup d’œil les sujets d’actualité, une répartition des sentiments ainsi que les changements au fil du temps.

Explorez les commentaires : connaître les tendances des sujets et des sentiments est un début, mais vous souhaiterez également pouvoir explorer les rapports jusqu’aux réponses individuelles. Bien sûr, vous n’allez pas lire tous les commentaires dans leur intégralité, mais il est utile d’approfondir pour voir ce que les gens disent réellement dans les tendances à la baisse ou les segments à faible NPS. Et aussi pour vérifier que votre modèle de sujet fonctionne bien.

Écosystème + intégrations

Une seule plateforme : pour tout programme de gestion d’expérience, il est préférable que vos données quantitatives et textuelles soient collectées et analysées sur la même plateforme. Cela permet d’économiser des heures d’efforts manuels en réunissant différents ensembles de données et technologies pour obtenir une image complète.

Intégrations : si vous exécutez un programme d’expérience client en boucle fermée, assurez-vous que votre outil d’analyse de texte est intégré à vos systèmes existants, comme votre application de billetterie. Cela signifie que, en fonction du sentiment et du sujet, les commentaires pertinents des clients peuvent automatiquement déclencher un suivi dans les systèmes que vos équipes utilisent déjà, ce qui accélère le suivi et garantit que les équipes disposent des bonnes informations.

Données X + O ensemble : le but ultime de tout programme de gestion de l’expérience est de redonner de la valeur à l’entreprise. Recherchez donc une plateforme qui rassemble des données d’expérience (données X) comme du texte, aux côtés de données opérationnelles (données O) comme des chiffres d’affaires ou des données RH. Cela vous aide à établir des liens entre ce que disent les gens et leur comportement. Par exemple, les personnes qui parlent des vendeurs en magasin dépensent-elles plus que celles qui ne le font pas. De cette façon, les actions que vous entreprenez en fonction des informations que vous recueillez grâce à l’analyse textuelle seront orientées vers le retour sur investissement et la croissance de l’entreprise.

Découvrez Text iQ – notre logiciel d’analyse de texte

Comment Qualtrics peut vous aider

La plateforme Qualtrics XM Discover offre les meilleures analyses de texte de sa catégorie, alimentées par des algorithmes d’IA, d’apprentissage automatique et d’apprentissage profond. Mais notre plate-forme va encore plus loin, en réunissant le texte, la voix et les sources tierces en une seule solution transparente via le traitement du langage naturel.

Qualtrics XM™ repose sur trois piliers clés qui aident les marques à transformer les informations client en actions :

  1. Écoutez et comprenez

Nous aidons les marques à y parvenir en leur permettant d’interagir activement avec leur public, via des enquêtes auprès des clients, des questionnaires et des recherches, tandis que l’analyse de texte et le traitement du langage naturel vous aident à découvrir ce que les gens disent, d’​​où qu’ils le disent, ​​en temps réel.

Ainsi, que les clients appellent pour se plaindre, envoient un e-mail à votre adresse d’assistance, vous mentionnent sur les plateformes sociales ou laissent des commentaires élogieux sur des sites d’évaluation tiers, vous le saurez. Il est important de noter que l’analyse vocale et textuelle est capable d’attribuer un sentiment et une signification à toutes vos données textuelles non structurées.

  1. Mémorisez tout et obtenez le contexte

Les données contextuelles sont bien plus utiles que des tonnes de chiffres statiques. XiD peut créer des profils d’expérience pour chaque client et employé, connecter leurs profils à vos systèmes CRM/HRIS et orchestrer le parcours idéal pour les groupes cibles. Grâce à une visualisation riche des données, vous serez en mesure de voir où se situent les lacunes en matière d’expérience et ce qui doit être affiné.

  1. Agir avec empathie et rapidité

Grâce à des suggestions proactives et des informations intelligentes, vous serez capable de prendre immédiatement la décision appropriée en fonction de l’historique et du contexte de votre client ou de votre employé, à grande échelle.

En savoir plus sur Qualtrics XM ici

Pourquoi devriez-vous utiliser l’analyse textuelle dans l’expérience client

L’intégration de votre plate-forme de gestion de l’expérience client (CXM) et de votre logiciel d’analyse textuelle signifie que vous pouvez utiliser les résultats de votre analyse de texte tout au long de votre programme pour conduire le changement dans votre entreprise.

  • Incluez des visualisations de texte dans les rapports pour établir une tendance, une référence et identifier les principaux facteurs
  • Analysez en profondeur les données textuelles, telles que les étiquettes de sujet et de sentiment, ainsi que d’autres mesures quantitatives issues d’analyses statistiques pour trouver les causes profondes des comportements souhaités.
  • Observez les tendances au fil du temps pour garantir une action proactive sur les domaines préoccupants.
  • Fournissez automatiquement des tableaux de bord basés qui incluent des informations textuelles pertinentes dans les tableaux de bord d’expérience client et d’expérience employé.
  • Déclenchez des actions en fonction du sujet et du sentiment pour traiter rapidement les clients mécontents et à risque.
  • Comparez les catégories de sujets et les évaluations de sentiments pour définir des objectifs pour l’avenir.

Vous pourrez également découvrir des thèmes jusqu’alors inconnus que vous n’auriez jamais pensé rechercher. L’analyse de texte utilise des modèles d’apprentissage automatique sophistiqués pour découvrir les angles morts cachés dans les commentaires en texte libre, vous permettant ainsi de découvrir les problèmes des clients que vous n’auriez jamais pensé rechercher.

Le texte ouvert est un excellent moyen de découvrir des problèmes dont vous n’étiez pas conscient, de fournir un contexte spécifique expliquant pourquoi un client interrogé a laissé un score NPS négatif et de préparer vos équipes de service client avec les connaissances nécessaires pour boucler la boucle avec le client.

L’analyse textuelle avec Text iQ de Qualtrics

Comme indiqué, votre logiciel d’analyse de texte doit être sophistiqué et facilement manipulable pour analyser avec précision les données textuelles.

Qualtrics Text iQ automatise les processus clés pour vous aider à vous concentrer sur les actions que vous devez entreprendre, plutôt que sur l’analyse que vous devez effectuer. Alimenté par un apprentissage automatique breveté et un traitement du langage naturel, ce logiciel complexe, mais facile à utiliser, écoute et évalue en permanence les sentiments de vos clients.

Avec la capacité de surveiller les tendances au fil du temps et d’analyser les textes structurés et non structurés, Text iQ peut vous fournir, à vous et à votre personnel de première ligne, les informations dont ils ont besoin pour comprendre et conquérir votre public cible.

Vous pouvez tout savoir sur les fonctionnalités du logiciel Qualtrics Text iQ ou réserver une démo dès maintenant.

Découvrez automatiquement les tendances, les problèmes et les opportunités avec TextiQ