3% des avis de voyage déjà rédigés par l'IA !

Depuis que le voyage en ligne existe (ou a mis en avant les notes et recommandations), les faux avis sur les hôtels, restaurants et circuits touristiques sont devenus légion. Avec l’avènement de l’intelligence artificielle, capable de produire des avis fictifs à une vitesse impressionnante, la situation prend une nouvelle dimension...
Selon "The Transparency Company", spécialisée dans l’analyse des avis consommateurs, environ 3 % des avis en ligne ont été générés par l’IA en 2024. Si ce chiffre peut sembler modeste, il masque cependant une réalité inquiétante: depuis juin 2023, le nombre de faux avis IA a augmenté de 80 % chaque mois, doublant presque tous les 30 jours. Si cette tendance se poursuit, il ne faudra pas longtemps avant que de nombreux avis sur un restaurant ou un hôtel soient davantage le fruit de l’imagination d’un outil comme ChatGPT que d’une véritable expérience client.
Face à cette montée en puissance, il devient crucial, pour les professionnels comme pour les portails qui les diffusent, de savoir distinguer les avis authentiques des faux. Et, le cas échéant, de le signaler pour retrait ou encore d'y répondre avec un humour tout sauf articiel !
L’IA excelle, par exemple, à produire des phrases standardisées basées sur des modèles courants. Les faux avis regorgent souvent de termes vagues comme "parfait", "incroyable" ou "meilleur service jamais vu", sans détails précis pour étayer ces affirmations. À l’inverse, un vrai client mentionnera des éléments spécifiques de son expérience. C'est aussi sur cette différence que les systèmes de vérification anti-fraude des grandes plateformes s'appuient pour "shooter" avant publication les faux avis clients (voir ci-dessous).

Un des points les plus communs entre des faux avis générés par l'IA ? Les machines peinent à inventer des anecdotes spécifiques et crédibles. Un vrai client pourrait mentionner une anecdote précise avec vous ou une situation inattendue qui ajouterait du contexte à sa critique; ce qui est rarement le cas quand cet avis a été écrit par une machine.
Autre signe avant-coureur d'un fake automatisé: l'IA raffolerait d'expressions telles que "la première chose qui m’a frappé", "changeant la donne" ou "tient ses promesses"... Ces formulations, bien qu’impeccables sur le plan grammatical, manqueraient d’authenticité et reflèteraient donc un style générique d'après les chasseurs de faux avis. Si l’IA produit systématiquement des phrases grammaticalement correctes et bien structurées, ce qui contraste avec les critiques humaines c'est qu'elles sont souvent imparfaites et incluent des fautes d’orthographe ou des formulations maladroites.
Par ailleurs, selon cette étude, les critiques générées par l’IA incluent parfois des mots ou des tournures peu courants comme "en résumé", "de plus" ou "en effet". Ces expressions peuvent sembler trop formelles ou maladroites pour une critique spontanée écrite par un consommateur. Autre indice, les faux avis IA sont souvent beaucoup plus longs que ceux rédigés par des humains, car les machines peuvent produire rapidement du contenu volumineux. En général, un client réel rédige une critique concise, sauf s’il est particulièrement passionné.
Enfin, les faux avis proviennent fréquemment de profils nouvellement créés avec peu d’activité. Par exemple, un utilisateur ayant publié un seul commentaire 5 étoiles sur un hôtel pourrait être un compte généré par l'IA.
De Google à TripAdvisor, en passant par Airbnb et Booking, réunis au sein de la "Coalition For Trusted Reviews", des efforts sont en cours pour contrer cette prolifération de faux avis. En août 2024, aux US, la Commission fédérale du commerce (FTC) a adopté des règles interdisant la création et la vente de faux témoignages, y compris ceux générés par IA et des poursuites ont même été intentées contre certains acteurs majeurs impliqués dans ces pratiques frauduleuses.
En France, il est explicitement interdit de diffuser des faux avis et il est exigé des plateformes qu'elles indiquent si les avis sont vérifiés ou non, ainsi que la méthode utilisée pour cette vérification. Des entreprises ont même été lourdement sanctionnées, comme une agence immobilière condamnée à une amende de 100 000 € pour avoir demandé à ses employés de publier de faux avis sur ses locations de vacances. En Europe, la Directive Omnibus (2022) impose aux entreprises de garantir que les avis publiés proviennent de véritables consommateurs ayant utilisé le produit ou service concerné. Elle prévoit même des sanctions allant jusqu'à 300 000 € d'amende et 2 ans d'emprisonnement pour les contrevenants.

