Bug in the Bot : la responsabilité des entreprises à l’égard des déclarations fausses ou trompeuses de leurs robots conversationnels – Perspective québécoise (partie I)

Vous utilisez ou songez à utiliser des robots conversationnels pour fournir des services à vos clients ou à vos employés? Vous êtes au bon endroit. Dans cette série d’articles, nous explorons les principales considérations juridiques de l’emploi de cette technologie. Nous lançons le bal avec des commentaires sur une décision récemment rendue en Colombie-Britannique et ce que doivent en retenir les entreprises du Québec. 

***

« Bonjour! Je suis votre assistant virtuel. Comment puis-je vous aider aujourd’hui? », demande le robot conversationnel.

Des clients mécontents répondent à cette question en exposant leurs doléances en détail (et parfois avec quelques jurons) au robot conversationnel comme s’il s’agissait d’un employé de l’entreprise avec laquelle ils font affaire. Mais le robot conversationnel n’est pas un humain : c’est un logiciel qui imite la conversation humaine, souvent à l’aide de l’intelligence artificielle générative1. Les entreprises utilisent ces robots afin de dialoguer avec un nombre illimité de clients de manière personnalisée et de résoudre leurs problèmes pour une fraction du coût associé à une véritable interaction humaine. Qu’arrive-t-il lorsque le robot donne de l’information fausse ou trompeuse, ou pire encore, lorsque le client se fie à cette information? L’entreprise devrait-elle être tenue responsable de la fausse déclaration? 

Le Civil Resolution Tribunal de la Colombie-Britannique (analogue à la division des petites créances de la Cour du Québec) a répondu à ces questions dans sa décision Moffatt v. Air Canada2 du 14 février 2024. Le Tribunal a conclu qu’une société peut être tenue responsable des représentations négligentes et inexactes faites par son robot sur son site Internet. Même si la demande n’était que d’environ 880 $, la décision a retenu l’attention des médias à l’international3, et elle marque un développement important dans le droit des obligations et de la protection des consommateurs alors que les entreprises utilisent de plus en plus l’IA dans le service à la clientèle.

Dans la partie I, nous nous penchons sur les incidences de la décision Moffatt sur les entreprises du Québec qui utilisent ou songent à utiliser des solutions d’IA pour optimiser leurs activités, plus particulièrement leurs interactions avec les clients.

 

Faits

Suite au décès de sa grand-mère, le plaignant, M. Moffatt4, a clavardé avec un robot conversationnel sur le site Internet d’Air Canada pendant sa recherche de vols. Le robot lui a indiqué qu’il était possible d’obtenir un tarif réduit pour une urgence familiale après l’achat en faisant une demande de remboursement dans les 90 jours suivant l’émission du billet5. Il lui a aussi donné un lien vers une autre page du site Internet d’Air Canada qui détaille la politique d’Air Canada pour urgence familiale. L’autre page du site contredisait toutefois les déclarations du robot en précisant que la politique pour urgence familiale ne pouvait pas être appliquée rétroactivement6.

S’appuyant sur les déclarations du robot conversationnel, M. Moffatt a soumis sa demande de remboursement sous la politique pour urgence familiale à la suite de son voyage, tout en respectant le délai de 90 jours7. Dans les mois qui ont suivi, M. Moffatt a communiqué avec Air Canada pour tenter d’obtenir le remboursement partiel du coût de son billet, en prenant soin d’envoyer une capture d’écran de sa conversation avec le robot8. Un représentant d’Air Canada a admis que le robot avait fourni « des mots trompeurs »9, mais a souligné que la page citée contenait la bonne information10. Suite au refus d’Air Canada d’honorer les déclarations de son robot, M. Moffatt s’est adressé au Tribunal pour obtenir la différence entre le tarif régulier et le tarif pour urgence familiale.

 

Décision

Le Tribunal a conclu qu’Air Canada a engagé sa responsabilité extracontractuelle pour représentations négligentes et inexactes (« tort of negligent misrepresentation »), pour les motifs suivants : a) en tant que fournisseur de services, Air Canada a manqué à son devoir (« duty of care ») de prendre des mesures raisonnables pour assurer l’exactitude des déclarations de son robot conversationnel; et b) M. Moffatt s’est raisonnablement appuyé sur ces déclarations.

Le Tribunal a rejeté l’argument d’Air Canada selon lequel elle ne pouvait pas être tenue responsable de l’information fournie par son robot conversationnel, car ce dernier est [traduction] « une entité juridique distincte responsable de ses propres actes »11. Selon le Tribunal, Air Canada devrait savoir qu’elle est responsable de toutes les informations figurant sur son site, dont les représentations du robot12.

Le Tribunal a aussi rejeté l’argument d’Air Canada selon lequel M. Moffatt aurait pu trouver la bonne information ailleurs sur son site. Air Canada n’a pas expliqué les raisons pour lesquelles a) sa politique était plus fiable que le robot conversationnel, et b) les clients devraient contre-vérifier les déclarations du robot à l’aide d’information se trouvant ailleurs sur le site d’Air Canada13.

Air Canada a aussi avancé qu’elle ne devrait pas être tenue responsable compte tenu des modalités de la politique que M. Moffatt a acceptées lors de l’achat des billets. Pour des raisons qui ne sont pas exprimées dans la décision, Air Canada n’a pas fourni l’extrait pertinent de la politique au soutien de son argument14. Le Tribunal a indiqué que si Air Canada avait voulu invoquer un contrat pour se défendre, elle aurait dû en fournir les extraits pertinents15.

Le Tribunal a par ailleurs noté qu’Air Canada n’avait fourni aucun renseignement sur la nature de son robot conversationnel16.

 

Analyse et commentaires

Les tribunaux québécois ne se sont pas encore penchés sur la responsabilité des entreprises à l’égard des déclarations de leurs robots conversationnels. Toutefois, vu la décision Moffatt et sa notoriété, ce n’est probablement qu’une question de temps avant qu’ils soient appelés à se prononcer sur l’utilisation de plus en plus fréquente de l’IA par les entreprises.

D’entrée de jeu, il se peut que l’étendue de la preuve présentée et les ressources allouées au litige aient été plutôt limitées vu la somme modeste en question. Nous soulignons également que, devant le Tribunal, les parties soumettent leurs plaidoiries à l’écrit17 contrairement à la Cour du Québec (division des petites créances), laquelle requiert généralement des plaidoiries orales.

La notion de droit civil québécois qui se rapproche le plus du tort of negligent misrepresentation est celle du dol, prévue à l’article 1401 du Code civil du Québec (« C.c.Q. »)18. Cela dit, une demande en dol requiert la preuve d’une intention de tromper19, ce qui n’est pas le cas en common law. Il est peu probable qu’un consommateur réussisse à prouver qu’un robot conversationnel (ou ses programmeurs) l’a volontairement trompé. Vu ce fardeau de preuve assez élevé, une action en dol intentée au Québec relativement à des déclarations d’un robot conversationnel semble avoir peu de chances de réussite.

Les consommateurs sont plus susceptibles d’invoquer les dispositions de la Loi sur la protection du consommateur (« L.p.c. ») sur les représentations fausses ou trompeuses20. Comme le dispose l’article 219 L.p.c., aucun commerçant, fabricant ou publicitaire ne peut, par quelque moyen que ce soit, faire une représentation fausse ou trompeuse à un consommateur21. Pour déterminer si une représentation est fausse ou trompeuse, il faut, selon l’article 218 L.p.c., évaluer le « sens littéral » des termes employés ainsi que l’« impression générale » qu’elle donne, sans tenir compte des attributs personnels du consommateur22. Contrairement au dol, l’intention de tromper n’est pas un critère dans le cadre d’un recours en vertu de la L.p.c. Les dispositions suivantes de la Loi sur la concurrence23 méritent aussi d’être considérées : l’article 52, qui interdit de donner des indications fausses ou trompeuses sciemment ou sans se soucier des conséquences, ainsi que l’article 74.01 et le paragraphe 74.011(2), qui interdisent la transmission des indications fausses ou trompeuses, plus particulièrement dans des messages électroniques.

L’argument selon lequel une entreprise ne devrait pas être tenue responsable des représentations faites par son robot conversationnel parce qu’il est une entité juridique distincte a peu de chances d’être retenu au Québec. Les tribunaux québécois pourraient s’inspirer de la décision Moffatt et conclure qu’une entreprise contrôle son robot conversationnel au même titre que les autres parties de son site Web.

Enfin, les entreprises devraient considérer leurs obligations en vertu des régimes de responsabilité civile et contractuelle codifiés au C.c.Q. en ce qui concerne leurs robots conversationnels. Elles devraient porter une attention particulière au concept du « fait autonome du bien ». Selon l’article 1465 C.c.Q., le gardien d’un bien doit réparer le préjudice causé par le fait autonome de ce bien. Une entreprise peut éviter d’engager sa responsabilité dans un tel cas en démontrant qu’elle a pris des mesures raisonnables pour empêcher le préjudice24. Les entreprises s’exposent aussi à des actions au titre des articles 1457 ou 1458 C.c.Q., selon que la faute alléguée est survenue après la formation d’une relation contractuelle ou non.

À la lumière des conclusions dans l’affaire Moffatt, nous croyons que, dans les affaires futures au Québec, les entreprises devront éclairer le tribunal sur la façon dont leurs robots conversationnels ont été créés, formés, testés et évalués pour se défendre dans des actions en dommages-intérêts intentées en raison des fausses déclarations de leurs robots. Supposons qu’une entreprise emploie un robot qui s’appuie sur des algorithmes d’IA générative et sur l’apprentissage automatique, l’entreprise a dû former son robot à l’aide des données existantes pour que ce dernier puisse comprendre et prédire les motifs d’un consommateur25. Dans un tel cas, l’entreprise pourrait alors invoquer l’absence d’intention de tromper dans la création, la formation, ses tests et ses évaluations du robot. Elle pourrait aussi démontrer qu’elle a pris des mesures raisonnables pour maximiser la probabilité de réponses justes et qu’elle a, ce faisant, atténué le risque de préjudice pour ses clients. Toutefois, il est possible qu’une entreprise doive présenter d’autres éléments de preuve, outre ses processus de création, de formation et de mise à l’essai, pour bien se défendre dans une action en dommages-intérêts.

Quoi qu’il en soit, la décision Moffatt rappelle que les entreprises doivent s’assurer de l’exactitude de l’information donnée à leurs clients sur toutes les interfaces, que ce soit par de vrais employés, des systèmes automatisés ou un site Internet statique, sans quoi il est possible que leur responsabilité soit engagée lorsque l’information transmise se révèle être fausse ou trompeuse. Dans la partie II, nous explorons les stratégies que les entreprises peuvent employer pour atténuer les risques liés à l’utilisation de robots conversationnels.

__________

1 Les robots conversationnels sont des logiciels qui utilisent l’intelligence artificielle pour simuler un dialogue en langage naturel. Ce ne sont pas des humains capables de s’adapter au contexte et aux émotions et intentions de leur interlocuteur. Ils s’appuient sur des règles prédéfinies et des données pour générer des réponses. Ils peuvent faire des erreurs, mal interpréter des demandes ou donner de l’information désuète ou inexacte.
2 2024 BCCRT 149.
3 Voir par exemple Leyland Cecco, « Air Canada ordered to pay customer who was misled by airline’s chatbot », The Guardian, 16 février 2024, en ligne : https://www.theguardian.com/world/2024/feb/16/air-canada-chatbot-lawsuit; Maria Yagoda, « Airline held liable for its chatbot giving passenger bad advice – what this means for travellers », BBC, 23 février 2024, en ligne : https://www.bbc.com/travel/article/20240222-air-canada-chatbot-misinformation-what-travellers-should-know; « Air Canada jugée responsable des mauvais conseils prodigués par son robot conversationnel », Radio-Canada, 17 février 2024, en ligne : https://ici.radio-canada.ca/nouvelle/2049941/robot-conversationnel-air-canada-plainte.
4 À noter que dans sa décision (en anglais seulement), le Tribunal utilise le pronom « they » et l’appellation « Mr. Moffatt » pour désigner cette personne. 
5 Moffatt, supra, note 2, paragr. 15.
6 Moffatt, supra, note 2, paragr. 16-17.
7 Moffatt, supra, note 2, paragr. 20.
8 Moffatt, supra, note 2, paragr. 21.
9 À noter que dans sa décision (en anglais seulement), le Tribunal utilise l’expression « misleading words ».
10 Moffatt, supra, note 2, paragr. 22.
11 Moffatt, supra, note 2, paragr. 27.
12 Moffatt, supra, note 2, paragr. 27.
13 Moffatt, supra, note 2, paragr. 28.
14 Moffatt, supra, note 2, paragr. 31.
15 Moffatt, supra, note 2, paragr. 31.
16 Moffatt, supra, note 2, paragr. 14.
17 Civil Resolution Tribunal, « What are arguments? », en ligne: https://civilresolutionbc.ca/help/what-are-arguments/ (consulté le 19 mars 2024).
18 RLRQ, c. CCQ-1991.
19 9147-7356 Québec inc c. 9289-6331 Québec inc, 2022 QCCS 32, paragr. 68. Voir aussi Canada Life Assurance Company v. Protection VAG inc, 2021 QCCS 3725, paragr. 315 et 316.
20 RLRQ, c. P-40.1.
21 Les articles 220 à 251 L.p.c. complètent l’article 219 en interdisant de types précis de représentations.
22 Richard c. Time, 2012 CSC 8, paragr. 45-51.
23 L.R.C. 1985, ch. C-34.
24 Promutuel Bois-Francs, société mutuelle d’assurance générale c. Goudreault, 2022 QCCS 1549, paragr. 35-38.
25 Ce point fait l’objet d’une analyse plus approfondie dans la partie II.

Flèche vers le haut Montez