(SELA, Ayelet, Can Computers be Fair? How Automated and Human-Powered Online Dispute Resolution Affect Procedural Justice in Mediation and Arbitration, Draft, forthcoming (2017) in Ohio State Journal on Dispute Resolution)

La résolution des différends en ligne (RDL) existe depuis plus d’une quinzaine d’années et est utilisée par certains acteurs de poids dans le secteur du e-commerce tel eBay. Ce n’est pourtant que récemment que cette solution a réellement gagné en importance. Certes, le volume de litiges traité par eBay est considérable, mais ce sont aujourd’hui des solutions de RDL créées par et pour des systèmes judiciaires étatiques qui sont en train d’être développées de manière croissante. Concomitamment, de plus en plus de solutions de RDL voient le jour tous secteurs confondus. La démocratisation du RDL est donc en cours.

Se pose alors la question du rôle que la « quatrième partie » – la technologie – sera amenée à jouer dans ces processus. « Simple » concrétisation technique d’une procédure ? Administratrice/greffe ? Interface texte ou vidéo voire les deux ? Médiateur ? Juge ?
Dans la lignée de ces interrogations, A. Sela cherche dans son article à déterminer si l’intervention de l’intelligence artificielle (IA) dans le processus influe sur le degré de justice procédurale ressenti par les parties. En d’autres termes, les justiciables considèrent-ils qu’une machine puisse être aussi juste qu’un être humain ? Cette perception varie-t-elle selon que la procédure est amiable ou contentieuse ?

L’expérience

Pour répondre à ces questions, l’auteure a mené une expérience sur près de 90 étudiants invités à engager une médiation puis éventuellement un arbitrage sur une plateforme en ligne à interface texte uniquement. Les étudiants devaient initier une procédure pour un litige d’e-commerce dont les prétentions et « zones de possible accord » étaient fixées par l’énoncé.
Il était indiqué à quatre groupes d’étudiants qu’ils auraient un médiateur puis un arbitre humain, ou un médiateur puis un arbitre machine (intelligence artificielle), ou un médiateur machine puis un arbitre humain et inversement. Un cinquième groupe était seulement informé du fait que leur médiateur serait humain et un sixième que leur médiateur serait machine, étant entendu que l’identité de leur arbitre leur serait à tous deux révélée au début de l’arbitrage.

Les quatre premiers groupes devaient répondre à un questionnaire à la fin de l’arbitrage. Les deux derniers devaient répondre à un premier questionnaire à la fin de la médiation puis à la fin de l’arbitrage.
La clé de l’expérience résidait dans la perception que les justiciables avaient du médiateur et de l’arbitre. Le reste de la procédure était standardisée, les mêmes interfaces, les échanges avec les médiateurs/arbitres homme/machine et le défendeur étaient très proches et les sentences arbitrales identiques.

Constats de l’expérience

A. Sela a constaté trois types de perceptions par les utilisateurs.

Dans le cadre d’une médiation par une machine, les utilisateurs ont eu le sentiment que la machine était plus procéduralement juste. A. Sela nous explique que cela est dû au fait que, sachant qu’ils s’engagent dans une médiation par IA, les utilisateurs ont des attentes moindres de sa part que pour un humain et sont donc plus facilement satisfaits par elle. Ainsi les utilisateurs ajustent leurs attentes à la baisse avant de débuter la médiation.

Dans le cadre d’une médiation par un humain en ligne, le raisonnement inverse s’applique. Dans le cadre d’une médiation face-à-face, les parties communiquent avec le médiateur verbalement mais aussi de manière non verbale, c’est une communication fine et nuancée qui est impossible lorsque les protagonistes n’échangent que par messages texte. Les parties s’attendent à retrouver cette finesse de communication permise par le face-à-face et ressortent donc nécessairement insatisfaites de la médiation en ligne. Ainsi les parties perçoivent la médiation humaine au travers de la plateforme comme étant procéduralement injuste.

En arbitrage la situation est toute autre. Les parties sont réticentes à l’idée de se soumettre à un arbitre qui ne serait pas humain. La machine est perçue comme incapable de justifier sa décision et de permettre aux parties de s’exprimer suffisamment. Au contraire l’arbitre humain est perçu comme plus digne de confiance et respectueux. Ce constat est d’autant plus frappant qu’en l’espèce, lors de la phase d’arbitrage, les parties ne faisaient que relire les déclarations de la phase amiable et les valider, aucun échange supplémentaire n’était nécessaire.

Enfin, il a été constaté que les parties ayant d’abord participé à une médiation avec un médiateur humain étaient par la suite plus satisfaites par un arbitre également humain. Toutefois, la réciproque n’est pas vérifiée : la constance de nature entre le médiateur et l’arbitre est uniquement satisfaisante aux yeux des utilisateurs s’il s’agit dans les deux cas d’un humain.

L’auteure explique ce dernier phénomène par l’adaptation inconsciente des utilisateurs à leur interlocuteur. Les parties vont en effet, en phase de médiation, adapter leur discours à la nature du médiateur (homme ou machine). Si l’homme arbitre sera ensuite systématiquement perçu comme capable de comprendre et d’analyser les échanges formulés en phase de médiation, que ceux-ci aient été adressés à un médiateur homme ou machine, la machine arbitre sera au contraire considérée comme uniquement capable d’assimiler les échanges adressés en première phase à un médiateur également machine.

Conclusion de l’étude

Ces résultats démontrent ainsi l’impact de l’IA sur le ressenti de justice procédurale des litigants selon la procédure engagée. Dans le cadre d’une médiation, procédure amiable dont l’issue ne lie pas les parties si elles n’en sont pas satisfaites, menée à travers une solution de RDL à interface texte, les parties ressentiront plus de justice dans la procédure avec un médiateur machine. Au contraire, en arbitrage, là où l’arbitre rend une sentence qui lie les parties, un arbitre humain sera perçu comme plus juste procéduralement.

Ce constat de l’attrait pour la médiation électronique par IA ne fait que justifier la diffusion accrue de solutions de RDL, phénomène qui participerait à un rééquilibrage en faveur des justiciables les plus isolés ou démunis face à des procédures classiques en présentiel (dû à leur coût ou à leur éloignement par exemple). Toutefois, il est nécessaire de conserver à l’égard de ces technologies une certaine prudence ; si elles ont pour vocation d’être neutres lorsqu’elles aident à la résolution d’un différend ou lorsqu’elles le tranchent, cette neutralité peut n’être que de façade. Tout comme les médiateurs et arbitres humains soumis à une déclaration d’indépendance, il est souhaitable que les rouages internes de ces technologies puissent être soumis à un examen, leur code pouvant refléter certaines valeurs ou prédispositions.

Un exemple simple mais saisissant est avancée par l’auteure : imaginons que le logiciel de RDL qu’utilise eBay s’alimente en données collectées par le site : volume des ventes de chaque partie, réputation de l’utilisateur sur le site… Imaginons ensuite que le logiciel prenne en compte ces données dans sa prise de décision ou dans l’accompagnement des parties lors d’une médiation. Un comportement économique « rationnel » verrait le logiciel favoriser la partie qui génère le plus de revenus pour le site !

L’on retiendra donc que les machines peuvent être justes aux yeux des utilisateurs, mais qu’il convient d’avancer avec discernement afin de concrétiser cette perception.

L’expression « justice procédurale » recouvre l’idée que la procédure menant à la décision est juste, par exemple un justiciable qui estime que le juge n’est pas suffisamment à l’écoute percevra que la procédure se déroule de manière injuste, c’est une notion plus subjective que celle de procès équitable.