Solliciter les points de vue sur l’IA dans l’intelligence artificielle : l’essor de l’apprentissage automatique

L’intelligence artificielle (IA) est utilisée dans l’arbitrage international depuis un certain temps maintenant. Avant le lancement de ChatGPT en novembre 2022, il semblait y avoir un consensus implicite sur le fait que ni soft law ni réglementation sur l’utilisation de l’IA dans l’arbitrage n’étaient nécessaires. Les outils d’IA semblaient être considérés comme une seule catégorie d’outils LegalTech que les parties et les arbitres sont libres d’utiliser sans avoir à divulguer cette utilisation aux autres parties et au tribunal arbitral. Les discussions et la littérature d’arbitrage sur l’IA avaient tendance à tourner autour des gains d’efficacité et de l’idée futuriste des arbitres robots plutôt que des implications et des risques possibles que l’IA pourrait poser pour l’intégrité du processus arbitral. Les avantages des outils d’IA en termes de capacité et d’efficacité sont importants ; On s’attend à ce que l’IA ait un effet transformateur sur la profession juridique et l’arbitrage international ne fait pas exception. Les applications actuelles de l’IA dans l’arbitrage international comprennent des outils utilisés pour identifier les documents pertinents, générer et éditer du texte, ainsi que des outils de traduction, d’interprétation et de transcription. Les applications futures de l’IA dans l’arbitrage sont pratiquement illimitées avec de nombreux cas d’utilisation en préparation.

Depuis le lancement de ChatGPT, les praticiens de l’arbitrage ont engagé des discussions et partagé des expériences d’utilisation de l’IA. La communauté de l’arbitrage est actuellement en train d’évaluer les implications de l’utilisation de l’IA dans l’arbitrage tout en identifiant les risques qui pourraient devoir être traités.

BCLP recueille actuellement des opinions sur ces questions et d’autres dans son enquête annuelle sur l’arbitrage international 2023 : AI in IA – The Rise of Machine Learning. Pour participer au sondage, cliquez ici.

Identifier les risques potentiels

Les implications de l’utilisation d’outils d’IA dans l’arbitrage dépendent en grande partie de la capacité d’un individu ou d’une entreprise dans la procédure et du contexte dans lequel cet outil particulier est utilisé. Par exemple, une partie peut être libre d’utiliser un outil d’intelligence artificielle pour rassembler des documents pertinents sur lesquels elle pourrait vouloir s’appuyer dans l’arbitrage sans divulguer cette utilisation à sa contrepartie. D’autre part, la même partie pourrait devoir divulguer qu’elle utilise le même outil si elle le fait dans le cadre du respect d’une demande de document ou d’une ordonnance émise par le tribunal arbitral. De même, les parties peuvent trouver acceptable qu’un arbitre utilise un outil d’IA générative pour rédiger l’historique procédural d’une sentence arbitrale mais refuser de donner son consentement à ce que l’arbitre utilise cet outil pour préparer les motifs de sa décision sur le fond du litige .

L’utilisation d’un outil d’intelligence artificielle par une partie à un arbitrage dépendra également de la question de savoir si les autres parties à la procédure ont été informées de l’intention d’utiliser l’outil d’intelligence artificielle et, si le consentement est refusé, si la partie ayant l’intention d’utiliser l’outil a été autorisé à le faire par le tribunal arbitral. De plus, l’utilisation d’un outil d’IA peut être conditionnée à la divulgation de certains paramètres à des fins de transparence. Par exemple, une autre partie à la procédure peut souhaiter obtenir des informations sur les données sur lesquelles l’algorithme en question a été ou sera formé. Ces informations peuvent être nécessaires pour évaluer comment l’algorithme peut affecter les preuves et éventuellement l’issue de l’affaire.

L’utilisation de l’IA dans l’arbitrage a de multiples implications potentielles. Les sections suivantes donnent un aperçu de haut niveau de certaines de ces implications.

Impact sur la procédure d’arbitrage

L’utilisation par une ou plusieurs parties de l’IA dans un arbitrage peut donner lieu à des problèmes de procédure. Par exemple, une traduction inadéquate par un outil de traduction automatique peut affecter les preuves sur lesquelles le litige est tranché et l’intégrité de la procédure. De même, les outils d’IA générative peuvent créer des problèmes de procédure s’ils sont utilisés par des témoins factuels ou experts dans la préparation de déclarations ou de rapports. Le codage prédictif est un autre exemple de la façon dont l’utilisation de l’IA peut affecter l’intégrité du processus arbitral. Le codage prédictif – également connu sous le nom de Technology Assisted Review (TAR) – est un outil d’IA d’apprentissage automatique par lequel les documents pertinents sont identifiés par un algorithme. Le codage prédictif est utilisé régulièrement dans les tribunaux anglais dans des conditions strictes, notamment en termes de transparence. La transparence sur les paramètres est importante d’un point de vue procédural puisque d’autres parties à la procédure peuvent avoir besoin d’avoir accès à suffisamment d’informations pour s’assurer que la technologie est utilisée de manière appropriée et sécurisée. (Pour plus d’informations sur le codage prédictif et son application dans l’arbitrage international, voir ici).

Dans la mesure où l’utilisation de l’IA dans l’arbitrage peut affecter la régularité de la procédure et l’équité, son utilisation peut donner lieu à des problèmes d’application. À mesure que le paysage réglementaire évolue, les législateurs peuvent interdire l’utilisation de l’IA dans le cadre de l’administration de la justice. Toute réglementation de l’IA ajouterait une autre couche de règles que les arbitres et les conseils devraient prendre en compte pour garantir que la procédure est menée conformément à la loi applicable au(x) lieu(x) d’exécution (en plus de la loi du siège), et la force exécutoire de toute sentence subséquente.

Utilisation de l’IA par les arbitres

Un autre risque associé à l’utilisation de l’IA dans l’arbitrage concerne son utilisation par les arbitres et les tribunaux arbitraux. L’utilisation de l’IA par les arbitres soulève des questions quant à son impact sur l’administration de la justice et l’état de droit ; il s’agit d’une question que le projet actuel de règlement de l’UE sur l’IA cherche à aborder. Le projet de règlement classe certains systèmes d’IA destinés à être utilisés dans le cadre de l’administration de la justice comme « à haut risque ». Bien que le texte ne fasse pas directement référence à l’arbitrage, il fait référence à des outils destinés à être utilisés par une autorité judiciaire pour rechercher, interpréter et appliquer la loi à un ensemble concret de faits, et de le faire « de manière similaire en alternative ». règlement des différends ». Les références à l’autorité judiciaire et au règlement extrajudiciaire des litiges semblent suggérer que certains outils d’IA destinés à être utilisés par les arbitres dans le cadre de leur mandat seraient inclus dans la définition des systèmes d’IA « à haut risque » et donc couverts par le règlement.

Une autre considération concerne la nature du mandat des arbitres. Les arbitres sont nommés en vertu de l’accord des parties d’arbitrer plutôt qu’en vertu des pouvoirs de l’État. Ils sont nominativement nommés en raison de leurs spécificités pour conduire l’instance et trancher le litige soit seuls, soit collégialement en formation de trois membres. Le mandat d’un arbitre est donc un mandat personnel (personnages intuitifs) ce qui signifie qu’il doit être rempli personnellement sans en déléguer la totalité ou une partie à quelqu’un d’autre. En cas de délégation, celle-ci doit être communiquée aux parties. Un exemple d’une telle délégation par un tribunal arbitral est l’utilisation de secrétaires de tribunal, qui est réglementée dans l’arbitrage. le personnages intuitifs La nature du mandat d’un arbitre implique que l’arbitre ne doit pas déléguer une partie de sa mission à un système ou logiciel d’IA. Les arbitres devront donc déterminer quels outils d’IA pourraient ne pas être compatibles avec leurs mandats.

IA et éthique

L’IA soulève également des questions d’éthique pour les avocats en ce qui concerne leurs devoirs envers leurs clients et le tribunal arbitral. En ce qui concerne leurs devoirs vis-à-vis des clients, les avocats peuvent être tenus de divulguer l’utilisation de l’IA dans le cadre de la fourniture de conseils juridiques et de la représentation des clients dans les procédures arbitrales. En outre, dans certaines circonstances, l’utilisation de l’IA peut ne pas être conforme à d’autres devoirs envers les clients car cela peut constituer une violation du devoir de confidentialité, par exemple.

L’utilisation de l’IA est également susceptible d’affecter les devoirs des conseils envers le tribunal. Une obligation déontologique communément acceptée dans l’arbitrage est que l’avocat ne peut pas déformer la loi ou les faits de l’affaire. Par conséquent, l’utilisation d’outils d’IA pour effectuer des recherches juridiques et répondre à des demandes factuelles nécessitera que des avocats qualifiés vérifient tout matériel produit par ces outils afin d’assurer la responsabilité et le respect des obligations éthiques.

Les régulateurs tels que les barreaux et les associations d’avocats du monde entier envisagent la nécessité de nouvelles directives sur l’utilisation de l’IA. Comme les avocats dans l’arbitrage international sont généralement liés par leurs règles éthiques quel que soit le lieu de l’arbitrage ou le droit substantiel du litige, toute orientation ou règle relative à l’IA émise par leur autorité de réglementation s’appliquera à l’avocat, que l’avocat adverse soit lié par les mêmes règles.

Suite au développement récent de l’IA générative, certains tribunaux ont déjà publié des notes de pratique exigeant que les avocats divulguent l’utilisation de l’IA dans la préparation des documents déposés auprès du tribunal (voir, par exemple, la note de pratique de la Cour du Banc du Roi du Manitoba au Canada). C’est quelque chose que les parties qui souhaitent voir plus de transparence sur l’utilisation de l’IA dans l’arbitrage pourraient vouloir encourager les tribunaux à le faire.

Conclusion

Les implications et les risques potentiels associés à l’utilisation de l’IA dans l’arbitrage soulèvent la question de savoir comment ces risques doivent être gérés pour préserver l’intégrité du processus arbitral tout en profitant des avantages de l’IA, notamment en termes d’efficacité et de compétitivité. Selon leur nature, certains risques liés à l’IA peuvent devoir être traités de manière ponctuelle. ad hoc tandis que d’autres peuvent nécessiter une solution systémique, soit au niveau institutionnel, soit par le biais d’orientations ou de droit non contraignant.

Veuillez partager votre point de vue sur ces questions et d’autres en participant à l’enquête annuelle sur l’arbitrage international 2023 de BCLP AI in IA – The Rise of Machine Learning. L’enquête est accessible ici.

L’auteur est très reconnaissant à Rhea Patel, stagiaire au BCLP, pour son aide dans cet article.