You are currently viewing Pour les fans ce papier : Les intelligences artificielles contre la justice : l’ex-avocat de Donald Trump présente à un tribunal des preuves inventées par une IA

Pour les fans ce papier : Les intelligences artificielles contre la justice : l’ex-avocat de Donald Trump présente à un tribunal des preuves inventées par une IA

Dans le cadre de notre mission de vous alerter, nous publions ci-dessous un éditorial vu sur internet il y a peu. Le propos est «la justice».

Le titre (Les intelligences artificielles contre la justice : l’ex-avocat de Donald Trump présente à un tribunal des preuves inventées par une IA) est parlant.

Sachez que le journaliste (présenté sous la signature d’anonymat
) est connu et fiable.

Le texte a été édité à une date mentionnée 2024-01-06 02:30:00.

Voici ll’article :

News JVTech Les intelligences artificielles contre la justice : l’ex-avocat de Donald Trump présente à un tribunal des preuves inventées par une IA

Publié le 06/01/2024 à 10:30

Partager :

Lorsqu’on cherche une information, on a de plus en plus tendance à demander directement à une IA. Si bien que l’ex avocat de Donald Trump est allé jusqu’à baser une partie de son argumentation sur des preuves inventées par Google Bard.

Les IA fabulent et cela peut jouer de sacrés tours…

L’intelligence artificielle (IA) est devenue un outil couramment utilisé dans de nombreux domaines, de la planification de vacances à la réponse à des questions complexes. Cependant, ces systèmes ne sont pas infaillibles et peuvent parfois créer des informations inexactes ou trompeuses. Les IA, en particulier les modèles linguistiques, sont conçus pour prédire le mot suivant dans une phrase ou se baser sur des probabilités pour générer des textes qui semblent cohérents en surface. Toutefois, derrière un texte parfaitement rédigé peut se cacher des données incorrectes, issues de suppositions plutôt que de faits avérés.

Cette tendance des IA à « mentir » ou à fabriquer des informations peut poser des problèmes significatifs, notamment lorsqu’elles sont utilisées sans un niveau de vigilance adéquat. Malgré des améliorations constantes visant à rendre les IA aussi précises que possible, il est primordial de toujours vérifier les informations qu’elles fournissent. Cette prudence est essentielle pour éviter la diffusion d’informations erronées, qui peuvent avoir des conséquences importantes, notamment dans des situations où l’exactitude s’avère cruciale, comme dans le cadre juridique ou médical.

C’est justement le piège dans lequel est tombé Michael Cohen, l’ex bras droit de Donald Trump. Il a admis avoir accidentellement transmis de fausses informations à son avocat, qui ont ensuite été incluses dans un dossier judiciaire officiel. Ces informations erronées étaient le résultat de l’utilisation d’une IA – en l’occurrence Bard – dans le but de trouver des preuves susceptibles d’atténuer les sanctions pesant à son encontre. Michael Cohen avait été condamné en 2018 pour diverses infractions.

L’ex-avocat de Trump a produit des preuves erronées lors d’un procès en employant une IA

Les intelligences artificielles contre la justice : l'ex-avocat de Donald Trump présente à un tribunal des preuves inventées par une IA

D’après le New York Times, Michael Cohen justifie son erreur en expliquant qu’il croyait alors avoir affaire à un moteur de recherche super intelligent et non à une intelligence artificielle. Il prétend ainsi ignorer les évolutions technologiques dans ce domaine et n’avoir fait que transmettre ses recherches à son avocat. Ce dernier s’est effectivement passé de vérifier si les trois décisions de justice fournies par Michael Cohen existaient bien.

Pas sûr pour autant que le juge fédéral fasse preuve d’indulgence pour autant, que ce soit envers Michael Cohen ou son avocat.

Toutefois, il n’est pas le premier – ni sûrement le dernier – à commettre ce genre d’erreurs. En juin dernier, Steven Schwartz, un avocat également, avait fait entendre parler de lui après avoir soumis des documents traitant de précédents juridiques n’existant tout simplement pas.

Si cette affaire peut faire sourire, ces incidents soulignent à quel point il est important de se montrer vigilant lorsqu’on emploie une IA. Pour s’assurer de la fiabilité d’une réponse, mieux vaut croiser plusieurs sources, consulter des experts humains, et rester sceptique face à des résultats qui ne sont pas étayés par des preuves tangibles.

Au fur et à mesure que l’IA continue de se développer, des mécanismes de contrôle plus robustes devraient être mis en place pour prévenir la diffusion d’informations fausses. Cela pourrait inclure des formations pour les utilisateurs sur la manière d’interpréter correctement les résultats de l’IA, ainsi que des améliorations dans la conception des IA pour qu’elles soient plus transparentes et qu’elles indiquent clairement lorsque les informations produites sont dérivées de suppositions plutôt que de données vérifiées.

Ouvrages sur le même propos:

Condamnés à vivre : justice, meurtriers et victimes,Le livre .

Justice restaurative,Clicker Ici .

Une drôle de justice,(la couverture) . Disponible à l’achat sur les plateformes Amazon, Fnac, Cultura ….