
Le danger du contenu généré par LLM
Les grands modèles linguistiques (LLM), communément appelés solutions d’IA ou d’IA, s’ils sont utilisés intelligemment, peuvent certainement être utiles. Par exemple, je bénéficie de l’assistance des fonctions appropriées lorsqu’il s’agit de traductions, mais je peux ensuite vérifier les résultats. Mais j’avais aussi clairement mis en garde ici sur le blog et signalé plus fréquemment le problème lorsque les solutions d’IA sont utilisées sans réflexion. Il y a l’article Restez à l’écart : les résultats de recherche Google AI sont un désastre !, dans lequel j’explique pourquoi j’ai désormais décidé de masquer les résultats de recherche Google AI, car ils « induisent » régulièrement les gens en erreur.
On sait également que les avocats, notamment aux États-Unis, aiment que leurs dossiers soient formulés à l’aide de solutions d’IA. Des avocats y ont déjà été sanctionnés par les tribunaux parce que leurs mémoires générés par l’IA contenaient des jugements simplement fabriqués, c’est-à-dire hallucinés. Ce qui est encore plus problématique, c’est que les juges américains s’appuient également sur l’IA et qu’il y a eu des « condamnations injustifiées » basées sur l’IA qui ne peuvent pas être facilement annulées. J’ai écrit dans l’article Hypothèques techniques : la révolution de l’IA doit-elle échouer ? – La partie 2 a souligné ce problème.
Le procès en annulation généré par l’IA a été rejeté
En Autriche, le recours en annulation d’un avocat a été rejeté par la Cour suprême (OGH) car il a clairement été créé par une IA. Un lecteur de blog m’a signalé le cas (merci pour cela), qui a été préparé par l’ORF Steiermark dans cet article.
Il s’agissait d’une affaire pénale dans laquelle une personne avait été condamnée par le tribunal pénal régional de Graz pour, entre autres, trafic de stupéfiants. L’avocat de cette personne souhaitait intenter une action dite en annulation devant la prochaine instance et faire appel.
En examinant le mémoire soumis, les juges de la Cour suprême (OGH) ont remarqué qu’il avait probablement été créé par une IA sans aucun contrôle technique. Le recours en annulation invoquait des décisions de la Cour suprême qui n’avaient jamais existé. Le tribunal a évoqué de nombreuses citations erronées dans le mémoire, un problème déjà bien connu dans la correspondance juridique aux États-Unis.
La Cour suprême a rejeté le recours en annulation et l’a justifié par la déclaration suivante : « Le mémoire supplémentaire, entrecoupé de nombreuses citations erronées (concernant d’une part des résultats de procédure allégués et d’autre part des décisions de la Cour suprême qui n’existent pratiquement pas du tout ou du moins pas sur le sujet spécifié), et qui a apparemment été créé sans aucun contrôle technique (…) par la soi-disant ‘intelligence artificielle’, satisfait à l’exigence d’indiquer clairement et définitivement les motifs de nullité, c’est-à-dire un fait qui constitue une nullité. « Fournir un niveau d’argumentation approprié à la Cour suprême en tant que juridiction la plus élevée (…) ne s’en rapproche pas et évite donc une réponse substantielle. »
Cette réponse était claire : quand je regarde maintenant avec quelle absence de critique les extraits d’IA les plus scandaleux sont souvent acceptés, j’ai une opinion complètement différente. Il y aura encore des perturbations jusqu’à ce que les personnes occupant des postes de décision se réveillent.
Articles similaires :
Folie de l’IA, partie 2 : Amazon envoie une lettre de cessation et d’abstention à Perplexity AI pour les achats via Comet
Folie de l’IA, partie 3 : la « poursuite en nullité » générée par l’IA rejetée par le tribunal
La folie de l’IA partie 4 : Quand les utilisateurs le font eux-mêmes
La folie de l’IA, partie 5 : Deloitte, AI et le rapport bâclé en Australie
Articles similaires :
L’injection d’invite du navigateur Perplexity Comet constitue un risque de sécurité majeur
Microsoft : Quand la traduction de l’IA échoue et que la Deutsche Bahn entre en jeu – Partie 1
Hypothèques techniques : la révolution de l’IA doit-elle échouer ? – Partie 2
Sécurité : vulnérabilités du navigateur AI et du copilote
Vivaldi se positionne contre les agents de l’IA
Restez à l’écart : les résultats de recherche de Google AI sont un désastre !
Catastrophe : fournisseur d’IA en cas d’incident de sécurité localmind.ai – Partie 1
Ce message a été classé sous AI et étiqueté AI, droit. Ajoutez le permalien à vos favoris.

