L'IA générative hallucine à nouveau, cette fois dans les dossiers déposés devant la Cour fédérale

L'IA générative hallucine à nouveau, cette fois dans les dossiers déposés devant la Cour fédérale

Ce qui s'est passé: Donc, ça commence à arriver. Les tribunaux du monde entier reçoivent des avocats des documents juridiques remplis de… enfin, de mensonges inventés par l’IA.

  • Nous parlons d’affaires judiciaires totalement fabriquées, de fausses citations et de citations qui n’existent tout simplement pas.
  • Un data scientist et avocat français nommé Damien Charlotin a en fait suivi cette situation. Il a trouvé au moins 490 dossiers judiciaires au cours des six derniers mois seulement qui contenaient ces « hallucinations » de l’IA.
  • La plupart d’entre eux viennent des États-Unis, où les juges ont interpellé (et même infligé des amendes) aux avocats pour avoir livré ces absurdités générées par l’IA.
  • Dans une affaire importante, un avocat de MyPillow a en fait soumis un mémoire contenant près de 30 fausses citations. Ouais.

Pourquoi c'est une grosse affaire : Ce n'est pas seulement un problème d'avocat ; c'est un énorme dilemme pour tout le monde.

  • Nous commençons tous à utiliser ces outils d'IA pour tout : rédiger des rapports, résumer des réunions, faire des recherches.
  • Le problème est que l’IA est incroyablement douée pour paraître confiante, même si elle est complètement fausse. Cela vous donne une réponse qui semble plausible mais qui est tout simplement… fausse.
  • Comme l’a dit Charlotin : « L’IA peut être une aubaine, mais il y a aussi des pièges. » Même les personnes intelligentes et expérimentées se laissent tromper, ce qui représente un risque énorme pour toute entreprise qui s'appuie sur le travail généré par l'IA sans le vérifier.

Pourquoi devrais-je m'en soucier : Écoutez, que vous soyez enseignant, avocat ou manager, l'IA fait désormais partie du travail. Vous ne pouvez pas l'éviter. Mais comme le préviennent les experts, vous ne pouvez absolument pas utiliser ces outils aveuglément.

  • Maria Flynn, PDG de Jobs for the Future, citée dans le rapport de l'AP, l'a parfaitement exprimé : traitez l'IA comme un « assistant, pas un substitut ».
  • Vous devez toujours être l’humain au courant. Vous devez vérifier les faits, vous assurer que vous n'enfreignez pas les lois sur la confidentialité et, s'il vous plaît, ne téléchargez pas les données secrètes de votre entreprise.
  • Comme l’a dit un autre avocat : « Les gens supposent que c’est vrai parce que cela semble juste – mais cette hypothèse peut vous coûter cher. » Cela peut vous coûter votre réputation, votre emploi ou même vous causer des ennuis juridiques.

Quelle est la prochaine étape : En fin de compte, nous devons tous devenir plus intelligents dans la manière dont nous utilisons l’IA. Rapide.

  • Les entreprises sont invitées à former leurs équipes à ce sujet : comment vérifier son fonctionnement, comment l'utiliser en toute sécurité et ce qu'il ne faut pas faire.
  • Cela devient une compétence professionnelle de base. Comme le dit Flynn : « Le plus gros piège est de ne pas apprendre du tout à utiliser l’IA. » L’avenir ne consiste pas à ce que l’IA remplace les humains ; il s'agit de personnes qui savent comment utiliser l'IA de manière responsable.
Rate this post
Total
0
Shares
Previous Post
Cet accord Pixel 10 Pro XL rend le produit phare de Google plus abordable

Cet accord Pixel 10 Pro XL rend le produit phare de Google plus abordable

Next Post
One UI 8: Tout ce que vous devez savoir sur le nouveau Samsung Galaxy Softare

Votre téléphone Samsung vient de recevoir son propre assistant personnel pour les notifications

Related Posts