L’intelligence artificielle face au droit: le bon, la brute, et le néant…

Pour l’occasion, une illustration générée par DALL-E d’Open IA

« A quoi bon faire des études? On va tous être remplacés par ChatGPT ! » Si certains présentent les intelligences artificielles comme un formidable couteau suisse, un cuiseur Moulinex, qui nous permettraient alors de mettre les pieds sous la table, et de se laisser guider. Mais qu’en est-il du droit ? Juges et avocats seront-ils un jour remplacés par des intelligences artificielles, en sorte que le conflit de voisinage opposant Madame Dupont à Monsieur Martin depuis des années sur la taille de la haie de ce dernier, serait alors réglé en l’espace de quelques secondes. Alors que le Conseil Constitutionnel a annoncé jeudi 28 novembre 2024 se doter d’un « schéma d’intelligence artificielle », et que les Editions Lefebvre-Dalloz développent leur propre solution GenIA-L, à destination des professionnels, pourquoi ne pas mettre ces outils à l’épreuve du droit, au lieu du contraire ? Que pourrait-il alors bien se passer : miracle, catastrophe ?

Ainsi, mettons en concours trois intelligences artificielles. D’abord, la très célèbre ChatGPT, devenue tel Caddie ou Sopalin, un nom générique pour parler de cette technologie. Ensuite, la concurrence directe : le moteur Gemini de Google. Enfin, une IA qui fait beaucoup parler d’elle en ce moment : Perplexity, d’une plus modeste startup.

Soumettons d’abord ces intelligences artificielles à un petit cas pratique de droit du travail, avec un problème juridique que tout à chacun pourrait un jour rencontrer :

« Aide moi, je suis embêté ! Je suis caissier depuis deux ans dans un supermarché de Toulouse et mon employeur veut m’envoyer travailler à Montpellier ! En plus, il m’a mis à pied pendant deux semaines il y a quatre mois car j’ai refusé de travailler jusqu’à 20 heures. Que puis-je faire ? »

D’abord, toutes ces intelligences semblent m’avertir de l’apparente complexité de mon cas, et de leur volonté de le traiter sous l’angle du droit :

Alors, chères intelligences artificielles, mon employeur peut-il m’obliger à aller travailler à Montpellier au lieu de Toulouse ?

Et là, bingo. Toutes ces IA me signalent qu’en présence d’une clause de mobilité, mon employeur aurait le droit procéder à ma mutation. Et quant à l’absence de cette clause dans mon contrat de travail ? Et bien ici il n’y a pas photo : victoire de ChatGPT par K.O. Cette intelligence artificielle est la seule à me préciser qu’une telle mutation en l’absence de clause de mobilité serait une modification du contrat de travail. Il s’agit d’une distinction essentielle en droit du travail : la modification du contrat de travail nécessite l’accord de l’employeur comme du salarié, tandis que l’employeur peut imposer unilatéralement un changement des conditions de travail en vertu de son pouvoir de direction. Ensuite, Perplexity se contente d’énoncer : « Votre employeur ne peut pas vous imposer un changement de lieu de travail de Toulouse à Montpellier sans votre accord, sauf si votre contrat de travail prévoit une clause de mobilité ». C’est trop peu, mais bien mieux que l’intelligence de Google, qui n’explore même pas la possibilité de l’absence d’une telle clause :

Mon employeur pouvait-il me mettre à pied pour avoir refusé de faire des heures supplémentaires ?

C’est ici que ça se corse. Gemini oublie totalement ma demande sur les heures supplémentaires et ne me parle que de ma mutation. Zéro planté. Alors, qui va se démarquer sur cette question entre ChatGPT et Perplexity ? Sans grande surprise, ChatGPT se démarque largement car elle est la seule à répondre correctement à ce problème. Perplexity confond les heures complémentaires du contrat à temps partiel avec les heures supplémentaires du contrat à temps complet, en renvoyant sur un lien service-public.fr sur le contrat temps partiel.  Alors, qu’a répondu ChatGPT ? Là encore, la réponse est bien plus complète. Toutefois, s’il expose les raisons pour lesquelles je pourrais refuser de faire ces heures supplémentaires, il ne me propose pas le principe d’impossibilité de refuser de faire des heures supplémentaires, mais seulement les exceptions à ce principe.

Il est temps de tester nos intelligences artificielles sur un sujet plus complexe encore, qui mêle plusieurs matières juridiques :

« Mon ami Michel a des problèmes légaux. Alors qu’il a acheté une bague en diamant 24 carats en occasion chez son collègue Damien, il se rend compte qu’en réalité cette bague est en quartz. Il est allé porter plainte, et après enquête il s’est avéré que le vendeur pensait véritablement qu’il s’agissait de diamant car sa grand-mère, qui lui avait légué, lui avait dit qu’il s’agissait d’une bague en diamant. Aussi, Michel a des soucis car son voisin Robert, accro au jazz, joue son disque préféré en boucle à très haut volume, même la nuit. Peut-il porter plainte ? Comment peut-il obtenir réparation pour sa bague ? Que risque Damien ? Que risque Robert ? »

Il apparaît clairement à la lecture de ce petit cas pratique que Damien, le vendeur de la bague, n’avait pas l’intention d’escroquer Michel. Alors, pourquoi Gemini affirme-t-elle le contraire ?

Chat GPT et Perplexity eux, savent mieux lire : Tous deux invoquent la règle de l’erreur sur les qualités essentielles. Perplexity parle d’un « vice caché, qui permet à l’acheteur d’obtenir l’annulation de la vente ou une réduction du prix », et Chat GPT atteint presque l’exigence juridique que l’on attend, et parle d’« Erreur sur la substance » (dans un exercice très similaire à celui exposé par Pothier) en citant précisément l’article 1132 du Code civil, et ses conséquences : la possibilité d’une action en nullité de la vente. Fait cocasse, Perplexity cite un article du Parisien datant du 2 mars 2006 pour illustrer ce vice caché, relatant la vente d’une pierre présentée comme du diamant alors qu’il s’agissait… d’oxyde de zirconium, « un produit de synthèse destiné à imiter parfaitement le diamant ». En conséquence, ChatGPT et Perplexity sont d’accord : le vendeur n’engage pas sa responsabilité pénale, seulement sa responsabilité civile. Et Gemini ? N’en parlons pas, je vous prie.

Et comment le voisin mélomane peut-il être sommé d’arrêter son tapage?

De manière plus surprenante, tous ces outils conseillent d’abord d’arranger cette affaire à l’amiable avant un contentieux. Si Gemini parle d’une « mise en demeure », ChatGPT et Perplexity détaillent la matérialité de cette mise en demeure: une lettre recommandée avec avis de réception.

Et s’il y a plainte, que risque Robert le jazzman?

Une nouvelle fois, (est-il dès lors nécessaire de préciser?), Gemini est la moins performante des trois intelligences. Aucune mention de la peine encourue par Robert, simplement celle d’une condamnation. Oui, mais devant quelle juridiction? Que risque-t-il? Silence radio. A ce sujet, une fois encore, Chat GPT et Perplexity s’en sortent le mieux: Robert l’accro au saxophone risque une amende de 180€, minorée à 68€ en cas de paiement dans un bref délai. Par ailleurs, seul Chat GPT indique que Robert engage sa responsabilité civile et devra sans doute verser des dommages-intérêts pour le préjudice de nuisance causé à son voisin.

Alors, que penser de ce concours du meilleur juriste entre intelligences artificielles? La première évidence, est que toutes ces intelligences artificielles ne sont pas, justement, intelligentes. Il va sans dire à la lecture de cet exposé que nous déconseillons formellement l’utilisation de ces intelligences artificielles dans le cadre de sérieux problèmes juridiques. Néanmoins, certaines se débrouillent plutôt bien dans la résolution d’exercices simples: pour cela, Chat GPT se hisse en 1ère place. Si Perplexity fait un bon travail de prime à bord, la gestion de ses sources est souvent chaotique, en puisant dans d’obscures blogs d’avocats non mis à jour depuis une dizaine d’année. Toutefois, elle peut offrir un bon complément à Chat GPT, à condition seulement de lui donner des instructions très précises, ce qui ne sera pas forcément le cas d’un non-juriste. Gemini, l’intelligence artificielle de Google, semble bien trop immature et est à déconseiller avec la plus grande vigueur. Cependant, l’utilisation de l’intelligence artificielle à l’intention des professionnels, comme le fait Lefebvre-Dalloz avec GenIA-L, pourrait permettre à ces professionnels une recherche juridique plus rapide, une aide bienvenue dans leur exercice, à condition que ces outils ne fournissent pas la solution, mais les seules données juridiques nécessaires à leur résolution.

Par Yael GOUEFFON

Sources: OpenIA ChatGPT; Gemini by Google; Perplexity IA; Le Parisien

Laisser un commentaire