
Comment choisir la bonne IA juridique ? Cette question nous est fréquemment posée. On a donc essayé de décortiquer les principales différences entre ChatGPT, l'IA généraliste développée par OpenAI, et Assistant, l'IA spécialisée créée par Predictice. Vous aurez les clés pour faire votre choix !
À mesure que l'IA générative se développe, ChatGPT s'affirme comme une solution incontournable pour de nombreux professionnels cherchant à optimiser leur productivité. Son succès repose notamment sur sa capacité à générer des réponses rapides et pertinentes dans divers domaines.
Cependant, dans des secteurs où la fiabilité de l'information est primordiale, comme le droit, l’outil développé par OpenAI peut présenter certaines limites. Plusieurs affaires [1] impliquant des avocats nord-américains ayant invoqué des jurisprudences fictives générées par ChatGPT sans les vérifier témoignent des risques liés à une utilisation non critique de cet outil.
C’est dans ce contexte qu’Assistant, l'IA générative créée par Predictice, se distingue comme une alternative fiable et performante. Conçu spécifiquement pour les professionnels du droit, cet outil met l’accent sur la rigueur, la précision et la vérification des sources, répondant ainsi aux exigences élevées du secteur juridique.
Cet article propose une comparaison entre ChatGPT et Assistant autour de trois axes clés : la fiabilité des réponses, la facilité de vérification des informations et la disponibilité de diverses fonctionnalités spécifiquement conçues pour optimiser le travail des professionnels du droit.
Assistant, le choix de la fiabilité face à ChatGPT
Un risque d’hallucinations réduit par le modèle RAG utilisé par Assistant
Les hallucinations en intelligence artificielle désignent la génération d'informations erronées, fictives ou non fondées, qui ne reposent sur aucune base factuelle réelle mais peuvent sembler crédibles au premier abord.
Le modèle de ChatGPT, qui repose sur des prédictions statistiques basées sur un vaste ensemble de données d'entraînement, présente un risque important de donner lieu à ce type d'hallucinations. ChatGPT génère en effet ses réponses en calculant les probabilités des mots et phrases les plus susceptibles de suivre un contexte donné, mais n’est pas en mesure d’évaluer la pertinence de sa réponse. Par conséquent, ChatGPT peut produire des réponses qui semblent plausibles, mais qui se révèlent incorrectes, imprécises, ou complètement inventées.
L’exemple ci-dessous, dans lequel ChatGPT est interrogé sur un article du code civil inexistant, illustre ce type d’hallucination.
Source : recherche effectuée le 8 avril 2025 sur ChatGPT (version 4o)
Interrogé sur l’article 229-5 du code civil, qui n’existe pas en droit positif (l’article 229-4 du code civil étant directement suivi de l’article 230), ChatGPT a ainsi construit une réponse qui parait probable, dans la mesure où les articles 229-4 et suivants portent sur le divorce par consentement mutuel, mais qui est parfaitement fausse puisque l’article est inexistant.
À l’inverse, la méthode RAG (Retrieval-Augmented Generation), utilisée par Assistant pour formuler ses réponses, réduit le risque d’hallucinations en procédant en deux temps pour répondre aux requêtes de ses utilisateurs :
- La récupération de données : l'IA cherche et récupère les informations pertinentes dans une base de données ;
- La génération de texte : l'IA utilise ces données récupérées pour générer une réponse rédigée.
Grâce à cette approche, l'IA consulte des sources réelles avant de produire sa réponse, ce qui renforce la fiabilité des résultats.
Ainsi, interrogé sur le même article inexistant, Assistant, plutôt que de générer une réponse probable, va consulter sa base de données, et en l’absence d’informations, en informera son utilisateur qui pourra en tirer les conséquences sur l’inexistence de cet article.
Source : recherche effectuée le 8 avril 2025 sur Assistant
Le recours au modèle RAG par Assistant permet ainsi de restreindre au maximum les phénomènes d’hallucination, contrairement à ChatGPT.
Des sources fiables, exhaustives et actualisées garantissant des réponses pertinentes sur Assistant
Outre le recours au modèle RAG, la pertinence des réponses générées par Assistant tient aussi à la qualité des sources utilisées.
Conçu pour répondre aux besoins des professionnels du droit, Assistant s’appuie en effet sur une base de données constituée de documents exclusivement juridiques, spécifiquement sélectionnés par des experts en droit de chez Predictice, et actualisés quotidiennement, garantissant leur fiabilité et leur pertinence. Cette base inclut plus de 50 millions de documents (données au 1ᵉʳ avril 2025), dont près de huit millions de décisions de justice, mais aussi des textes législatifs, des conventions collectives, fiscales et de sécurité sociale, ainsi que plusieurs centaines de sources d’actualité juridique.
Pour optimiser la précision de ses résultats, Predictice utilise en outre une méthode avancée appelée semantic chunking. Cette technique consiste à découper les documents en segments sémantiquement cohérents – par exemple, en séparant les faits, les moyens et le dispositif d’une décision de justice – afin d'améliorer la compréhension du contexte et la précision des recherches.
La fiabilité, l’exhaustivité, et la fraicheur des sources de la base de données, et leur analyse via la technique du semantic chunking permettent à Assistant de trouver les informations les plus pertinentes pour répondre utilement et précisément aux requêtes de ses utilisateurs.
Ainsi, lorsqu’on interroge Assistant sur une question tranchée récemment par la Cour de cassation, l’outil va naturellement récupérer dans ses sources cet arrêt de principe récent, ainsi que ses éventuels commentaires, et construire sa réponse autour de ces éléments.
À titre d’illustration, interrogé sur la possibilité de condamner des dirigeants pour harcèlement moral en raison d’une politique générale mise en œuvre dans l’entreprise, Assistant cite spontanément et en premier lieu l’arrêt récent de la Cour de cassation ayant expressément reconnu cette possibilité et consacrant la notion de « harcèlement moral institutionnel », ce qui rend la réponse générée parfaitement pertinente pour répondre à la requête.
Source : recherche effectuée le 8 avril 2025 sur Assistant
À l’inverse, ChatGPT, qui est un bon outil généraliste mais n’est pas conçu pour répondre spécifiquement à des questions de droit, construit sa réponse sans consulter de bases de données juridiques fiables et actualisées, ce qui ne lui permet pas de faire référence aux informations les plus pertinentes pour répondre aux requêtes de ses utilisateurs.
Ainsi, interrogé sur cette même question, ChatGPT élabore sa réponse sans mentionner cet arrêt de principe. Il se réfère à une unique décision, certes réelle, mais peu pertinente, en raison de son ancienneté et de son absence de lien direct avec la notion de harcèlement moral institutionnel, contrairement à l’interprétation erronée qu’en fait ChatGPT.
Source : recherche effectuée le 8 avril 2025 sur ChatGPT (version 4o)
Dans cette illustration, si la réponse n’est pas fondamentalement fausse, en l’absence de référence à l’arrêt de principe récent statuant sur cette question, elle est totalement dénuée de pertinence et d’utilité pour les professionnels du droit.
Assistant, grâce à la méthode du RAG et à la qualité de ses sources, se distingue ainsi pour la fiabilité accrue de ses réponses par rapport à celles générées par ChatGPT. Néanmoins, le risque d’erreur ne pouvant être totalement exclu lorsqu’on utilise l’IA, une vérification par l'Homme des informations apportées s’impose.
Une vérification de l’information garantie sur Assistant, souvent impossible sur ChatGPT
Le risque d’erreur est inhérent à toute IA générative, dont l’exactitude des réponses ne peut jamais être totalement assurée. Il est donc essentiel que les utilisateurs adoptent une approche prudente et procèdent à une vérification systématique des informations fournies par l’IA. Cette exigence de prudence est d’autant plus importante pour les professionnels du droit, dont la responsabilité peut être engagée en cas de diffusion d’informations inexactes.
Sur ce point, Assistant présente un avantage déterminant : il permet dans tous les cas de vérifier l’origine de ses réponses, contrairement à ChatGPT.
Des sources référencées et précisément citées sur Assistant
Assistant facilite la vérification des informations qu’il apporte en s’appuyant sur une approche transparente et documentée :
- Il référence systématiquement les sources les plus pertinentes ayant permis de générer sa réponse. Ces sources proviennent soit de la base de données de Predictice, soit de la bibliothèque personnelle que les utilisateurs peuvent alimenter avec leur propre documentation ;
- Il fournit des liens directs vers les contenus originaux, permettant aux utilisateurs de vérifier les sources en un clic ;
- Il affiche des extraits issus des sources, consultables sans quitter la page. Ces extraits, grâce à la technologie d'Anthropic utilisée, ne sont pas générés par un modèle de langage, ce qui élimine le risque d’hallucination les concernant.
Cette démarche rend la vérification simple, rapide et fiable, et permet aux juristes et avocats d’identifier clairement l’origine de chaque information.
Des sources parfois inexactes ou difficilement vérifiables sur ChatGPT
À l’inverse d’Assistant, ChatGPT ne cite pas systématiquement ses sources, et lorsqu’il le fait, celles-ci peuvent s’avérer peu fiables ou inexactes.
À titre d’illustration, après avoir interrogé ChatGPT sur les conditions de validité d’une clause de non-concurrence dans un contrat de travail, et en l’absence de toute source spontanément citée, une demande est faite pour que l’IA mentionne les sources ayant permis de générer sa réponse. ChatGPT affiche alors la réponse suivante :
Source : recherche effectuée le 4 avril 2025 sur ChatGPT (version 4o mini)
L’analyse de cette série de sources visées révèle qu’elles sont alternativement :
- Imprécises : certaines références se limitent à des termes génériques tels que « la jurisprudence » ou « Légifrance », ce qui rend impossible toute vérification concrète ;
- Erronées : les articles du Code du travail mentionnés ne traitent pas spécifiquement des clauses de non-concurrence, contrairement à ce qu’indique l’IA ;
- Issues d’hallucinations : ChatGPT cite notamment un arrêt inexistant de la Cour de cassation ainsi que deux ouvrages de droit du travail totalement fictifs.
Ainsi, l’écart entre les deux outils en matière de traçabilité des sources est net : Assistant garantit une vérification rigoureuse et accessible, là où ChatGPT reste incertain et parfois trompeur sur ce point crucial.
Assistant : des fonctionnalités pensées pour le secteur juridique
Outre ses atouts en matière de fiabilité et de transparence des sources, l’outil développé par Predictice propose plusieurs fonctionnalités spécifiquement conçues pour répondre aux besoins des professionnels du droit :
- La fonctionnalité "Scan", qui permet d’identifier automatiquement toutes les références juridiques contenues dans un document et de les transformer en liens directs vers leur contenu, facilitant ainsi l’accès rapide aux sources citées. Cette fonctionnalité permet notamment aux avocats d’optimiser l’analyse de conclusions adverses, en leur offrant un accès immédiat aux références juridiques citées par leurs contradicteurs.
- Une extension pour Word, intégrant Assistant directement dans l’environnement de traitement de texte. Cette intégration permet de bénéficier de l’aide d’Assistant en matière de rédaction juridique (notamment de clauses), tout en s’adaptant au contexte du document pour offrir des propositions précises et pertinentes, et s’avère un outil particulièrement efficace pour les professionnels du droit.
Ces fonctionnalités, absentes de ChatGPT, illustrent la supériorité d’Assistant en tant qu’outil dédié aux professionnels du droit, en alliant performance, contextualisation et praticité.
Si ChatGPT est un outil performant et efficace pour de nombreux usages, ses failles en matière de fiabilité et de vérification des sources se révèlent difficilement compatibles avec les exigences des professionnels du droit, contrairement à Assistant, qui peut répondre à leurs besoins de performance et de fiabilité.
[1] https://www.lefigaro.fr/sciences/a-cause-de-chatgpt-un-avocat-americain-cite-des-arrets-qui-n-ont-jamais-existe-20230529 ; Sanction pour une avocate ayant cité des cas fictifs générés par ChatGPT - LE MONDE DU DROIT : le magazine des professions juridiques

Cet article a été rédigé par l'équipe de rédaction du Blog Predictice.