Monthly Archives: mars 2025

LSU-E : Une approche générale pour améliorer la prise de décision, tout en réduisant le bruit et les biais

Traduction de l’article en anglais Linear Sequential Unmasking–Expanded (LSU-E): A general approach for improving decision making as well as minimizing noise and biais, Forensic Science International: Synergy, Volume 3, 2021, 100161, avec l’accord de l’auteur Itiel DROR (contact : [email protected])

Toute prise de décision — et en particulier celle des experts — implique l’examen, l’évaluation et l’intégration d’informations. La recherche a montré que l’ordre dans lequel l’information est présentée joue un rôle crucial dans le processus décisionnel et dans leurs résultats. En effet, une même donnée, présentée dans un ordre différent, peut mener à des décisions divergentes [1,2]. Puisque l’information doit nécessairement être considérée selon une certaine séquence, optimiser cet ordre devient essentiel pour optimiser la qualité des décisions. Adopter une séquence ou une autre est inévitable — un ordre de traitement est toujours utilisé — et, dès lors que la séquence adoptée influence le raisonnement, il est crucial de réfléchir à la manière la plus pertinente d’organiser les informations.

Dans le domaine des sciences forensiques, les approches existantes visant à optimiser l’ordre de traitement de l’information (comme le dévoilement séquentiel [3] ou le dévoilement linéaire et séquentiel — LSU [4]) présentent des limitations, tant en raison de leur champ d’application restreint à certains types de décisions que de leur objectif exclusif de réduction des biais, sans viser une optimisation plus globale de la prise de décision en contexte forensique. Nous introduisons ici le Dévoilement linéaire et séquentiel — version étendue (LSU-E), une approche applicable à toutes les décisions forensiques, et non plus limitée à un type particulier. En outre, le LSU-E ne se contente pas de minimiser les biais : il permet également de réduire le bruit et d’améliorer la qualité globale des décisions forensiques.

Le fondement des biais cognitifs

Tout processus décisionnel repose sur le cerveau humain et sur les mécanismes cognitifs. L’un des facteurs essentiels dans ce processus concerne l’ordre dans lequel l’information est reçue. Il est en effet bien établi que les individus ont tendance à mieux retenir — et à être plus fortement influencés par — les premières informations d’une séquence, en comparaison avec celles qui suivent — un phénomène connu sous le nom d’effet de primauté (primacy effect) [5,6]). Par exemple, lorsqu’on demande à une personne de mémoriser une liste de mots, elle retiendra plus facilement ceux figurant en début de liste que ceux placés au milieu (voir également l’effet de récence [7]).

Fait crucial, les premières informations d’une séquence ne sont pas seulement mieux mémorisées : elles influencent également le traitement des informations suivantes de multiples façons (voir Fig. 1). Ces premières données peuvent générer des premières impressions puissantes, difficiles à remettre en question [8] ; elles suscitent des hypothèses qui orientent l’attention sélective, déterminant ainsi quelles informations seront prises en compte ou négligées [[9], [10], [11], [12]] ; et elles peuvent déclencher une série d’effets décisionnels bien documentés tels que : biais de confirmation, escalade d’engagement, inertie décisionnelle, vision tunnel, persistance des croyances, état d’esprit figé (mind set) et effet d’ancrage [[13], [14], [15], [16], [17], [18], [19]].

Ces phénomènes ne se limitent pas aux décisions en science forensique : ils s’appliquent également aux experts médicaux, aux enquêteurs de police, aux analystes financiers, aux services de renseignement militaire — et plus largement à toute personne impliquée dans une prise de décision.

Fig 1 : Illustration de l’effet d’ordre. Prenons une séquence de trois symboles : A–B–14.
Si cette séquence est lue de gauche à droite, le symbole central sera naturellement interprété comme un B. En revanche, si elle est lue de droite à gauche, ce même symbole sera perçu comme un 13. Cela illustre à quel point l’interprétation d’une information peut dépendre des éléments qui la précèdent : l’ordre de présentation influence la perception.

De nombreuses études ont démontré à plusieurs reprises que présenter une même information dans un ordre différent peut conduire les décideurs à tirer des conclusions différentes. De tels effets ont été observés dans une grande variété de domaines, allant de la dégustation alimentaire [20] à la prise de décision par les jurés [21,22], en passant par la réfutation des discours conspirationnistes (notamment les théories du complot anti-vaccins [23]), démontrant ainsi que l’ordre dans lequel l’information est présentée joue un rôle fondamental.

Par ailleurs, ces effets d’ordre ont été spécifiquement mis en évidence dans le domaine de la science forensique. Par exemple, Klales et Lesciotto [24], ainsi que Davidson, Rando et Nakhaeizadeh [25], ont montré que l’ordre dans lequel les os d’un squelette sont analysés (par exemple : crâne avant le bassin) peut influencer l’estimation du sexe biologique.

Contexte des biais

Toute décision est susceptible d’être influencée par des biais cognitifs — c’est-à-dire à des déformations systématiques du jugement [26]. Ce type de biais ne doit pas être confondu avec un biais discriminatoire intentionnel. Le terme « biais », tel qu’il est employé ici, fait référence aux biais cognitifs qui affectent chacun d’entre nous, le plus souvent de manière involontaire et inconsciente [26,27].

Bien que de nombreux experts croient à tort être immunisés contre les biais cognitifs [28], ils y sont, à certains égards, encore plus sensibles que les non-experts [[27], [29], [30]]. En effet, l’impact des biais cognitifs sur la prise de décision a été documenté dans de nombreux domaines d’expertise, allant des enquêteurs judiciaires et des magistrats, aux experts en assurance, aux évaluateurs psychologiques, aux inspecteurs en sécurité et aux médecins [26,[31], [32], [33], [34], [35], [36]] — ainsi que, de manière spécifique, en science forensique [30].

Aucun champ de la science forensique — ni d’ailleurs aucun autre domaine — n’est à l’abri des biais.

Les biais en science forensique

L’existence et l’influence des biais cognitifs en sciences forensiques sont aujourd’hui largement reconnues (on parle notamment de « biais de confirmation en science forensique » [[27], [37], [38]]). Aux États-Unis, par exemple, la National Academy of Sciences [39], le President’s Council of Advisors on Science and Technology [40], ainsi que le National Commission on Forensic Science [41] ont tous reconnu les biais cognitifs comme un enjeu réel et important dans le processus décisionnel en science forensique. Des constats similaires ont été établis dans d’autres pays à travers le monde — par exemple, au Royaume-Uni, le Forensic Science Regulator a émis des recommandations visant à éviter les biais dans les travaux forensiques [42], tout comme en Australie [43].

Par ailleurs, les effets des biais ont été observés et reproduits dans de nombreuses disciplines forensiques (par exemple : dactyloscopie, pathologie médico-légale, génétique, balistique, forensique numérique, expertise d’écriture, psychologie légale, anthropologie forensique, et investigation de la scène de crime, entre autres [44]), y compris chez des experts en exercice dans ces domaines [[30], [45], [46], [47]]. En résumé, aucun champ de la science forensique — ni d’ailleurs aucun autre domaine — n’est à l’abri des biais.

Réduction des biais en sciences forensiques

Bien que la nécessité de lutter contre les biais en science forensique soit aujourd’hui largement reconnue, y parvenir concrètement dans la pratique constitue un tout autre défi. Dans le cadre des contraintes pragmatiques et opérationnelles des scènes de crime et des laboratoires de police scientifique, la réduction des biais ne va pas toujours de soi [48]. Étant donné que la simple prise de conscience et la volonté individuelle sont insuffisantes pour contrer les biais [27], il est indispensable de développer des contre-mesures à la fois efficaces et applicables sur le terrain.

La méthode du dévoilement linéaire et séquentiel de l’information (Linear Sequential Unmasking, LSU [4]) vise à réduire les biais en régulant le flux et l’ordre dans lequel l’information est révélée, de manière à ce que les décisions forensiques reposent uniquement sur les éléments de preuve et les informations pertinentes et objectives. Concrètement, la LSU exige que les décisions comparatives forensiques commencent par l’examen et la documentation des traces issues de la scène de crime (l’élément « de question » ou matériel inconnu), de façon indépendante, avant toute exposition au matériel de référence (le matériel connu, provenant d’un suspect ou d’un object). L’objectif est de minimiser l’effet potentiellement biaisant de l’exposition au matériel de référence sur l’interprétation des traces issues de la scène de crime (voir Niveau 2, Fig. 2). La LSU garantit ainsi que ce sont les éléments de preuve eux-mêmes — et non le profil du suspect ou caractéristiques d’un objet — qui orientent la décision forensique.

Cela est d’autant plus crucial que les éléments issus de la scène de crime sont particulièrement vulnérables aux biais, du fait de leur qualité et quantité d’information souvent limitées, ce qui les rend plus ambigus et susceptibles d’interprétations variables — contrairement aux matériels de référence, généralement plus complets. En procédant d’abord à l’examen du matériel indiciaire provenant de la scène, la LSU réduit le risque de raisonnement circulaire dans le processus décisionnel comparatif, en évitant que l’on ne raisonne « à rebours » depuis l’objet ou le suspect vers la trace.

Fig. 2. Sources de biais cognitifs pouvant survenir lors de l’échantillonnage, des observations, des stratégies d’analyse, des tests et/ou des conclusions, et qui affectent même les experts. Ces sources de biais sont organisées selon une taxonomie en trois catégories : les sources propres au cas (Catégorie A), les sources propres à l’individu (Catégorie B), et les sources liées à la nature humaine (Catégorie C).

Limites de la méthode LSU

Par nature, la méthode LSU est limitée aux décisions comparatives, dans lesquelles des éléments provenant de la scène de crime (comme des traces papillaires ou des écrits manuscrits) sont comparés à un élément de référence ou à un suspect. Cette approche a d’abord été développée pour réduire les biais spécifiquement dans l’interprétation forensique de l’ADN (dévoilement séquentiel [3]). Dror et al. [4] ont ensuite élargi cette méthode à d’autres domaines forensiques comparatifs (empreintes digitales, armes à feu, écriture manuscrite, etc.) et ont proposé une approche équilibrée permettant la révision des jugements initiaux, mais dans des limites bien définies.

La méthode LSU présente donc deux limites principales : premièrement, elle ne s’applique qu’à un ensemble restreint de décisions comparatives (telles que la comparaison de profils ADN ou d’empreintes digitales). Deuxièmement, sa fonction se limite à la réduction des biais, sans agir sur la variabilité aléatoire (le « bruit ») ni améliorer plus globalement la qualité des décisions.

Dans cet article, nous introduisons une version étendue : le dévoilement linéaire et séquentiel — version étendue (LSU-E). Le LSU-E constitue une approche applicable à toutes les décisions forensiques, et non plus seulement aux décisions comparatives. De plus, le LSU-E va au-delà de la simple réduction des biais : il permet également de diminuer le bruit et d’améliorer la qualité des décisions de manière générale, en optimisant cognitivement la séquence d’accès à l’information, de façon à maximiser son utilité et, ce faisant, à produire des décisions plus fiables et de meilleure qualité.

Dévoilement linéaire et séquentiel – version étendue (LSU-E)

Au-delà du domaine forensique comparatif

La méthode LSU, dans sa forme actuelle, n’est applicable qu’aux domaines forensiques reposant sur la comparaison d’éléments de preuve avec des éléments de référence spécifiques (par exemple, le profil ADN ou les empreintes digitales d’un suspect — voir Niveau 2 dans la Fig. 2). Comme indiqué précédemment, le problème réside dans le fait que ces éléments de référence peuvent influencer la perception et l’interprétation des traces, au point que l’analyse d’un même élément de preuve peut varier selon la présence et la nature de l’élément de référence — et la méthode LSU vise précisément à réduire ce biais en imposant un raisonnement linéaire plutôt que circulaire.

Il risque de formuler des hypothèses et attentes a priori, ce qui peut orienter de manière biaisée sa perception, son interprétation de la scène et, en conséquence, les traces qu’il choisira ou non de collecter.

Cependant, de nombreux jugements forensiques ne reposent pas sur la comparaison entre deux stimuli. Par exemple, la criminalistique numérique, la pathologie médico-légale et l’investigation de la scène de crime nécessitent des prises de décision qui ne s’appuient pas sur la confrontation d’une trace à un suspect identifié. Même si ces domaines ne mettent pas en jeu une « cible » ou un stimulus de comparaison, ils sont néanmoins exposés à des informations contextuelles biaisantes susceptibles d’induire des attentes problématiques et des processus cognitifs descendants — et la version étendue LSU-E offre un moyen de minimiser ces effets.

Prenons, par exemple, le cas de la police scientifique. Les techniciens de scène de crime reçoivent souvent des informations sur la scène avant même d’y accéder physiquement, telles que la cause présumée du décès (homicide, suicide, accident) ou des hypothèses d’enquête (par exemple, le témoignage d’un témoin affirmant que le cambrioleur est entré par la fenêtre arrière, etc.). Lorsqu’un enquêteur reçoit ces éléments en amont de son observation directe de la scène, il risque de formuler des hypothèses et attentes a priori, ce qui peut orienter de manière biaisée sa perception, son interprétation de la scène et, en conséquence, les traces qu’il choisira ou non de collecter.

La même problématique s’applique à d’autres domaines non comparatifs comme la pathologie médico-légale, l’investigation d’incendies ou la criminalistique numérique. Par exemple, informer un expert en incendies avant même qu’il n’examine la scène qu’un bien immobilier était sur le marché depuis deux ans sans trouver d’acquéreur, ou que le propriétaire l’avait récemment assuré, peut orienter ses analyses et ses conclusions.

La lutte contre les biais dans ces domaines est d’autant plus complexe que les experts ont besoin d’un certain niveau d’information contextuelle pour exercer leur travail (contrairement, par exemple, aux experts en empreintes digitales, en balistique ou en ADN, qui peuvent effectuer leurs comparaisons avec un minimum de contexte).

L’objectif du LSU-E n’est pas de priver les experts des informations nécessaires, mais de réduire les biais en fournissant ces informations dans un ordre optimal. Le principe est simple : commencer toujours par les données ou éléments de preuve eux-mêmes — et uniquement ceux-ci — avant de prendre en compte tout autre élément contextuel, qu’il s’agisse d’informations explicites ou implicites, d’éléments de référence ou de toute autre donnée contextuelle ou méta-information.

Dans le cadre d’une investigation sur une scène de crime, par exemple, aucune information contextuelle ne devrait être communiquée à l’enquêteur ou au policier scientifique avant qu’il n’ait observé la scène de crime par lui-même et consigné ses premières impressions, fondées exclusivement sur ce qu’il voit sur les lieux. Ce n’est qu’ensuite qu’il pourra recevoir des informations contextuelles pertinentes avant de commencer la collecte d’indices. L’objectif est clair : dans la mesure du possible, les experts doivent, au moins dans un premier temps, se forger une opinion à partir des données brutes, avant d’être exposés à toute information susceptible d’influencer leur jugement.

Naturellement, le LSU-E ne se limite pas aux sciences forensiques et peut s’appliquer à de nombreux domaines d’expertise. Par exemple, en médecine, un médecin devrait examiner un patient avant d’établir un diagnostic (ou même de formuler une hypothèse) à partir d’informations contextuelles. Le protocole SBAR (Situation, Background, Assessment and Recommendation [49,50]) ne devrait être communiqué qu’après l’observation du patient. De même, un inspecteur de sécurité au travail ne devrait pas être informé des antécédents de non-conformité d’une entreprise avant d’avoir évalué le site de manière indépendante [32].

Au-delà de la réduction des biais

Au-delà de la question des biais, les décisions des experts gagnent en robustesse lorsqu’elles sont moins sujettes au bruit (variabilité aléatoire) et fondées sur les « bonnes » informations — c’est-à-dire les données les plus appropriées, fiables, pertinentes et diagnostiques. Le LSU-E propose des critères (décrits plus bas) permettant d’identifier et de hiérarchiser ces informations.

Plutôt que d’exposer les experts à l’information de manière aléatoire ou accidentelle, le LSU-E vise à optimiser la séquence d’accès à l’information, afin de neutraliser les effets cognitifs et psychologiques connus — tels que l’effet de primauté, l’attention sélective ou encore le biais de confirmation — et ainsi permettre aux experts de formuler de meilleures décisions.

Il est également essentiel que, au fur et à mesure de leur progression dans la séquence informationnelle, les experts documentent les informations auxquelles ils accèdent ainsi que toute évolution dans leur opinion. Cette exigence vise à garantir la transparence du processus décisionnel : elle permet de retracer précisément quelles informations ont été utilisées et comment elles ont influencé le jugement [51,52].

Critères de hiérarchisation de l’information dans le LSU-E

L’optimisation de l’ordre d’accès à l’information permet non seulement de réduire les biais, mais aussi de limiter le bruit et d’améliorer, de manière plus générale, la qualité des décisions. La question est alors la suivante : comment déterminer quelles informations doivent être fournies à l’expert, et dans quel ordre ? Le LSU-E propose trois critères pour établir une séquence optimale d’exposition à l’information pertinente : le pouvoir de biais, l’objectivité, et la pertinence — détaillés ci-dessous.

1. Pouvoir de biais.
Le pouvoir de biais d’une information pertinente peut varier considérablement. Certaines données peuvent avoir un fort potentiel de biais, tandis que d’autres n’en présentent pratiquement aucun. Par exemple, la technique utilisée pour relever et révéler une trace digitale présente un risque de biais minime (voire nul), alors que la présence d’un médicament à proximité d’un corps peut influencer l’interprétation quant à la cause du décès. Il est donc recommandé de présenter en premier les informations pertinentes les moins biaisantes, puis, dans un second temps, celles qui présentent un pouvoir de biais plus important.

2. Objectivité.
Les informations pertinentes diffèrent également quant à leur degré d’objectivité. Par exemple, le témoignage d’un témoin oculaire est généralement moins objectif qu’un enregistrement vidéo du même événement — mais même une vidéo peut varier en objectivité selon sa qualité, son angle, sa complétude, etc. Il est donc recommandé de faire précéder les informations plus objectives des informations moins objectives dans la séquence d’exposition.

3. Pertinence.
Certaines informations pertinentes sont centrales pour l’analyse et sous-tendent directement la décision à prendre, alors que d’autres sont plus périphériques ou accessoires. Par exemple, pour déterminer la cause du décès, la présence d’un médicament à côté du corps sera généralement plus pertinente (par exemple pour orienter les analyses toxicologiques) que des antécédents de dépression. Il est donc recommandé de présenter d’abord les informations les plus pertinentes, avant les informations secondaires. Bien entendu, toute information non pertinente à la décision (comme les antécédents judiciaires d’un suspect, si non directement liés) devrait être exclue de la séquence.

Ces critères doivent être considérés comme des principes directeurs, pour plusieurs raisons :

A. Les critères proposés s’inscrivent en réalité sur un continuum, et non dans des catégories binaires simples [45,48,53]. On peut même observer des variations au sein d’une même catégorie d’information : par exemple, une vidéo de meilleure qualité pourra être considérée avant une vidéo de qualité inférieure, ou la déclaration d’un témoin sobre pourra être considérée avant celle d’un témoin en état d’ébriété.

B. Ces trois critères ne sont pas indépendants ; ils interagissent entre eux. Par exemple, l’objectivité et la pertinence peuvent se combiner pour déterminer le poids d’une information : une donnée très objective aura un impact limité si sa pertinence est faible, et inversement, une information hautement pertinente perdra en valeur si son objectivité est faible. Ainsi, il ne faut pas évaluer ces critères isolément, mais en interaction.

C. L’ordre de présentation des informations doit être mis en balance avec les bénéfices potentiels qu’elles peuvent apporter [52]. Par exemple, lors du procès de l’agent de police Derek Chauvin pour la mort de George Floyd, le médecin légiste Andrew Baker a témoigné avoir délibérément choisi de ne pas visionner la vidéo de la mort de Floyd avant de pratiquer l’autopsie, afin d’éviter de biaiser son examen par des idées préconçues susceptibles de l’orienter dans une direction ou une autre [54]. Il a ainsi préféré d’abord examiner les données brutes (l’autopsie du corps), avant toute exposition à d’autres sources d’information (la vidéo). Une telle décision doit aussi considérer les bénéfices éventuels qu’aurait pu apporter le visionnage de la vidéo en amont de l’autopsie — par exemple si celle-ci pouvait orienter utilement l’examen plutôt que le biaiser. En d’autres termes, le LSU-E exige de pondérer les bénéfices potentiels par rapport au risque de biais que peut entraîner une information [52].

Par cette approche, nous encourageons les experts à examiner attentivement comment chaque élément d’information répond à chacun des trois critères, et à déterminer s’il doit être inclus ou non dans la séquence, et à quel moment. Dans la mesure du possible, ils devraient également documenter leur justification quant à l’inclusion ou l’exclusion de chaque information donnée. Bien entendu, cela soulève des questions pratiques quant à la mise en œuvre du LSU-E — comme le recours à des gestionnaires de cas (case managers). Les stratégies d’implémentation efficaces peuvent varier selon les disciplines ou les laboratoires, mais il est essentiel, dans un premier temps, de reconnaître ces enjeux et la nécessité de développer des approches pour y répondre.

Conclusion

Dans cet article, nous nous sommes appuyés sur les travaux classiques en psychologie cognitive portant sur les facteurs qui influencent et structurent la prise de décision experte, afin de proposer une approche large et polyvalente visant à renforcer la qualité des décisions des experts. Les spécialistes, quel que soit leur domaine, devraient commencer par se forger une première impression fondée exclusivement sur les données brutes ou les éléments de preuve, sans accès à un quelconque matériel de référence ni à un contexte — même si ces derniers sont pertinents. Ce n’est qu’ensuite qu’ils pourront envisager quelles autres informations doivent leur être communiquées, et dans quel ordre, en se basant sur leur objectivité, leur pertinence, et leur pouvoir de biais.

Il est par ailleurs essentiel de documenter de manière transparente l’impact et le rôle de chaque information dans le processus décisionnel. Grâce à l’utilisation du LSU-E, les décisions seront non seulement plus transparentes et moins sujettes au bruit, mais elles permettront également de s’assurer que la contribution de chaque élément d’information soit justifiée et proportionnelle à sa valeur probante.

Références

[1] S.E. Asche, Forming impressions of personality, J. Abnorm. Soc. Psychol., 41 (1964), pp. 258-290
[2] C.I. Hovland (Ed.), The Order of Presentation in Persuasion, Yale University Press (1957)
[3] D. Krane, S. Ford, J. Gilder, K. Inman, A. Jamieson, R. Koppl, et al. Sequential unmasking: a means of minimizing observer effects in forensic DNA interpretation, J. Forensic Sci., 53 (2008), pp. 1006-1107
[4] I.E. Dror, W.C. Thompson, C.A. Meissner, I. Kornfield, D. Krane, M. Saks, et al. Context management toolbox: a Linear Sequential Unmasking (LSU) approach for minimizing cognitive bias in forensic decision making, J. Forensic Sci., 60 (4) (2015), pp. 1111-1112
[5] F.H. Lund. The psychology of belief: IV. The law of primacy in persuasion, J. Abnorm. Soc. Psychol., 20 (1925), pp. 183-191
[6] B.B. Murdock Jr. The serial position effect of free recall, J. Exp. Psychol., 64 (5) (1962), p. 482
[7] J. Deese, R.A. Kaufman. Serial effects in recall of unorganized and sequentially organized verbal material, J. Exp. Psychol., 54 (3) (1957), p. 180
[8] J.M. Darley, P.H. Gross. A hypothesis-confirming bias in labeling effects,J. Pers. Soc. Psychol., 44 (1) (1983), pp. 20-33
[9] A. Treisman. Contextual cues in selective listening, Q. J. Exp. Psychol., 12 (1960), pp. 242-248
[10] J. Bargh, E. Morsella. The unconscious mind, Perspect. Psychol. Sci., 3 (1) (2008), pp. 73-79
[11] D.A. Broadbent. Perception and Communication, Pergamon Press, London, England (1958)
[12] J.A. Deutsch, D. Deutsch. Attention: some theoretical considerations, Psychol. Rev., 70 (1963), pp. 80-90
[13] A. Tversky, D. Kahneman. Judgment under uncertainty: heuristics and biases, Science, 185 (4157) (1974), pp. 1124-1131
[14] R.S. Nickerson. Confirmation bias: a ubiquitous phenomenon in many guises, Rev. Gen. Psychol., 2 (1998), pp. 175-220
[15] C. Barry, K. Halfmann. The effect of mindset on decision-making, J. Integrated Soc. Sci., 6 (2016), pp. 49-74
[16] P.C. Wason. On the failure to eliminate hypotheses in a conceptual task, Q. J. Exp. Psychol., 12 (3) (1960), pp. 129-140
[17] B.M. Staw. The escalation of commitment: an update and appraisal, Z. Shapira (Ed.), Organizational Decision Making, Cambridge University Press (1997), pp. 191-215
[18] M. Sherif, D. Taub, C.I. Hovland. Assimilation and contrast effects of anchoring stimuli on judgments, J. Exp. Psychol., 55 (2) (1958), pp. 150-155
[19] C.A. Anderson, M.R. Lepper, L. Ross. Perseverance of social theories: the role of explanation in the persistence of discredited information, J. Pers. Soc. Psychol., 39 (6) (1980), pp. 1037-1049
[20] M.L. Dean. Presentation order effects in product taste tests, J. Psychol., 105 (1) (1980), pp. 107-110
[21] K.A. Carlson, J.E. Russo. Biased interpretation of evidence by mock jurors, J. Exp. Psychol. Appl., 7 (2) (2001), p. 91
[22] R.G. Lawson. Order of presentation as a factor in jury persuasion. Ky, LJ, 56 (1967), p. 523
[23] D. Jolley, K.M. Douglas. Prevention is better than cure: addressing anti-vaccine conspiracy theories, J. Appl. Soc. Psychol., 47 (2017), pp. 459-469
[24] A.R. Klales, K.M. Lesciotto. The “science of science”: examining bias in forensic anthropology, Proceedings of the 68th Annual Scientific Meeting of the American Academy of Forensic Sciences (2016)
[25] M. Davidson, C. Rando, S. Nakhaeizadeh. Cognitive bias and the order of examination on skeletal remains, Proceedings of the 71st Annual Meeting of the American Academy of Forensic Sciences (2019)
[26] D. Kahneman, O. Sibony, C. Sunstein. Noise: A Flaw in Human Judgment, William Collins (2021)
[27] I.E. Dror. Cognitive and human factors in expert decision making: six fallacies and the eight sources of bias, Anal. Chem., 92 (12) (2020), pp. 7998-8004
[28] J. Kukucka, S.M. Kassin, P.A. Zapf, I.E. Dror. Cognitive bias and blindness: a global survey of forensic science examiners, Journal of Applied Research in Memory and Cognition, 6 (2017), pp. 452-459
[29] I.E. Dror. The paradox of human expertise: why experts get it wrong, N. Kapur (Ed.), The Paradoxical Brain, Cambridge University Press, Cambridge, UK (2011), pp. 177-188
[30] C. Eeden, C. De Poot, P. Koppen. The forensic confirmation bias: a comparison between experts and novices, J. Forensic Sci., 64 (1) (2019), pp. 120-126
[31] C. Huang, R. Bull. Applying Hierarchy of Expert Performance (HEP) to investigative interview evaluation: strengths, challenges and future directions, Psychiatr. Psychol. Law, 28 (2021)
[32] C. MacLean, I.E. Dror. The effect of contextual information on professional judgment: reliability and biasability of expert workplace safety inspectors,J. Saf. Res., 77 (2021), pp. 13-22
[33] E. Rassin. Anyone who commits such a cruel crime, must be criminally irresponsible’: context effects in forensic psychological assessment, Psychiatr. Psychol. Law (2021)
[34] V. Meterko, G. Cooper. Cognitive biases in criminal case evaluation: a review of the research, J. Police Crim. Psychol. (2021)
[35] C. FitzGerald, S. Hurst. Implicit bias in healthcare professionals: a systematic review, BMC Med. Ethics, 18 (2017), pp. 1-18
[36] M.K. Goyal, N. Kuppermann, S.D. Cleary, S.J. Teach, J.M. Chamberlain. Racial disparities in pain management of children with appendicitis in emergency departments, JAMA Pediatr, 169 (11) (2015), pp. 996-1002
[37] I.E. Dror. Biases in forensic experts, Science, 360 (6386) (2018), p. 243
[38] S.M. Kassin, I.E. Dror, J. Kukucka. The forensic confirmation bias: problems, perspectives, and proposed solutions, Journal of Applied Research in Memory and Cognition, 2 (1) (2013), pp. 42-52
[39] NAS. National Research Council, Strengthening Forensic Science in the United States: a Path Forward, National Academy of Sciences (2009)
[40] PCAST, President’s Council of Advisors on science and Technology (PCAST), Report to the President – Forensic Science in Criminal Courts: Ensuring Validity of Feature-Comparison Methods, Office of Science and Technology, Washington, DC (2016)
[41] NCFS, National Commission on Forensic Science. Ensuring that Forensic Analysis Is Based upon Task-Relevant Information, National Commission on Forensic Science, Washington, DC (2016)
[42] Forensic Science Regulator. Cognitive bias effects relevant to forensic science examinations, disponible sur https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/914259/217_FSR-G-217_Cognitive_bias_appendix_Issue_2.pdf 
[43] ANZPAA, A Review of Contextual Bias in Forensic Science and its Potential Legal Implication, Australia New Zealand Policing Advisory Agency (2010)
[44] J. Kukucka, I.E. Dror. Human factors in forensic science: psychological causes of bias and error, D. DeMatteo, K.C. Scherr (Eds.), The Oxford Handbook of Psychology and Law, Oxford University Press, New York (2021)
[45] I.E. Dror, J. Melinek, J.L. Arden, J. Kukucka, S. Hawkins, J. Carter, D.S. Atherton. Cognitive bias in forensic pathology decisions, J. Forensic Sci., 66 (4) (2021)
[46] N. Sunde, I.E. Dror. A hierarchy of expert performance (HEP) applied to digital forensics: reliability and biasability in digital forensics decision making, Forensic Sci. Int.: Digit. Invest., 37 (2021)
[47] D.C. Murrie, M.T. Boccaccini, L.A. Guarnera, K.A. Rufino. Are forensic experts biased by the side that retained them? Psychol. Sci., 24 (10) (2013), pp. 1889-1897
[48] G. Langenburg. Addressing potential observer effects in forensic science: a perspective from a forensic scientist who uses linear sequential unmasking techniques, Aust. J. Forensic Sci., 49 (2017), pp. 548-563
[49] C.M. Thomas, E. Bertram, D. Johnson. The SBAR communication technique, Nurse Educat., 34 (4) (2009), pp. 176-180
[50] I. Wacogne, V. Diwakar. Handover and note-keeping: the SBAR approach, Clin. Risk, 16 (5) (2010), pp. 173-175
[51] M.A. Almazrouei, I.E. Dror, R. Morgan. The forensic disclosure model: what should be disclosed to, and by, forensic experts?, International Journal of Law, Crime and Justice, 59 (2019)
[52] I.E. Dror. Combating bias: the next step in fighting cognitive and psychological contamination, J. Forensic Sci., 57 (1) (2012), pp. 276-277
[53] D. Simon, Minimizing Error and Bias in Death Investigations, vol. 49, Seton Hall Law Rev. (2018), pp. 255-305
[54] CNN. Medical examiner: I « intentionally chose not » to view videos of Floyd’s death before conducting autopsy, April 9, 2021, disponible sur https://edition.cnn.com/us/live-news/derek-chauvin-trial-04-09-21/h_03cda59afac6532a0fb8ed48244e44a0 (2011)

Intelligence artificielle en police scientifique et en sciences forensiques - Forenseek

L’IA en criminalistique : Entre révolution technologique et défis humains

Par Yann CHOVORY, Ingénieur en IA appliquée à la criminalistique (Institut Génétique Nantes Atlantique – IGNA). Sur une scène de crime, chaque minute compte. Entre l’identification d’un suspect en fuite, la prévention de nouveaux délits et les contraintes temporelles de l’enquête, les enquêteurs sont engagés dans une véritable course contre la montre. Traces digitales, résidus de tir, traces biologiques, vidéosurveillance, données numériques… Autant d’indices qui doivent être collectés et analysés rapidement, sous peine de voir une affaire s’effondrer faute de preuves exploitables à temps. Pourtant, submergés par la masse croissante de données, les laboratoires de forensiques peinent à suivre le rythme.

Analyser les preuves avec rapidité et précision

Dans ce contexte, l’intelligence artificielle (IA) s’impose comme un accélérateur indispensable. Capable de traiter en quelques heures des volumes d’informations qui prendraient des semaines à analyser manuellement, elle optimise l’exploitation des indices en accélérant leur tri et en détectant des liens imperceptibles à l’œil humain. Plus qu’un simple gain de temps, elle permet aussi d’améliorer la pertinence des investigations : croiser rapidement des bases de données, repérer des motifs cachés dans des schémas d’appels téléphoniques, comparer des fragments d’ADN avec une précision inégalée. L’IA agit ainsi comme un analyste virtuel infatigable, réduisant le risque d’erreurs humaines et offrant de nouvelles perspectives aux experts en forensiques.

Mais cette révolution technologique ne se fait pas sans heurts. Entre scepticisme institutionnel et résistances opérationnelles, son intégration dans les pratiques d’enquête reste un défi. Mon parcours professionnel, marqué par une quête obstinée d’intégrer l’IA à la police scientifique, illustre cette transformation – et les obstacles qu’elle rencontre. De bioinformaticien marginalisé à responsable de projets IA à l’IGNA, j’ai pu observer de l’intérieur comment cette discipline, longtemps fondée sur des méthodes traditionnelles, s’adapte, parfois à marche forcée, à l’ère du big data.

Le risque d’erreur humaine est réduit et la fiabilité des identifications augmentée

Des exemples concrets : l’IA à l’œuvre de la scène de crime au laboratoire

L’IA investit déjà plusieurs domaines de la criminalistique, avec des résultats prometteurs. Par exemple, les systèmes de reconnaissance d’empreintes digitales AFIS (Automated Fingerprint Identification System ou Système d’identification automatique par empreintes digitales) intègrent désormais des composantes d’apprentissage automatique pour améliorer la correspondance des empreintes latentes. Le risque d’erreur humaine est réduit et la fiabilité des identifications augmentée [1]​. De même, en balistique, des algorithmes de vision par ordinateur comparent automatiquement les stries d’un projectile aux empreintes d’armes connues, accélérant le travail d’un expert en identification d’armes à feu. Nous voyons également apparaître des outils pour interpréter les traces de sang sur une scène : des modèles de machine learning1 peuvent aider à reconstituer la trajectoire de gouttelettes de sang et donc la dynamique d’une agression et d’un évènement sanglant [2]​. Ces exemples illustrent comment l’IA s’intègre dans la boîte à outils de l’expert criminalistique, de l’analyse d’images de scène de crime à la reconnaissance de motifs complexes.

Mais c’est sans doute en génétique forensique que l’IA suscite actuellement le plus d’espoirs. Les laboratoires d’analyse ADN traitent des milliers de profils génétiques et d’échantillons, avec des délais qui peuvent être critiques. L’IA offre un gain de temps considérable et une précision accrue. Dans le cadre de mes recherches, j’ai contribué au développement d’une IA interne capable d’interpréter 86 profils génétiques en seulement trois minutes [3]​, un progrès majeur lorsque l’analyse d’un profil complexe peut prendre plusieurs heures. Depuis 2024, elle traite en autonomie les profils simples, tandis que les profils génétiques complexes sont automatiquement orientés vers un expert humain, garantissant ainsi une collaboration efficace entre l’automatisation et l’expertise. Les résultats observés sont très encourageants. Non seulement le délai d’obtention des résultats ADN est drastiquement réduit, mais le taux d’erreur diminue également grâce à la standardisation apportée par l’algorithme.

L’IA ne remplace pas l’humain mais le complète 

Une autre avancée prometteuse concerne l’amélioration du portrait-robot génétique à partir de l’ADN. Actuellement, cette technique permet d’estimer certaines caractéristiques physiques d’un individu (comme la couleur des yeux, des cheveux ou la pigmentation de la peau) à partir de son code génétique, mais elle reste limitée par la complexité des interactions génétiques et l’incertitude des prédictions. L’IA pourrait révolutionner cette approche en exploitant des modèles de deep learning* entraînés sur de vastes bases de données génétiques et phénotypiques, permettant ainsi d’affiner ces prédictions et de générer des portraits plus précis. Contrairement aux méthodes classiques, qui reposent sur des probabilités statistiques, un modèle d’IA pourrait analyser des millions de variantes génétiques en quelques secondes et identifier des corrélations subtiles que les approches traditionnelles ne détectent pas. Cette perspective ouvre la voie à une amélioration significative de la pertinence des portraits ADN, facilitant l’identification des suspects en l’absence d’autres indices exploitables. La plate-forme Forenseek a exploré les avancées actuelles dans ce domaine, mais l’IA n’a pas encore été pleinement exploitée pour surpasser les méthodes existantes [5]​. Son intégration pourrait donc constituer une avancée majeure dans l’enquête criminelle.

Il est important de noter que dans tous ces exemples, l’IA ne remplace pas l’humain mais le complète. À l’IRCGN (Institut de Recherche Criminelle de la Gendarmerie Nationale) cité plus haut, si la majorité des profils ADN de routine et de bonne qualité peuvent être traités automatiquement, un contrôle qualité humain régulier subsiste : chaque semaine, un technicien revérifie aléatoirement des dossiers traités par l’IA, pour s’assurer qu’aucune dérive n’apparaît [3]​. Cette collaboration homme-machine est la clé d’un déploiement réussi, car le savoir-faire de l’expert criminalistique reste indispensable pour valider et interpréter finement les résultats, notamment lorsqu’un cas est complexe.

Intelligence artificielle IA en police scientifique et cybercriminalité - Forenseek

Des algorithmes nourris aux données : comment l’IA «apprend» en forensique

Les performances impressionnantes de l’IA en criminalistique reposent sur une ressource cruciale : les données. Pour qu’un algorithme d’apprentissage automatique sache identifier une empreinte digitale ou interpréter un profil ADN, il doit préalablement être entraîné sur de nombreux exemples. Concrètement, nous lui fournissons des jeux de données représentatifs, comportant chacun des entrées (images, signaux, profils génétiques, etc.) associées à un résultat attendu (identité du bon suspect, composition exacte du profil ADN, etc.). En analysant ces milliers (voir millions) d’exemples, la machine ajuste ses paramètres internes afin de reproduire au mieux les décisions des experts humains. On parle d’apprentissage supervisé, car l’IA apprend à partir de cas que l’on connaît déjà. Par exemple, pour entraîner un modèle à reconnaître des profils ADN, nous utilisons des données issues de cas résolus où l’on sait quel était le résultat attendu.

La performance d’une IA dépend de la qualité des données qui l’entraînent.

Plus le volume de données d’entraînement est grand et varié, mieux l’IA pourra détecter des motifs robustes et fiables. Toutefois, toutes les données ne se valent pas. Il faut s’assurer qu’elles soient de bonne qualité (par exemple, des images bien annotées, des profils ADN sans erreur de saisie) et qu’elles couvrent une diversité de situations suffisante. Si on biaise le système en ne lui montrant qu’un éventail restreint de cas, ce dernier risque d’échouer face à un scénario un peu différent. En génétique, cela signifie par exemple d’inclure des profils d’origines ethniques variées, des niveaux de dégradation différents, des configurations de mélanges multiples, afin que l’algorithme apprenne à gérer toutes les sources de variations possibles.

La transparence dans la composition des données est un impératif. Des études ont montré que certaines bases de données forensiques sont démographiquement déséquilibrées : par exemple, la base américaine CODIS comporte une sur-représentation de profils d’individus afro-américains par rapport aux autres groupes [6]​. Un modèle entraîné naïvement sur ces données pourrait hériter de biais systématiques et produire des résultats moins fiables ou moins justes pour des populations sous-représentées. Il est donc indispensable de contrôler les biais dans les données d’apprentissage et, si nécessaire, de les corriger (par échantillonnage équilibré, augmentation de données minoritaires, etc.) afin d’obtenir un apprentissage équitable.

Techniquement, l’entraînement d’une IA passe par des étapes rigoureuses de validation croisée et de mesure de performance. On divise généralement les données en trois ensembles : un pour l’apprentissage, un pour la validation pendant le développement (pour ajuster les paramètres) et un jeu de test final pour évaluer le modèle de façon objective. Des métriques quantitatives comme la précision, le rappel (sensibilité) ou les courbes d’erreur permettent de quantifier la fiabilité de l’algorithme sur des données qu’il n’a jamais vues [6]. On peut ainsi vérifier, par exemple, que l’IA identifie correctement une grande majorité des auteurs à partir de traces, tout en maintenant un faible taux de faux positifs. De plus en plus, nous intégrons également des critères de justice et d’éthique dans ces évaluations : nous examinerons si la performance reste constante quel que soit le groupe démographique ou la condition du test (genre, âge, etc.), afin de s’assurer qu’aucun biais inacceptable ne subsiste [6]. Enfin, le respect des contraintes juridiques (telles que le RGPD en Europe, qui encadre l’utilisation des données personnelles) doit être intégré dès la phase de conception du système [6]. Cela peut impliquer d’anonymiser les données, de limiter certaines informations sensibles ou de prévoir des procédures en cas de détection d’un biais éthique.

En définitive, la performance d’une IA dépend de la qualité des données qui l’entraînent. Dans le domaine forensique, cela signifie que les algorithmes « apprennent » à partir de l’expertise humaine accumulée. Chaque décision algorithmique porte en filigrane l’expérience de centaines d’experts qui ont fourni des exemples ou ajusté les paramètres. C’est à la fois une force (nous capitalisons sur une base de connaissance énorme) et une responsabilité : celle de bien sélectionner, préparer et contrôler les données qui serviront à nourrir l’intelligence artificielle.

Défis techniques et opérationnels pour intégrer l’IA en police scientifique

Si l’IA fait miroiter des gains substantiels, son intégration concrète sur le terrain forensique s’accompagne de nombreux défis. Il ne suffit pas d’entraîner un modèle en laboratoire : encore faut-il pouvoir l’utiliser dans le cadre contraint d’une enquête judiciaire, avec toutes les exigences de fiabilité que cela implique. Parmi les principaux défis techniques et organisationnels, on peut citer :

  • Accès aux données et infrastructures : paradoxalement, alors que l’IA a besoin de beaucoup de données pour apprendre, il peut être difficile de rassembler ces données en quantité suffisante dans le domaine forensique visé. Les profils ADN, par exemple, sont des données personnelles hautement sensibles, protégées par la loi et cloisonnées dans des bases sécurisées. Obtenir des jeux de données assez volumineux pour entraîner un algorithme peut nécessiter des coopérations complexes entre services, ou la génération de données synthétiques pour combler les manques. De plus, les outils informatiques doivent être adaptés pour traiter en temps raisonnable des masses de données – ce qui implique des investissements en matériel (serveurs, GPU2 pour le deep learning3) et en logiciels spécialisés. Certaines initiatives nationales commencent à voir le jour pour mutualiser des données forensiques de façon sécurisée, mais cela reste un chantier en cours.

  • Qualité des annotations et biais : l’apprentissage d’une IA dépend de la qualité de l’annotation des données d’entraînement. Dans bien des domaines forensiques, établir le « vrai » n’est pas trivial. Par exemple, pour entraîner un algorithme à reconnaître un visage sur une vidéo de surveillance, il faut que chaque visage soit correctement identifié par un humain au préalable – ce qui peut être ardu si l’image est floue ou partielle. De même, étiqueter des jeux de traces de semelles, de fibres ou des empreintes demandent un travail méticuleux d’experts, avec parfois une part de subjectivité. Si les données d’apprentissage comportent des erreurs d’annotation ou des biais historiques, l’IA les reproduira​ [6]. Un biais classique est lié à la représentativité démographique mentionnée plus haut, mais il peut y en avoir d’autres. Par exemple, si nous entraînons un modèle de détection d’armes principalement sur des images d’armes en intérieur, il sera moins performant pour détecter une arme en extérieur, sous la pluie, etc. La qualité et la diversité des données annotées sont donc un enjeu technique majeur. Cela implique d’établir des protocoles rigoureux de collecte et d’annotation (idéalement standardisés au niveau international), ainsi qu’un contrôle continu pour détecter les dérives du modèle (surapprentissage sur certains cas, perte de performance dans le temps, etc.). Cette validation repose sur des études expérimentales comparant les performances de l’IA aux experts humains. Toutefois, la complexité des procédures d’homologation et d’acquisition freine parfois l’adoption, retardant de plusieurs années la mise en service de nouveaux outils en criminalistique.
Intelligence Artificielle IA en police scientifique et en sciences forensiques cybercriminalité - Forenseek
  • Compréhension et acceptation par les acteurs judiciaires : introduire de l’intelligence artificielle dans le processus judiciaire soulève inévitablement la question de la confiance. Un enquêteur ou un technicien de laboratoire, formé aux méthodes classiques, doit apprendre à utiliser et à interpréter les résultats fournis par l’IA. Cela nécessite des formations et une acculturation progressive pour que l’outil devienne un allié et non une «boîte noire incomprise». Plus largement, les magistrats, avocats et jurés qui auront à discuter ces preuves doivent aussi en saisir les principes. Or, expliquer le fonctionnement interne d’un réseau de neurones ou la signification statistique d’un score de similarité n’est pas aisé. Nous observons parfois une incompréhension ou une méfiance de la part de certains acteurs judiciaires face à ces méthodes algorithmiques [6]. Si un juge ne comprend pas comment une conclusion a été obtenue, il pourrait être enclin à la rejeter ou à lui accorder moins de poids, par prudence. De même, un avocat de la défense cherchera légitimement à scruter les failles d’un outil qu’il ne connaît pas, ce qui peut donner lieu à des débats judiciaires autour de la validité de l’IA. Un défi conséquent est donc de rendre l’IA explicable (concept de «XAI» pour eXplainable AI), ou du moins d’en présenter les résultats dans un format compréhensible et pédagogiquement acceptable par un tribunal. Sans cela, l’intégration de l’IA risque de se heurter à un refus ou à des controverses lors des procès, limitant son apport pratique.
  • Cadre réglementaire et protection des données : enfin, les sciences forensiques évoluent dans un cadre légal strict, notamment en ce qui concerne les données personnelles (profil ADN, données biométriques, etc…) et la procédure pénale. L’utilisation d’une IA doit respecter ces régulations. En France, la CNIL (Commission Nationale de l’Informatique et des Libertés) veille au grain et peut imposer des restrictions si un traitement algorithmique porte atteinte à la vie privée. Par exemple, entraîner une IA sur des profils ADN nominatifs sans base légale serait impensable. Il faut souvent innover tout en restant dans les clous juridiques, ce qui impose des contraintes dès la conception des projets. Par ailleurs, le secret industriel autour de certains algorithmes pose un problème dans le contexte judiciaire : si un éditeur refuse de divulguer le fonctionnement interne de son logiciel pour des raisons de propriété intellectuelle, comment la défense ou le juge peuvent-ils s’assurer de sa fiabilité ? Des cas récents ont montré des accusés condamnés sur la foi de logiciels propriétaires (par exemple d’analyse ADN) sans que la défense n’ait pu examiner le code source utilisé [7]. Ces situations soulèvent un enjeu de transparence et de droits de la défense. Aux États-Unis, une proposition de loi intitulée «Justice in Forensic Algorithms Act» entend justement faire en sorte que le secret commercial ne puisse pas empêcher l’examen par des experts des algorithmes employés en criminalistique, afin de garantir l’équité des procès. Cela illustre bien la nécessité d’adapter le cadre réglementaire à ces nouvelles technologies.

Le manque de coopération ralentit la mise au point d’outils performants et limite leur adoption sur le terrain.

  • Un autre obstacle, plus structurel, réside dans la difficulté d’intégrer des profils hybrides aux institutions forensiques tout du moins en France. Aujourd’hui, les concours et les recrutements restent souvent cloisonnés entre différentes spécialités, limitant l’émergence d’experts possédant une double compétence. Par exemple, dans la police scientifique, le concours de technicien ou d’ingénieur de police scientifique est accessible via des spécialités distinctes, comme la biologie ou l’informatique, mais ne permet pas de valoriser une expertise combinée aux deux. Cette rigidité institutionnelle freine l’intégration de professionnels capables de faire le lien entre les domaines et d’exploiter pleinement le potentiel de l’IA en criminalistique. Pourtant, les avancées technologiques actuelles montrent que l’analyse des traces biologiques repose de plus en plus sur des outils numériques avancés. Face à cette évolution, une plus grande souplesse dans le recrutement et la formation des experts forensiques sera nécessaire pour répondre aux défis de demain.

L’IA en criminalistique ne doit pas être un enjeu de compétition ou de prestige entre laboratoires, mais un outil mis au service de la justice et de la vérité, au bénéfice des enquêteurs et des victimes.

  • Un autre frein majeur à l’innovation en criminalistique est le cloisonnement des efforts entre les différents acteurs du domaine qui travaillent en parallèle sur des problématiques identiques, sans mutualiser leurs avancées. Ce manque de coopération ralentit la mise au point d’outils performants et limite leur adoption sur le terrain. Pourtant, en partageant nos ressources – qu’il s’agisse de bases de données, de méthodologies ou d’algorithmes – nous pourrions accélérer la mise en production des solutions IA et garantir une amélioration continue fondée sur l’expertise de chacun. Mon expérience à travers les différents laboratoires français (Le Laboratoire de Police Scientifique de Lyon (Service National de Police Scientifique SNPS), L’Institut de Recherche Criminelle de la Gendarmerie Nationale (IRCGN) et maintenant l’Institut Génétique Nantes Atlantique IGNA) me permet de mesurer combien cette fragmentation freine les progrès, alors que nous poursuivons un même objectif : améliorer la résolution des enquêtes. C’est pourquoi il est essentiel de promouvoir le développement en open source lorsque cela est possible et de créer des plateformes de collaboration entre les entités publiques et judiciaires. L’IA en criminalistique ne doit pas être un enjeu de compétition ou de prestige entre laboratoires, mais un outil mis au service de la justice et de la vérité, au bénéfice des enquêteurs et des victimes.
Intelligence Artificielle IA en police scientifique et en sciences forensiques - Forenseek

Enjeux éthiques et légaux : innover sans renoncer aux garanties

Les défis évoqués ci-dessus ont tous une dimension technique, mais ils s’entremêlent à des questions éthiques et juridiques fondamentales. D’un point de vue éthique, la priorité absolue est de ne pas causer d’injustice par l’usage de l’IA. Il faut à tout prix éviter qu’un algorithme mal conçu n’entraîne l’inculpation injustifiée d’une personne ou, à l’inverse, le relâchement d’un coupable. Cela passe par la maîtrise des biais (pour ne pas discriminer certains groupes), par la transparence (pour que chaque partie au procès puisse comprendre et contester la preuve algorithmique) et par la responsabilisation des décisions. En effet, qui est responsable si une IA se trompe ? L’expert qui l’a utilisée à tort, le concepteur du logiciel, ou personne car «la machine a fait une erreur» ? Ce flou n’est pas acceptable en justice : il importe de toujours garder l’expertise humaine dans la boucle, de façon qu’une décision finale – incriminer ou disculper – repose sur une évaluation humaine éclairée par l’IA, et non sur le verdict opaque d’un automate.

Sur le plan légal, le paysage est en train d’évoluer pour encadrer l’utilisation de l’IA. L’Union européenne, notamment, finalise un Règlement sur l’IA (AI Act) qui sera la première législation au monde à définir un cadre pour le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle​ [8]. Son objectif est de minimiser les risques pour la sécurité et les droits fondamentaux des personnes, en imposant des obligations en fonction du niveau de risque de l’application (et nul doute que les usages en matière pénale seront classés parmi les plus sensibles). En France, la CNIL a publié des recommandations soulignant qu’il est possible de concilier innovation et respect des droits des personnes lors du développement de solutions d’IA [9]​. Cela passe par exemple par le respect du RGPD, la limitation des finalités (nous n’entraînons un modèle qu’à des fins légitimes et clairement définies), la proportionnalité des données collectées, et l’évaluation d’impact préalable pour tout système algorithmique susceptible d’affecter significativement les individus. Ces garde-fous visent à ce que l’enthousiasme pour l’IA ne se fasse pas au détriment des principes fondamentaux de la justice et de la vie privée.

Encourager l’innovation tout en exigeant une validation scientifique solide et une transparence sur les méthodes

Un équilibre délicat doit donc être trouvé entre innovation technologique et cadre réglementaire. D’un côté, brider excessivement l’expérimentation et l’adoption de l’IA en criminalistique pourrait priver les enquêteurs d’outils potentiellement salvateurs dans la résolution d’enquêtes complexes. De l’autre, laisser le champ libre sans règles ni contrôle serait prendre le risque d’erreurs judiciaires ou d’atteintes aux droits. La solution réside sans doute dans une approche mesurée : encourager l’innovation tout en exigeant une validation scientifique solide et une transparence sur les méthodes. Des comités d’éthique et des experts indépendants peuvent être associés pour auditer les algorithmes, vérifier qu’ils respectent bien les normes et qu’ils ne reproduisent pas de biais problématiques. En outre, il convient d’informer et de former les professionnels du droit à ces nouvelles technologies, afin qu’ils soient en mesure d’en discuter avec pertinence lors des procès. Un juge formé aux concepts de base de l’IA sera plus à même de comprendre la valeur probante (et les limites) d’une preuve issue d’un algorithme.

Conclusion : L’avenir de la criminalistique à l’ère de l’IA

L’intelligence artificielle est en passe de transformer en profondeur la criminalistique, apportant aux enquêteurs des outils d’analyse plus rapides, plus précis et capables d’exploiter des volumes de données autrefois inaccessibles. Qu’il s’agisse de passer au crible des giga-octets d’informations numériques, de comparer des traces latentes avec une fiabilité accrue, ou de démêler des profils ADN complexes en quelques minutes, l’IA ouvre de nouvelles perspectives pour résoudre les enquêtes plus efficacement.

Mais cette avancée technologique s’accompagne de défis cruciaux. Techniques d’apprentissage, qualité des bases de données, biais algorithmiques, transparence des décisions, cadre réglementaire : autant d’enjeux qui détermineront si l’IA peut réellement renforcer la justice sans la fragiliser. À l’heure où la confiance du public dans les outils numériques est plus que jamais mise à l’épreuve, il est impératif d’intégrer ces innovations avec rigueur et responsabilité.

L’avenir de l’IA en criminalistique ne sera pas un face-à-face entre la machine et l’homme, mais un travail de collaboration où l’expertise humaine restera centrale. La technologie pourra aider à voir plus vite, plus loin, mais l’interprétation, le discernement et la prise de décision resteront entre les mains des experts forensiques et du monde judiciaire. Dès lors, la vraie question n’est peut-être pas jusqu’où l’IA peut aller en criminalistique, mais comment saurons-nous l’encadrer afin qu’elle puisse garantir une justice éthique et équitable. Serons-nous capables d’exploiter sa puissance tout en préservant les fondements mêmes du procès équitable et du droit à la défense ?

La révolution est en marche. Il nous appartient désormais d’en faire un progrès et non une dérive.

Bibliographie

[1]​ : Océane DUBOUST. L’IA peut-elle aider la police scientifique à trouver des similitudes dans les empreintes digitales ? Euronews, 12/01/2024 [vue le 15/03/2025] https://fr.euronews.com/next/2024/01/12/lia-peut-elle-aider-la-police-scientifique-a-trouver-des-similitudes-dans-les-empreintes-d#:~:text=,il
[2] : International Journal of Multidisciplinary Research and Publications. The Role of Artificial Intelligence in Forensic Science: Transforming Investigations through Technology. Muhammad Arjamand et al. Volume 7, Issue 5, pp. 67-70, 2024. Disponible sur : http://ijmrap.com/ [vue le 15/03/2025]
[3]​ : Gendarmerie Nationale. Kit universel, puce RFID, IA : le PJGN à la pointe de la technologie sur l’ADN.  Mis à jour le 22/01/2025 et disponible sur : https://www.gendarmerie.interieur.gouv.fr/pjgn/recherche-et-innovation/kit-universel-puce-rfid-ia-le-pjgn-a-la-pointe-de-la-technologie-sur-l-adn [vue le 15/03/2025]
[4]​ : Michelle TAYLOR. EXCLUSIVE: Brand New Deterministic Software Can Deconvolute a DNA Mixture in Seconds.  Forensic Magazine, 29/03/022. Disponible sur : https://www.forensicmag.com [vue le 15/03/2025]
[5]​ : Sébastien AGUILAR. L’ADN à l’origine des portraits-robot ! Forenseek, 05/01/2023. Disponible sur : https://www.forenseek.fr/adn-a-l-origine-des-portraits-robot/ [vue le 15/03/2025]
[6]​ : Max M. Houck, Ph.D.  CSI/AI: The Potential for Artificial Intelligence in Forensic Science.  iShine News, 29/10/2024. Disponible sur : https://www.ishinews.com/csi-ai-the-potential-for-artificial-intelligence-in-forensic-science/ [vue le 15/03/2025]
[7]​ : Mark Takano.  Black box algorithms’ use in criminal justice system tackled by bill reintroduced by reps. Takano and evans.  Takano House, 15/02/2024. Disponible sur : https://takano.house.gov/newsroom/press-releases/black-box-algorithms-use-in-criminal-justice-system-tackled-by-bill-reintroduced-by-reps-takano-and-evans [vue le 15/03/2025]
[8] : Mon Expert RGPD. Artificial Intelligence Act : La CNIL répond aux premières questions.  Disponible sur : https://monexpertrgpd.com [vue le 15/03/2025]
[9]​ ​: ​ CNIL.  Les fiches pratiques IA.  Disponible sur : https://www.cnil.fr [vue le 15/03/2025]

Définitions :

  1. Le Machine Learning (apprentissage automatique) est une branche de l’intelligence artificielle qui permet aux ordinateurs d’apprendre à partir de données sans être explicitement programmés. Il repose sur des algorithmes capables de détecter des motifs, de faire des prédictions et d’améliorer leurs performances avec l’expérience. ↩︎
  2. Un GPU (Graphics Processing Unit) est un processeur spécialisé conçu pour exécuter des calculs massivement parallèles, principalement utilisés pour le rendu graphique. Contrairement aux CPU (processeurs centraux) qui exécutent un nombre limité de tâches séquentielles avec des cœurs optimisés pour la polyvalence, les GPU possèdent des milliers de cœurs optimisés pour effectuer des opérations simultanées sur de grandes quantités de données. ↩︎
  3. Le Deep Learning (apprentissage profond) est une branche du Machine Learning qui utilise des réseaux de neurones artificiels composés de plusieurs couches pour modéliser des représentations complexes des données. Inspiré du fonctionnement du cerveau humain, il permet aux systèmes d’IA d’apprendre à partir de grandes quantités de données et d’améliorer leurs performances avec l’expérience. Le Deep Learning est particulièrement efficace pour le traitement des images, de la parole, du texte et des signaux complexes, avec des applications en vision par ordinateur, reconnaissance vocale, médecine légale et cybersécurité. ↩︎