Et si les spores fongiques et les grains de pollen pouvaient révéler les secrets des fosses clandestines ? C’est l’hypothèse explorée par une équipe internationale de chercheurs en Colombie, qui a conduit une expérience pionnière combinant mycologie et palynologie dans un contexte médico-légal.
Une approche biologique pour détecter les tombes illégales
Dans le cadre d’un projet expérimental mené à Bogotá, deux fosses simulant des sépultures clandestines ont été creusées, l’une vide, l’autre contenant un cadavre de porc, substitut standard aux corps humains en science forensique. Les chercheurs ont collecté et analysé des échantillons de sol à différentes profondeurs pour y étudier la composition fongique et palynologique. L’objectif de l’étude était de déterminer si la présence de restes organiques décomposés modifie la communauté microbienne et végétale du sol, et si ces signatures biologiques pouvaient servir d’indicateurs temporels et spatiaux dans les enquêtes criminelles.
Une richesse fongique et pollinique révélatrice
Les résultats montrent que le sol des fosses contenant un cadavre présente une plus grande diversité de champignons, notamment des espèces comme Fusarium oxysporum ou Paecilomyces, dont la fréquence augmente en présence de décomposition. Ces organismes, capables de dégrader des composés riches en azote comme la kératine, pourraient indiquer l’existence de restes organiques enfouis.
Côté palynologie, les grains de pollen identifiés à 50 cm de profondeur, notamment Borago officinalis, Poa sp. et Croton sonderianus sont typiques de la saison sèche. En revanche, les pollens prélevés à 30 cm sont liés à la saison humide. Cette disposition successive permettrait de dater la période d’enfouissement et d’exhumation.
Intégrer la biologie du sol dans les enquêtes judiciaires
Cette étude est la première à apporter des données expérimentales sur la mycologie et la palynologie dans un contexte tropical équatorial, jusqu’alors peu exploré en science forensique. Elle ouvre la voie à une intégration plus systématique de ces disciplines dans l’analyse des scènes de crime impliquant des sépultures clandestines ou la recherche de corps enfouis. Bien que ces résultats soient préliminaires, ils démontrent la pertinence d’approches biologiques complémentaires aux méthodes médico-légales classiques, notamment dans des régions où les conditions climatiques modifient les dynamiques de décomposition.
Conclusion
Cette étude s’inscrit dans un champ de recherches plus large sur les indices biologiques laissés par des cadavres enfouis. Après les arbres et leurs racines qui peuvent signaler une présence souterraine anormale, ce sont ici les champignons et les pollens qui deviennent témoins silencieux des morts clandestines. Cette approche microbiologique vient enrichir les outils de l’archéologie forensique, telle que pratiquée par les experts de la gendarmerie nationale. En croisant les indices biologiques invisibles à l’œil nu avec les techniques classiques de fouilles et d’analyse stratigraphique, elle permet une lecture plus fine du sol et de son histoire criminelle.
Référence : Tranchida, M. C., et al. (2025). Mycology and palynology: Preliminary results in a forensic experimental laboratory in Colombia, South America. Journal of Forensic Sciences. Article complet disponible ici.
L’estimation de l’intervalle post-mortem (IPM) repose en grande partie sur l’identification (le scoring) du stade de décomposition (SOD) du corps. Jusqu’ici, cette étape cruciale est encore majoritairement effectuée par des experts humains, à l’aide de méthodes visuelles semi-objectives. Toutefois, ces approches souffrent de limites importantes : subjectivité, temps d’analyse, et difficulté à traiter des bases de données massives.
Une étude récente proposée par l’Université du Tennessee explore l’apport de l’intelligence artificielle (IA) pour automatiser cette classification. S’appuyant sur un corpus de plus de 1,5 million d’images de corps en décomposition documentés en conditions réelles entre 2011 et 2023, les chercheurs ont entraîné deux modèles de réseaux de neurones convolutifs (CNN) : Inception V3 et Xception.
Une approche anatomique segmentée et fondée sur l’apprentissage profond
L’étude repose sur une stratégie de scoring du stade de décomposition par région anatomique (tête, tronc et membres), en accord avec les méthodes de Megyesi (4 stades) et de Gelderman (6 stades). Les images ont été automatiquement triées, puis annotées manuellement par un expert selon ces référentiels. Les modèles IA ont ensuite été entraînés par transfert d’apprentissage et testés sur des images non vues.
Les performances sont très prometteuses, notamment avec le modèle Xception, qui atteint un F1-score élevé pour les deux méthodes, indicateur de la capacité d’un modèle d’intelligence artificielle à fournir des prédictions à la fois exactes et complètes. Les résultats sont plus modestes pour les membres, en raison de la variabilité des conditions photographiques.
Une fiabilité comparable à celle des experts humains ?
Pour évaluer la performance de l’intelligence artificielle (IA) par rapport à des experts humains, les chercheurs ont réalisé un test d’inter-évaluateurs sur 300 images de la région thoracique. Trois spécialistes ont classé les stades de décomposition de ces images selon les deux méthodes reconnues, et leurs résultats ont été comparés à ceux produits par l’IA.
Le niveau de concordance a été évalué à l’aide du coefficient Kappa de Fleiss. Pour la méthode de Megyesi, les résultats ont révélé un accord dit « substantiel » entre les classifications réalisées par l’intelligence artificielle et celles des experts humains (κ = 0,637), un score très proche de celui observé entre les experts eux-mêmes (κ = 0,67). Ces résultats témoignent de l’alignement significatif de l’IA avec les évaluations d’experts du domaine, renforçant ainsi la validité et la pertinence de cette approche automatisée.
Des limites à surmonter pour une intégration opérationnelle
L’annotation effectuée par un seul expert expose à des biais, tout comme le contexte environnemental unique limite la généralisation des résultats. Les performances plus faibles sur les membres indiquent le besoin d’une diversification des données, notamment en intégrant des conditions climatiques variées. Une base multicentrique, annotée par plusieurs experts, permettrait de constituer une base de données de référence plus robuste, garantissant une meilleure généralisation et une fiabilité accrue des modèles.
Perspectives : vers une forensique augmentée par l’intelligence artificielle
Cette étude constitue une avancée vers l’automatisation de l’analyse taphonomique. D’autres travaux, comme ceux de Smith et al. (2024) avec des modèles bayésiens, ou l’usage croissant de l’imagerie 3D et du nécrobiome, suggèrent une convergence des approches IA, biologiques et environnementales pour une estimation du PMI plus précise et moins subjective.
L’automatisation de l’évaluation du stade de décomposition permet de gagner un temps considérable tout en réduisant la variabilité inter-observateur. Des efforts sont néanmoins nécessaires pour élargir les base de données et développer des standards d’annotation uniformes. L’intégration d’algorithmes comme ceux décrits ici pourrait transformer les pratiques en médecine légale, en facilitant l’exploitation et l’analyse de grandes bases d’images ou dans des situations de crise (catastrophes, conflits).
Références :
Nau, A.-M. et al. (2024). Towards Automation of Human Stage of Decay Identification: An Artificial Intelligence Approach. arXiv:2408.10414.
Megyesi, M.S. et al. (2005). Using accumulated degree-days to estimate the postmortem interval from decomposed human remains. Journal of Forensic Sciences, 50(3), 618–626.
Gelderman, H. et al. (2018). The development of a post-mortem interval estimation for human remains found on land in the Netherlands. Int. J. Legal Med., 132(3), 863–873.
Smith, D.H. et al. (2024). Modeling human decomposition: a Bayesian approach. arXiv:2411.09802.
Infante, D. (2025). How AI and 3D Imaging are Transforming Body Farm Research. AZoLifeSciences.
Piraianu, A.-I. et al. (2023). Enhancing the evidence with algorithms: how artificial intelligence is transforming forensic medicine. Diagnostics, 13(18), 2992.
Initialement exploité en archéologie, le tartre dentaire révèle aujourd’hui son potentiel en médecine légale. Il conserve des traces de substances ingérées, ouvrant la voie à une analyse post-mortem des consommations médicamenteuses ou de substances psychoactives.
Le tartre dentaire : une matrice négligée, mais précieuse
Le tartre dentaire se forme par la minéralisation progressive de la plaque dentaire, un biofilm composé de salive, de micro-organismes et de résidus alimentaires. Ce processus piège divers composés présents dans la cavité buccale, y compris des xénobiotiques tels que les drogues ou leurs métabolites. Sa composition cristalline confère à cette matrice une excellente conservation des substances qu’elle renferme, tout en la rendant résistante aux dégradations extérieures, y compris dans des contextes post-mortem ou archéologiques.
Une nouvelle voie pour traquer les substances illicites
Récemment, une équipe de chercheurs a démontré la faisabilité d’une approche toxicologique fondée sur l’analyse du tartre dentaire, en utilisant des techniques de chromatographie liquide couplée à la spectrométrie de masse (LC-MS/MS). Dans une étude portant sur dix cas médico-légaux, les chercheurs ont détecté 131 substances dans le tartre, contre 117 dans le sang, révélant parfois des concentrations plus élevées dans le tartre. La méthode a permis d’identifier des drogues d’usage courant comme la cocaïne, l’héroïne ou les cannabinoïdes, y compris dans des cas où elles n’étaient plus détectables dans les matrices conventionnelles (Sørensen et al., 2021). Ces substances, parfois absentes du sang, étaient présentes en concentrations plus élevées dans le tartre.
Un témoin durable et discret
Cette approche présente plusieurs avantages notables. Elle permet la détection de consommations plusieurs semaines, voire plusieurs mois, après l’ingestion. Le prélèvement de tartre est non invasif et applicable à des restes squelettiques, ce qui en fait une solution pertinente en archéologie et en anthropologie médico-légale. Elle pourrait ainsi contribuer à éclairer les habitudes de consommation, les traitements médicamenteux ou les causes de décès dans des contextes où le sang, l’urine ou les cheveux sont absents.
Une méthode prometteuse à développer
L’un des atouts majeurs de cette technique réside dans sa capacité à exploiter une matrice souvent négligée, mais fréquemment présente sur les dents. Quelques milligrammes suffisent pour réaliser une analyse fiable, à condition que les substances piégées aient conservé leur stabilité dans le temps. La méthode offre également la perspective d’élargir la gamme de substances identifiables, sous réserve de validations complémentaires.
Bien que prometteuse, cette voie nécessite encore des recherches supplémentaires pour standardiser les protocoles, évaluer la stabilité à long terme des molécules, et intégrer pleinement cette approche dans les pratiques médico-légales courantes. L’approche, encore en phase exploratoire, offre néanmoins un potentiel remarquable dans l’exploitation des matrices alternatives, et ouvre des perspectives inédites pour la toxicologie forensique.
Références :
Sørensen LK, Hasselstrøm JB, Larsen LS, et al. Entrapment of drugs in dental calculus: detection validation based on test results from post-mortem investigations.Forensic Sci Int 2021; 319: 110647.
Reymond C, Le Masle A, Colas C, et al. A rational strategy based on experimental designs to optimize parameters of a liquid chromatography-mass spectrometry analysis of complex matrices. Talanta 2019; 205: 120063.
Radini A, Nikita E, Buckley S, Copeland L, Hardy K. Beyond food: The multiple pathways for inclusion of materials into ancient dental calculus.Am J Phys Anthropol 2017; 162: 71–83.
Henry AG, Piperno DR. Using plant microfossils from dental calculus to recover human diet: a case study from Tell al-Raqā’i, Syria. J Archaeol Sci 2008; 35: 1943–1950.
Des chercheurs malaisiens ont exploré l’intérêt des punaises de lit tropicales, Cimex hemipterus, comme nouvelles sources d’ADN humain en contexte judiciaire. Absentes des investigations classiques faute de traces visibles, ces punaises pourraient néanmoins porter dans leur tube digestif l’ADN du dernier hôte humain qu’elles ont piqué. Cette étude visait à déterminer si et pendant combien de temps un profil ADN exploitable pouvait être extrait du contenu sanglant de ces insectes, notamment via des marqueurs génétiques STR (Short Tandem Repeat) et SNP (Single Nucleotide Polymorphism).
Méthodologie et résultats
Des colonies de punaises de lit élevées en laboratoire ont été nourries sur des volontaires humains, puis sacrifiées à différents intervalles (0, 5, 14, 30 et 45 jours après repas sanguin). L’ADN a été extrait et soumis à des analyses STR et SNP selon les standards forensiques. Les résultats sont clairs : un profil STR et SNP complet n’a pu être obtenu que le jour même du repas (0 jour), tandis que des profils partiels, certes plus fragmentaires, restaient obtenables jusqu’à 45 jours post‑repas. Les SNP utilisés pouvaient être interprétés avec le système HIrisPlex‑S, permettant notamment des prédictions de phénotypes (couleur des yeux, peau, cheveux) même à partir de données partielles. En outre, des punaises collectées sur le terrain ont corroboré la faisabilité des marqueurs STR, révélant parfois des profils mixtes, ce qui pourrait indiquer un repas sur plusieurs individus .
Implications légales et perspectives
Ces résultats ouvrent une piste inédite pour la criminalistique : lorsque les traces biologiques classiques ont disparu ou ont été nettoyées, des punaises de lit pourraient rester sur les lieux et constituer des micro‑réservoirs d’ADN humain fiables, permettant d’identifier des personnes venues sur les lieux ou d’établir une chronologie de passages . Cependant, plusieurs limitations doivent être prises en compte. D’abord, les analyses sont longues et nécessitent un protocole rigoureux. Le profil devient partiel après quelques jours et certaines loci ne sont plus détectables. De plus, lorsqu’un insecte a ingéré du sang de plusieurs personnes, les signaux génétiques peuvent être mélangés, rendant l’interprétation plus complexe .
Les auteurs soulignent la nécessité de valider ces résultats sur des échantillons plus variés, avec davantage d’individus donneurs et différents kits STR/SNP commerciaux. Des essais in situ sur scènes de crime simulées seraient également souhaitables pour confirmer la robustesse de la méthode, notamment en lien avec d’autres insectes ou intermédiaires biologiques considérés en entomologie médico‑légale .
Conclusion
En résumé, cette étude démontre qu’on peut exploiter l’ADN humain conservé dans l’estomac de punaises de lit tropicales jusqu’à 45 jours après le repas, grâce à l’analyse STR et SNP. Bien que seule une extraction immédiate permette un profil complet, ces insectes constituent une ressource nouvelle et prometteuse pour la police scientifique, notamment dans les contextes où les méthodes traditionnelles échouent. Toutefois, l’approche exige des protocoles rigoureux, plus d’études de validation et une modélisation réaliste des scènes d’enquête avant toute utilisation judiciaire. Des recherches complémentaires permettront de déterminer comment intégrer cette stratégie au panel des outils forensiques à disposition des enquêteurs et scientifiques.
Sources :
Kamal, M. M. et al. (2023) – Human profiling from STR and SNP analysis of tropical bed bug (Cimex hemipterus) for forensic science, Scientific Reports, 13(1), 1173.
Chaitanya, L. et al. (2018) – HIrisPlex-S system for eye, hair and skin colour prediction from DNA, Forensic Science International: Genetics, 35, 123–134.
Asia News Network (2023) – Malaysian scientists discover bed bugs can play role in forensic investigations, consulter l’article.
ResearchGate – Publication originale – Human profiling from STR and SNP analysis of tropical bed bug Cimex hemipterus for forensic science, consulter l’article.
La criminalistiqueet les interventions d’urgence vivent actuellement une période charnière marquée par l’intégration croissante de technologies avancées telles que la photogrammétrie, la lasergrammétrie (LiDAR) et l’intelligence artificielle (IA). Ces technologies apportent non seulement une précision et une efficacité sans précédent mais ouvrent aussi de nouvelles perspectives d’investigation et d’intervention, modifiant profondément les méthodologies traditionnelles.
Photogrammétrie et Lasergrammétrie : des outils de précision
En qualité d’expert topographe et officier spécialiste de l’unité drone du Service Départemental d’Incendie et de Secours de Haute-Savoie (SDIS74), j’ai constaté directement comment ces outils améliorent la précision des relevés topographiques et facilitent l’analyse rapide des scènes complexes. La photogrammétrie permet la reconstruction en 3D d’environnements divers en utilisant des images aériennes capturées par des drones équipés de caméras haute résolution. Cela génère rapidement des modèles numériques de terrains détaillés, essentiels dans les interventions urgentes ou criminelles où chaque détail compte.
Levé de route par méthode photogrammétrique, en vraie coloration. Crédit : Arnaud STEPHAN – LATITUDE DRONE
Il est possible d’atteindre des niveaux de détail extrêmement élevés, permettant par exemple d’identifier des traces de pas par la profondeur laissée dans le sol.
La lasergrammétrie (LiDAR) complète efficacement la photogrammétrie en offrant une précision millimétrique grâce à l’émission de faisceaux laser qui scannent et modélisent l’environnement en trois dimensions. Cette technologie est particulièrement efficace dans les contextes complexes comme les zones boisées denses, les falaises abruptes ou les reliefs montagneux escarpés, où la photogrammétrie peut parfois rencontrer des difficultés à capturer tous les détails nécessaires.
Pour préciser davantage, le LiDAR présente généralement plus de bruit sur les terrains nus et les surfaces dures par rapport à la photogrammétrie, qui reste l’outil à privilégier dans ces cas-là. En revanche, dans les zones boisées, le LiDAR peut ponctuellement atteindre le sol et fournir ainsi des informations cruciales sur le relief, là où la photogrammétrie pourrait échouer.
La photogrammétrie ne fonctionne que de jour puisqu’elle exploite les données photographiques dans le spectre visible.
Suivant les altitudes de vol choisies et le type de capteur utilisé, il est possible d’atteindre des niveaux de détail extrêmement élevés, permettant par exemple d’identifier des traces de pas par la profondeur laissée dans le sol. Ces technologies sont d’ores et déjà employées pour figer précisément des scènes de crime. Traditionnellement, des scanners statiques étaient utilisés à cet effet, mais les drones permettent d’élargir considérablement le périmètre de captation tout en assurant une rapidité accrue. Cette rapidité est cruciale car il est souvent impératif de figer rapidement la scène avant tout changement météorologique.
Cependant, il est important de noter que la photogrammétrie ne fonctionne que de jour puisqu’elle exploite les données photographiques dans le spectre visible.
Levé topographique par méthode LIDAR et colorié selon les altitudes. Végétation différenciée en vert. Crédit : Arnaud STEPHAN – LATITUDE DRONE
L’intelligence Artificielle : vers une analyse automatisée et performante
La véritable révolution réside dans l’intégration de ces relevés géospatiaux à des systèmes intelligents capables d’analyser massivement des données visuelles avec rapidité et précision. À cet égard, le projet OPEN RESCUE, développé par ODAS Solutions en partenariat avec le SDIS74 et l’Université Savoie Mont-Blanc, constitue un cas exemplaire. Cette IA est alimentée par un jeu de données exceptionnel de près de 1,35 million d’images collectées grâce à différents types de drones (DJI Mavic 3, DJI Matrice 300, Phantom 4 PRO RTK, etc.) dans une diversité remarquable d’environnements, couvrant toutes les saisons.
Illustration des capacités d’OPEN RESCUE : une personne isolée l’hiver en montagne. Crédit : Arnaud STEPHAN – ODAS SOLUTIONS
La robustesse de l’IA OPEN RESCUE se traduit par un F1-score maximal de 93,6 %, un résultat remarquable validé par des opérations de terrain réelles. Le F1-score est un indicateur statistique utilisé pour mesurer la précision d’un système d’intelligence artificielle : il combine la précision (le nombre d’éléments correctement identifiés parmi toutes les détections) et le rappel (le nombre d’éléments correctement identifiés parmi tous ceux présents). Un score élevé signifie donc que l’IA parvient efficacement à détecter correctement un grand nombre d’éléments pertinents tout en évitant les fausses détections. Ce système intelligent est capable de détecter avec précision des individus ainsi que des indices indirects de présence humaine tels que vêtements abandonnés, véhicules immobilisés ou objets personnels, offrant ainsi une assistance précieuse et immédiate aux équipes de secours.
Captation des données d’entrainement OPEN RESCUE avec des pompiers du SDIS74 – Crédit : Arnaud STEPHAN – ODAS SOLUTIONS
L’arrivée de cette technologie transforme radicalement la façon dont les équipes mènent leurs recherches : à présent, il devient possible de ratisser méthodiquement et largement des zones entières, avec la possibilité de s’assurer qu’aucun élément pertinent n’a été identifié par l’IA dans ces zones. Bien que cela ne remplace pas les équipes cynophiles ni les autres méthodes traditionnelles, l’intelligence artificielle apporte une exhaustivité nouvelle et complémentaire à la démarche de recherche.
L’arrivée de cette technologie transforme radicalement la façon dont les équipes mènent leurs recherches.
Applications pratiques et résultats opérationnels
Sur le terrain, l’efficacité de ces technologies est largement démontrée. Les drones autonomes utilisés par notre unité peuvent couvrir efficacement jusqu’à 100 hectares en environ 25 minutes, avec un traitement des images réalisé quasiment en temps réel par OPEN RESCUE. Cela permet une réponse extrêmement rapide, garantissant une gestion optimale du temps critique lors des interventions d’urgence et des recherches de personnes disparues.
En outre, la capacité à documenter précisément les zones parcourues lors des opérations apporte un avantage significatif dans les contextes judiciaires. La possibilité d’utiliser ces modèles 3D précis et ces données analysées automatiquement comme preuves devant des tribunaux offre une transparence accrue aux procédures judiciaires et facilite grandement le travail des magistrats, enquêteurs et avocats.
Drone Matrice 300 DJI en vol en zone montagneuse – Crédit : Arnaud STEPHAN – LATITUDE DRONE
Contraintes d’exploitation et cadre réglementaire
L’utilisation opérationnelle des drones et de ces technologies avancées est soumise à plusieurs contraintes réglementaires strictes, notamment en termes d’autorisations de vol, de respect de la vie privée, de gestion des données et de sécurité aérienne. En France, les drones sont réglementés par la Direction Générale de l’Aviation Civile (DGAC) qui impose des scénarios de vol spécifiques et des protocoles précis à suivre lors des missions.
De plus, les contraintes techniques d’exploitation incluent la nécessité d’avoir des pilotes formés et régulièrement entraînés, capables de gérer des missions en toute sécurité et efficacité. Enfin, tous les six mois environ, du nouveau matériel innovant voit le jour, apportant constamment des améliorations significatives telles que des vitesses de captation accrues, des capteurs optiques et thermiques de meilleure qualité, ainsi que la miniaturisation des systèmes LiDAR embarqués.
Conclusion
En définitive, l’intégration croissante des technologies avancées constitue une avancée déterminante dans les sciences forensiqueset les interventions d’urgence, malgré les contraintes opérationnelles et réglementaires à considérer. Leur application pratique améliore non seulement l’efficacité et la rapidité des opérations mais ouvre aussi de nouvelles possibilités d’analyse judiciaire, confirmant ainsi leur rôle essentiel dans la sécurité publique et la justice moderne.
Quand le corps ne parle plus, les insectes livrent la vérité. À la croisée de la toxicologie et de l’entomologie, l’entomotoxicologie fait de ces petits organismes des témoins clés capables de révéler ce que le temps tente d’effacer.
L’augmentation des décès liés à la drogue, qu’ils soient causés par une consommation accidentelle, une overdose ou une intoxication suicidaire, suscite un intérêt croissant pour la médecine légale. Comme l’indique clairement son nom, l’entomotoxicologie se situe à l’intersection de la toxicologie et de l’entomologie, deux disciplines qui peuvent apporter à la justice des éléments cruciaux pour la manifestation de la vérité. L’entomotoxicologie remplit deux rôles principaux : elle repose sur le potentiel des insectes à servir d’indicateurs de substances toxiques présentes dans les tissus en décomposition et étudie l’impact de ces substances sur le développement des arthropodes, ce qui permet d’affiner les estimations médico-légales de l’intervalle post-mortem (IPM), c’est à dire le temps écoulé entre le moment du décès et la découverte du corps. Les insectes (comme notamment les larves de mouches à viande) deviennent donc à ce stade intéressants à analyser
Les insectes au service de la vérité
Dans certains cas de décès, notamment ceux liés à l’abus de drogues ou au suicide, le corps de la victime peut rester non découvert pendant plusieurs jours ou mois. La décomposition commence immédiatement après la mort, libérant des gaz et des liquides qui génèrent des odeurs de putréfaction. Ces effluents attirent rapidement les insectes tels que les mouches, qui pondent leurs œufs dans les orifices du corps. Les larves qui en émergent se nourrissent de la chair en décomposition, accélérant ainsi le processus de dégradation [L’Entomologie médico-légale – Damien CHARABIDZE].
À mesure que la colonisation par ces insectes s’intensifie, elle accélère la décomposition progressive des tissus corporels. Cette dégradation entraîne également l’altération des fluides et tissus organiques, tels que l’urine, le sang et le foie, rendant les matrices traditionnelles utilisées pour les analyses toxicologiques médico-légales indisponibles ou inadaptées pour des résultats fiables. Les insectes (comme notamment les larves de mouches à viande) deviennent donc à ce stade intéressants à analyser.
Découverte de larves sur un corps en décomposition
Grâce à leur abondance, leur facilité de prélèvement et leur résistance aux conditions environnementales, les larves d’insectes nécrophages peuvent être récoltées dans différents endroits du corps où elles sont présentes. Ce choix est essentiel, car la redistribution ante-mortem et post-mortem des substances (médicaments, drogues, toxines) dans le corps peut varier selon les zones, conduisant ainsi à des différences de résultats qualitatifs et quantitatifs dans les insectes. Prélever plusieurs échantillons issus de zones variées améliore donc la précision et la fiabilité des résultats qualitatifs. De nombreuses études ont démontré leur potentiel à révéler des substances toxiques, là où les méthodes traditionnelles ont échoué. [1-4] A ce jour, les analyses entomotoxicologiques permettent uniquement une détection qualitative des substances toxiques présentes dans l’organisme du défunt. Cela signifie que l’on peut confirmer la présence ou l’absence d’un médicament, d’une drogue ou d’un poison dans les tissus consommés par les larves, mais pas encore en déterminer la concentration de façon fiable.
Ces résultats peuvent donc uniquement valider une hypothèse d’intoxication. En revanche, déterminer si la quantité présente était létale n’est pas encore possible car cela nécessiterait une approche quantitative plus fiable.
Par ailleurs, le toxicologue doit aussi garder à l’esprit que ces petits organismes sont capables de métaboliser les substances et de produire des métabolites similaires à ceux générés par le corps humain, malgré la complexité habituelle de ces transformations chez l’homme. Les études sur ce phénomène ne sont qu’à leurs débuts.
Les méthodes entomologiques médico-légales peuvent aider à déterminer le temps minimum écoulé entre la mort et la découverte du cadavre
Insectes drogués, datation erronée !
Lors d’une enquête criminelle, un élément clé à considérer, en particulier dans les cas où les corps sont décomposés, est l’intervalle post-mortem minimum (IPMmin). Il s’agit du temps écoulé entre le moment où les premiers insectes ont colonisé le corps et celui de sa découverte. (Fig. 1)
Fig. 1. Schéma simplifié illustrant la différence entre l’IPM et l’IPMmin.
On parle d’un minimum car cette estimation ne commence pas au moment exact du décès, mais à celui de la première colonisation par les insectes, qui survient peu après la mort, entre quelques minutes à plusieurs heures selon les facteurs environnementaux. Après la disparition de la rigidité cadavérique (rigor mortis), des lividités cadavériques (livor mortis) et de l’alignement de la température corporelle avec celle de l’environnement, il devient plus difficile d’estimer le temps écoulé depuis la mort. Le corps entre alors en phase de putréfaction, durant laquelle les méthodes entomologiques médico-légales peuvent aider à déterminer le temps minimum écoulé entre la mort et la découverte du cadavre.
Toutefois, si la victime a consommé des drogues avant son décès, cela peut avoir un impact significatif sur le développement des insectes nécrophages en accélérant ou retardant leur croissance
Les entomologistes médico-légaux mesurent la taille et étudient le stade de développement des larves présentes sur le corps et, en tenant compte de facteurs tels que la température ambiante, l’espèce d’insectes observée et les données sur la succession des espèces nécrophages [5, 6], comparent ces données avec le cycle de vie des insectes concernés. (Fig. 2)
Fig. 2. Cycle de développement des mouches (diptères) nécrophages.
Comme certaines espèces colonisent un cadavre très rapidement après la mort, cela leur permet de déterminer le jour de la première colonisation et ainsi d’estimer un IPMmin.
Toutefois, si la victime a consommé des drogues avant son décès, cela peut avoir un impact significatif sur le développement des insectes nécrophages en accélérant ou retardant leur croissance. La comparaison avec leur cycle de vie est donc biaisée, amenant à des surestimations ou des sous estimations de l’IPMmin. C’est pourquoi, des études ont été mises en œuvre afin d’évaluer l’impact de certaines drogues sur le développement des insectes afin de pouvoir, dans le futur, prendre en compte ces intervalles de changeabilité pour estimer correctement l’IPMmin [7-12]. La façon dont les insectes transforment ou non les substances toxiques qu’ils ingèrent est encore incertaine.
Les limites de l’entomotoxicologie
Même si les insectes peuvent livrer des informations précieuses, l’entomotoxicologie n’est pas une science sans contraintes.
Tout d’abord, l’environnement joue un rôle important : le développement des insectes dépend fortement de la température, de l’humidité, du climat… Si le corps est par exemple exposé à une chaleur extrême ou au vent, la colonisation des insectes peut différer. La température ambiante influence directement la survie et le développement des insectes. Des conditions trop extrêmes peuvent les tuer ou ralentir leur croissance, faussant ou rendant impossible les analyses.
Par ailleurs, au-delà de leur développement, la colonisation des insectes peut elle aussi être perturbée. Par exemple, lorsqu’un corps est immergé dans l’eau ou recouvert (par des vêtements, des bâches, de la terre, des débris, etc.), l’accès des insectes est entravé, ce qui peut modifier la dynamique de colonisation et, par conséquent, leur manière de se nourrir du corps.
Autre challenge en entomotoxicologie : La façon dont les insectes transforment ou non les substances toxiques qu’ils ingèrent est encore incertaine. Contrairement aux humains, leur métabolisme et leur manière de stocker ou d’éliminer les substances toxiques ne sont pas bien compris. Résultat : il est difficile d’établir une corrélation entre la quantité de substances toxiques trouvées dans les insectes et la dose consommée par la personne décédée, rendant difficile la confirmation d’une dose létale dans l’organisme et donc la preuve et l’acceptation d’une hypothèse préalable d’intoxication mortelle.
De plus, les méthodes pour extraire, purifier et analyser les substances toxiques dans les tissus des larves d’insectes ne sont pas encore standardisées. Chaque étude doit être adaptées en fonction des substances recherchées.
Conclusion
L’entomotoxicologie médico-légale illustre donc comment les insectes peuvent devenir à l’avenir des témoins clés dans la résolution d’enquêtes criminelles. Elle ouvre des perspectives prometteuses pour la médecine légale, en élargissant le champ des possibilités lorsqu’aucun autre échantillon biologique n’est exploitable. Avec les progrès de la recherche, l’entomotoxicologie pourrait devenir un outil encore plus précis, non seulement qualitatif mais aussi quantitatif et essentiel pour contribuer à la manifestation de la vérité dans des affaires médico-légales réelles.
Bibliographie :
[1] Campobasso, C., Gherardi, M., Caligara, M., Sironi, L., & Introna, F. (2004c). Drug analysis in blowfly larvae and in human tissues : a comparative study. International Journal Of Legal Medicine, 118(4). https://doi.org/10.1007/s00414-004-0448-1
[2] Groth, O., Franz, S., Fels, H., Krueger, J., Roider, G., Dame, T., Musshoff, F., & Graw, M. (2021). Unexpected results found in larvae samples from two postmortem forensic cases. Forensic Toxicology, 40(1), 144‑155. https://doi.org/10.1007/s11419-021-00601-x
[3] Levine, B., Golle, M., & Smialek, J. E. (2000b). An unusual drug death involving maggots. American Journal Of Forensic Medicine & Pathology, 21(1), 59‑61. https://doi.org/10.1097/00000433-200003000-00010
[4] Beyer, J., Enos, W., & Stajić, M. (1980b). Drug Identification Through Analysis of Maggots. Journal Of Forensic Sciences, 25(2), 411‑412. https://doi.org/10.1520/jfs12147j
[5] Lutz, L., Verhoff, M. A., & Amendt, J. (2018). Environmental factors influencing flight activity of forensically important female blow flies in Central Europe. International Journal Of Legal Medicine, 133(4), 1267 1278. https://doi.org/10.1007/s00414-018-1967-5
[6] Matuszewski, S. (2021). Post-Mortem Interval Estimation Based on Insect Evidence : Current Challenges. Insects, 12(4), 314. https://doi.org/10.3390/insects12040314
[7] Boulkenafet, F., Dob, Y., Karroui, R., Al-Khalifa, M., Boumrah, Y., Toumi, M., & Mashaly, A. (2020). Detection of benzodiazepines in decomposing rabbit tissues and certain necrophagic dipteran species of forensic importance. Saudi Journal Of Biological Sciences, 27(7), 1691‑1698. https://doi.org/10.1016/j.sjbs.2020.04.044
[8] Gosselin, M., Di Fazio, V., Wille, S. M., Del Mar Ramírez Fernandez, M., Samyn, N., Bourel, B., & Rasmont, P. (2011b). Methadone determination in puparia and its effect on the development of Lucilia sericata (Diptera, Calliphoridae). Forensic Science International, 209(1‑3), 154‑159. https://doi.org/10.1016/j.forsciint.2011.01.020
[9] El-Samad, L. M., El-Moaty, Z. A., & Makemer, H. M. (2011). Effects of Tramadol on the Development of Lucilia sericata (Diptera : Calliphoridae) and Detection of the Drug Concentration in Postmortem Rabbit Tissues and Larvae. Journal Of Entomology, 8(4), 353‑364. https://doi.org/10.3923/je.2011.353.364
[10] Bourel, B., Hédouin, V., Martin-Bouyer, L., Bécart, A., Tournel, G., Deveaux, M., & Gosset, D. (1999). Effects of Morphine in Decomposing Bodies on the Development of Lucilia sericata (Diptera : Calliphoridae). Journal Of Forensic Sciences, 44(2), 354‑358. https://doi.org/10.1520/jfs14463j
[11] Zou, Y., Huang, M., Huang, R., Wu, X., You, Z., Lin, J., Huang, X., Qiu, X., & Zhang, S. (2013). Effect of ketamine on the development of Lucilia sericata (Meigen) (Diptera : Calliphoridae) and preliminary pathological observation of larvae. Forensic Science International, 226(1‑3), 273‑281. https://doi.org/10.1016/j.forsciint.2013.01.042
[12] O’Brien, C., & Turner, B. (2004). Impact of paracetamol on Calliphora vicina larval development. International Journal Of Legal Medicine, 118(4), 188‑189. https://doi.org/10.1007/s00414-004-0440-9
En 2024, notre concept littéraire unique alliant polar et ouvrage didactique a enfin pu voir le jour. Il est le fruit de nombreux mois de travail, de rencontres passionnantes avec des professionnels chevronnés, d’un partage d’informations et d’une véritable immersion dans le quotidien de nombreux experts de la scène judiciaire. Notre ambition dans cet ouvrage était de balayer l’intégralité des étapes d’une enquête criminelle avec la volonté de dévoiler au grand public toutes les strates de la grande machine judiciaire, de la découverte d’une scène de crime violente jusqu’au verdict de la cour d’assises.Nous remercions chaleureusement tous les experts qui se sont prêtés au jeu et dont les témoignages apportent à cet ouvrage toute son authenticité. Ce fut une belle aventure !
1 – Pour commencer, pourriez-vous nous décrire en quelques mots votre parcours et les motivations qui vous ont poussés à écrire ce livre ?
Sébastien Aguilar : Je travaille dans la Police Scientifique depuis déjà treize ans, au sein de la Préfecture de Police de Paris. J’ai eu l’opportunité de co-écrire un premier ouvrage sur la Police Scientifique en 2017, et de fonder une plateforme dédiée aux sciences forensiques, ForenSeek®, qui comprend notamment une préparation au concours de Technicien de Police Technique et Scientifique. Depuis ma première affectation, j’ai toujours aimé échanger autour de ce métier extraordinaire qui, à mes yeux, reste méconnu du grand public. Les dessous d’une enquête judiciaire sont souvent insoupçonnés, et j’ai pu constater à quel point les enquêteurs sacrifient une partie de leur vie personnelle pour faire aboutir des investigations qui peuvent s’étendre sur plusieurs jours, voire plusieurs semaines. Avec ce nouvel ouvrage, nous avons souhaité mettre en lumière toute la complexité de l’enquête criminelle : la quantité impressionnante d’indices à rassembler, la nécessité d’organiser toutes ces informations et l’importance de les interpréter correctement pour faire éclater la vérité. C’était pour nous le moyen de rendre hommage à tous ceux qui œuvrent dans l’ombre et dont le travail est essentiel, notamment pour les victimes.
Justine Picard : mon parcours est un peu plus atypique. J’ai évolué pendant presque 10 ans dans le secteur du marketing et de la communication. C’est à l’aube de mes 30 ans, pressée par l’envie de faire le métier qui m’avait toujours tenté, que j’ai décidé de passer le concours de la Police Technique et Scientifique. En 2019, j’ai intégré le groupe d’intervention du SRPTS de PARIS et le virage à 360 degrés s’est enclenché ! J’ai découvert un univers fascinant, technique et exigeant. Au fil des différentes affaires sur lesquelles j’ai eu l’occasion d’intervenir, j’ai ressenti assez rapidement une forme de frustration… Dans la PTS, nous avons nos protocoles, notre vision et notre manière de travailler. Sur les lieux, nous avançons main dans la main avec les enquêteurs, mais très vite nous n’avons plus de visibilité sur les suites de l’affaire. C’est logique, le processus judiciaire est ainsi fait et chacun doit jouer son rôle pour faire avancer les choses le plus rapidement et le plus efficacement possible. Mais si j’accepte cette situation sur le plan professionnel, à titre personnel, cela génère un véritable sentiment d’inachevé. D’où ma motivation pour réaliser ce projet littéraire : qui ? Quand ? Quoi ? Comment ? Savoir et comprendre tous les tenants et les aboutissants d’une enquête criminelle, entrer dans le quotidien de tous ces experts de l’ombre et plus largement, appréhender le fonctionnement judiciaire de notre pays.
2 – En quoi votre livre se distingue-t-il des autres ouvrages traitant de la criminologie et des enquêtes criminelles ?
Justine Picard : principalement par le format que nous avons choisi : trouver le parfait équilibre entre le récit technique et la partie romancée. Il existe de nombreux ouvrages dédiés à la Police Nationale, la Gendarmerie Nationale ou encore aux professionnels de l’appareil judiciaire, sous forme de témoignages, de roman policier, de livres techniques… Mais aucun ne fait véritablement le lien entre ces différents univers ! Pour nous, c’est une manière d’accrocher le lecteur et de le tenir en haleine tout en l’entraînant dans l’ensemble du processus judiciaire grâce à des informations sourcées et des témoignages clés. Sur le marché on trouve souvent soit l’un, soit l’autre !
Sébastien Aguilar : Notre ambition était de créer un ouvrage à la fois didactique et captivant, qui s’éloigne du format un peu austère des traditionnels manuels de droit pénal. Nous avons donc choisi de multiplier les approches : en insérant des encarts axés sur des expertises particulières, en proposant des entretiens avec différents acteurs du système judiciaire (magistrats, experts, avocats, psycho-criminologues, jurés d’assises, etc.) et en intégrant des éléments concrets tels que des fadettes, des procès-verbaux, des rapports d’autopsie ou encore des rapports de police scientifique. L’idée était vraiment de plonger le lecteur au cœur de l’action, de lui montrer, de la manière la plus vivante possible, comment une enquête se construit étape par étape, et quels sont les outils mobilisés par les enquêteurs. Je suis d’ailleurs très touché que Dominique RIZET, chroniqueur judiciaire chevronné, ait salué dans sa préface le caractère « didactique, documenté et complet » de cet ouvrage, qu’il décrit comme « unique en son genre ».
3 – Pourquoi avoir fait le choix d’écrire le récit de cette affaire sous forme de roman policier ?
Justine Picard : Nous souhaitions avant tout apporter du suspens au récit et sortir d’une approche purement technique. L’autre point, important pour nous, était de pouvoir s’adresser au plus grand nombre, « spécialistes et « non spécialistes » en leur permettant de s’immerger plus facilement dans une enquête difficile avec de multiples actes techniques. Les rebondissements de l’affaire, les témoignages, et l’envie de connaître la suite de l’histoire, sont autant d’outils permettant d’intégrer en douceur des notions complexes. L’objectif pour nous étant que le lecteur termine l’ouvrage avec la satisfaction d’une histoire bien ficelée tout en ayant acquis un bagage pédagogique complet grâce aux prises de paroles de véritables experts et aux nombreuses informations techniques présentées.
Sébastien Aguilar : Nous avons choisi la forme narrative parce qu’elle permet de plonger le lecteur dans l’intensité et l’émotion qui se dégagent de ce type d’enquête. Cette narration rend possible la transmission de messages forts, comme la confrontation à la mort, le rôle crucial de l’autopsie médico-légale ou encore la fatigue chronique qui pèse sur chaque protagoniste au fil de l’investigation. Derrière la combinaison de l’expert en police scientifique, la robe du magistrat ou de l’avocat, la blouse du médecin-légiste ou l’écran de l’enquêteur, il y a des hommes et des femmes, avec leurs forces et leurs faiblesses. Le choix d’un roman policier nous permettait de mettre en lumière toute cette dimension humaine, trop souvent effacée par l’aspect purement technique de l’enquête.
4 – l’affaire présentée dans votre ouvrage est-elle complètement fictive ou inclue-t-elle des éléments / procédés d’analyse réels ?
Sébastien Aguilar / Justine Picard : Nous nous sommes effectivement inspirés d’une affaire criminelle bien réelle pour environ 30 % du récit, puis nous y avons ajouté une multitude d’éléments inédits afin d’illustrer la diversité et la modernité des techniques d’investigation actuelles. On nous demande parfois si nous ne craignons pas de dévoiler trop d’informations qui pourraient profiter à des criminels. Mais en réalité, tout ce que nous présentons dans cet ouvrage est déjà accessible sur internet ou à travers les films et les séries télévisées. De nos jours, tout le monde sait que l’on peut être trahi par ses empreintes digitales, son ADN, son odeur, les fibres de ses vêtements, ses données numériques, ou encore ses empreintes de semelles sur les lieux…. Pour dire les choses simplement : la meilleure manière de ne pas « se faire prendre », c’est encore de ne pas commettre d’infraction…
5 – Quels sont les éléments clés ou les découvertes les plus surprenantes que vos lecteurs trouveront dans “Au cœur de l’enquête criminelle” ?
Sébastien Aguilar / Justine Picard : Dans Au cœur de l’enquête criminelle, nous révélons des éléments fascinants qui vont bouleverser les méthodes d’investigation dans les années à venir. Par exemple, nous explorons des traces numériques encore peu exploitées mais qui joueront un rôle clé dans les enquêtes futures : les objets connectés, les véhicules de nouvelle génération et la vidéosurveillance intelligente. Ces nouvelles sources de preuves permettent aujourd’hui de reconstituer des scènes de crime avec une précision incroyable ! Par ailleurs, nous décortiquons le fonctionnement des analyses ADN : comment sont-elles réalisées ? Quels sont les critères de comparaison des profils génétiques ? Grâce à cet ouvrage, le lecteur découvrira les coulisses des laboratoires spécialisés en génétique forensique et comprendra comment un simple échantillon biologique peut faire basculer une enquête.
6 – Votre livre ne s’arrête pas à l’enquête judiciaire mais comprend également une partie sur le déroulement d’un procès en cours d’assises. Pour quelle raison ?
Justine Picard : Le procès représente une étape cruciale du processus judiciaire ! Tout le travail réalisé en amont par les différents experts de l’enquête criminelle prend toute sa dimension au tribunal avec la confrontation des accusés avec les éléments de preuves qui ont été réunis. C’est là que tout se joue ! Il nous semblait par ailleurs intéressant de lever le voile sur le fonctionnement de la justice, souvent incompris du grand public, et notamment de bien expliquer le rôle des différents protagonistes (avocat, procureur, juge d’instruction, etc).
Sébastien Aguilar : Pour avoir assisté à plusieurs procès d’assises, j’ai toujours été impressionné par cette mise en scène très théâtral et par la capacité de certains enquêteurs et experts qui, lorsqu’ils sont appelés à la barre, peuvent témoigner pendant plusieurs heures sans discontinuer et sans note. Il était important pour nous de montrer comment se déroulait un procès d’assises : Comment sont sélectionnés les jurés ? Qui comparait à la barre ? Est-ce que l’on doit s’adresser au président de la Cour d’Assises en l’appelant « votre honneur » ? Les avocats interrompent-ils leur confrère ou consœur d’un « objection votre honneur ! » ? Comment se déroule la phase de délibération ? etc.
7 – Si vous deviez décrire votre livre en un mot ?
Sébastien Aguilar : Dans cette affaire fictive, je me suis vraiment rendu sur les berges de Seine, lieu de découverte du corps de la victime, où j’ai effectué un prélèvement qui a été analysé par une Capitaine de l’Institut de Recherche Criminelle de la Gendarmerie Nationale (IRCGN). Le résultat de cette analyse a été déterminante dans notre enquête. Enfin, cet ouvrage a été le moyen de faire intervenir, sous forme d’interviews ou de récits immersifs, de vrais spécialistes des enquêtes criminelles. Parmi ces derniers :
Toute prise de décision — et en particulier celle des experts — implique l’examen, l’évaluation et l’intégration d’informations. La recherche a montré que l’ordre dans lequel l’information est présentée joue un rôle crucial dans le processus décisionnel et dans leurs résultats. En effet, une même donnée, présentée dans un ordre différent, peut mener à des décisions divergentes [1,2]. Puisque l’information doit nécessairement être considérée selon une certaine séquence, optimiser cet ordre devient essentiel pour optimiser la qualité des décisions. Adopter une séquence ou une autre est inévitable — un ordre de traitement est toujours utilisé — et, dès lors que la séquence adoptée influence le raisonnement, il est crucial de réfléchir à la manière la plus pertinente d’organiser les informations.
Dans le domaine des sciences forensiques, les approches existantes visant à optimiser l’ordre de traitement de l’information (comme le dévoilement séquentiel [3] ou le dévoilement linéaire et séquentiel — LSU [4]) présentent des limitations, tant en raison de leur champ d’application restreint à certains types de décisions que de leur objectif exclusif de réduction des biais, sans viser une optimisation plus globale de la prise de décision en contexte forensique. Nous introduisons ici le Dévoilement linéaire et séquentiel — version étendue (LSU-E), une approche applicable à toutes les décisions forensiques, et non plus limitée à un type particulier. En outre, le LSU-E ne se contente pas de minimiser les biais : il permet également de réduire le bruit et d’améliorer la qualité globale des décisions forensiques.
Le fondement des biais cognitifs
Tout processus décisionnel repose sur le cerveau humain et sur les mécanismes cognitifs. L’un des facteurs essentiels dans ce processus concerne l’ordre dans lequel l’information est reçue. Il est en effet bien établi que les individus ont tendance à mieux retenir — et à être plus fortement influencés par — les premières informations d’une séquence, en comparaison avec celles qui suivent — un phénomène connu sous le nom d’effet de primauté (primacy effect) [5,6]). Par exemple, lorsqu’on demande à une personne de mémoriser une liste de mots, elle retiendra plus facilement ceux figurant en début de liste que ceux placés au milieu (voir également l’effet de récence [7]).
Fait crucial, les premières informations d’une séquence ne sont pas seulement mieux mémorisées : elles influencent également le traitement des informations suivantes de multiples façons (voir Fig. 1). Ces premières données peuvent générer des premières impressions puissantes, difficiles à remettre en question [8] ; elles suscitent des hypothèses qui orientent l’attention sélective, déterminant ainsi quelles informations seront prises en compte ou négligées [[9], [10], [11], [12]] ; et elles peuvent déclencher une série d’effets décisionnels bien documentés tels que : biais de confirmation, escalade d’engagement, inertie décisionnelle, vision tunnel, persistance des croyances, état d’esprit figé (mind set) et effet d’ancrage [[13], [14], [15], [16], [17], [18], [19]].
Ces phénomènes ne se limitent pas aux décisions en science forensique : ils s’appliquent également aux experts médicaux, aux enquêteurs de police, aux analystes financiers, aux services de renseignement militaire — et plus largement à toute personne impliquée dans une prise de décision.
Fig 1 : Illustration de l’effet d’ordre. Prenons une séquence de trois symboles : A–B–14. Si cette séquence est lue de gauche à droite, le symbole central sera naturellement interprété comme un B. En revanche, si elle est lue de droite à gauche, ce même symbole sera perçu comme un 13. Cela illustre à quel point l’interprétation d’une information peut dépendre des éléments qui la précèdent : l’ordre de présentation influence la perception.
De nombreuses études ont démontré à plusieurs reprises que présenter une même information dans un ordre différent peut conduire les décideurs à tirer des conclusions différentes. De tels effets ont été observés dans une grande variété de domaines, allant de la dégustation alimentaire [20] à la prise de décision par les jurés [21,22], en passant par la réfutation des discours conspirationnistes (notamment les théories du complot anti-vaccins [23]), démontrant ainsi que l’ordre dans lequel l’information est présentée joue un rôle fondamental.
Par ailleurs, ces effets d’ordre ont été spécifiquement mis en évidence dans le domaine de la science forensique. Par exemple, Klales et Lesciotto [24], ainsi que Davidson, Rando et Nakhaeizadeh [25], ont montré que l’ordre dans lequel les os d’un squelette sont analysés (par exemple : crâne avant le bassin) peut influencer l’estimation du sexe biologique.
Contexte des biais
Toute décision est susceptible d’être influencée par des biais cognitifs — c’est-à-dire à des déformations systématiques du jugement [26]. Ce type de biais ne doit pas être confondu avec un biais discriminatoire intentionnel. Le terme « biais », tel qu’il est employé ici, fait référence aux biais cognitifs qui affectent chacun d’entre nous, le plus souvent de manière involontaire et inconsciente [26,27].
Bien que de nombreux experts croient à tort être immunisés contre les biais cognitifs [28], ils y sont, à certains égards, encore plus sensibles que les non-experts [[27], [29], [30]]. En effet, l’impact des biais cognitifs sur la prise de décision a été documenté dans de nombreux domaines d’expertise, allant des enquêteurs judiciaires et des magistrats, aux experts en assurance, aux évaluateurs psychologiques, aux inspecteurs en sécurité et aux médecins [26,[31], [32], [33], [34], [35], [36]] — ainsi que, de manière spécifique, en science forensique [30].
Aucun champ de la science forensique — ni d’ailleurs aucun autre domaine — n’est à l’abri des biais.
Les biais en science forensique
L’existence et l’influence des biais cognitifs en sciences forensiques sont aujourd’hui largement reconnues (on parle notamment de « biais de confirmation en science forensique » [[27], [37], [38]]). Aux États-Unis, par exemple, la National Academy of Sciences [39], le President’s Council of Advisors on Science and Technology [40], ainsi que le National Commission on Forensic Science [41] ont tous reconnu les biais cognitifs comme un enjeu réel et important dans le processus décisionnel en science forensique. Des constats similaires ont été établis dans d’autres pays à travers le monde — par exemple, au Royaume-Uni, le Forensic Science Regulator a émis des recommandations visant à éviter les biais dans les travaux forensiques [42], tout comme en Australie [43].
Par ailleurs, les effets des biais ont été observés et reproduits dans de nombreuses disciplines forensiques (par exemple : dactyloscopie, pathologie médico-légale, génétique, balistique, forensique numérique, expertise d’écriture, psychologie légale, anthropologie forensique, et investigation de la scène de crime, entre autres [44]), y compris chez des experts en exercice dans ces domaines [[30], [45], [46], [47]]. En résumé, aucun champ de la science forensique — ni d’ailleurs aucun autre domaine — n’est à l’abri des biais.
Réduction des biais en sciences forensiques
Bien que la nécessité de lutter contre les biais en science forensique soit aujourd’hui largement reconnue, y parvenir concrètement dans la pratique constitue un tout autre défi. Dans le cadre des contraintes pragmatiques et opérationnelles des scènes de crime et des laboratoires de police scientifique, la réduction des biais ne va pas toujours de soi [48]. Étant donné que la simple prise de conscience et la volonté individuelle sont insuffisantes pour contrer les biais [27], il est indispensable de développer des contre-mesures à la fois efficaces et applicables sur le terrain.
La méthode du dévoilement linéaire et séquentiel de l’information (Linear Sequential Unmasking, LSU [4]) vise à réduire les biais en régulant le flux et l’ordre dans lequel l’information est révélée, de manière à ce que les décisions forensiques reposent uniquement sur les éléments de preuve et les informations pertinentes et objectives. Concrètement, la LSU exige que les décisions comparatives forensiques commencent par l’examen et la documentation des traces issues de la scène de crime (l’élément « de question » ou matériel inconnu), de façon indépendante, avant toute exposition au matériel de référence (le matériel connu, provenant d’un suspect ou d’un object). L’objectif est de minimiser l’effet potentiellement biaisant de l’exposition au matériel de référence sur l’interprétation des traces issues de la scène de crime (voir Niveau 2, Fig. 2). La LSU garantit ainsi que ce sont les éléments de preuve eux-mêmes — et non le profil du suspect ou caractéristiques d’un objet — qui orientent la décision forensique.
Cela est d’autant plus crucial que les éléments issus de la scène de crime sont particulièrement vulnérables aux biais, du fait de leur qualité et quantité d’information souvent limitées, ce qui les rend plus ambigus et susceptibles d’interprétations variables — contrairement aux matériels de référence, généralement plus complets. En procédant d’abord à l’examen du matériel indiciaire provenant de la scène, la LSU réduit le risque de raisonnement circulaire dans le processus décisionnel comparatif, en évitant que l’on ne raisonne « à rebours » depuis l’objet ou le suspect vers la trace.
Fig. 2. Sources de biais cognitifs pouvant survenir lors de l’échantillonnage, des observations, des stratégies d’analyse, des tests et/ou des conclusions, et qui affectent même les experts. Ces sources de biais sont organisées selon une taxonomie en trois catégories : les sources propres au cas (Catégorie A), les sources propres à l’individu (Catégorie B), et les sources liées à la nature humaine (Catégorie C).
Limites de la méthode LSU
Par nature, la méthode LSU est limitée aux décisions comparatives, dans lesquelles des éléments provenant de la scène de crime (comme des traces papillaires ou des écrits manuscrits) sont comparés à un élément de référence ou à un suspect. Cette approche a d’abord été développée pour réduire les biais spécifiquement dans l’interprétation forensique de l’ADN (dévoilement séquentiel [3]). Dror et al. [4] ont ensuite élargi cette méthode à d’autres domaines forensiques comparatifs (empreintes digitales, armes à feu, écriture manuscrite, etc.) et ont proposé une approche équilibrée permettant la révision des jugements initiaux, mais dans des limites bien définies.
La méthode LSU présente donc deux limites principales : premièrement, elle ne s’applique qu’à un ensemble restreint de décisions comparatives (telles que la comparaison de profils ADN ou d’empreintes digitales). Deuxièmement, sa fonction se limite à la réduction des biais, sans agir sur la variabilité aléatoire (le « bruit ») ni améliorer plus globalement la qualité des décisions.
Dans cet article, nous introduisons une version étendue : le dévoilement linéaire et séquentiel — version étendue (LSU-E). Le LSU-E constitue une approche applicable à toutes les décisions forensiques, et non plus seulement aux décisions comparatives. De plus, le LSU-E va au-delà de la simple réduction des biais : il permet également de diminuer le bruit et d’améliorer la qualité des décisions de manière générale, en optimisant cognitivement la séquence d’accès à l’information, de façon à maximiser son utilité et, ce faisant, à produire des décisions plus fiables et de meilleure qualité.
Dévoilement linéaire et séquentiel – version étendue (LSU-E)
Au-delà du domaine forensique comparatif
La méthode LSU, dans sa forme actuelle, n’est applicable qu’aux domaines forensiques reposant sur la comparaison d’éléments de preuve avec des éléments de référence spécifiques (par exemple, le profil ADN ou les empreintes digitales d’un suspect — voir Niveau 2 dans la Fig. 2). Comme indiqué précédemment, le problème réside dans le fait que ces éléments de référence peuvent influencer la perception et l’interprétation des traces, au point que l’analyse d’un même élément de preuve peut varier selon la présence et la nature de l’élément de référence — et la méthode LSU vise précisément à réduire ce biais en imposant un raisonnement linéaire plutôt que circulaire.
Il risque de formuler des hypothèses et attentes a priori, ce qui peut orienter de manière biaisée sa perception, son interprétation de la scène et, en conséquence, les traces qu’il choisira ou non de collecter.
Cependant, de nombreux jugements forensiques ne reposent pas sur la comparaison entre deux stimuli. Par exemple, la criminalistique numérique, la pathologie médico-légale et l’investigation de la scène de crime nécessitent des prises de décision qui ne s’appuient pas sur la confrontation d’une trace à un suspect identifié. Même si ces domaines ne mettent pas en jeu une « cible » ou un stimulus de comparaison, ils sont néanmoins exposés à des informations contextuelles biaisantes susceptibles d’induire des attentes problématiques et des processus cognitifs descendants — et la version étendue LSU-E offre un moyen de minimiser ces effets.
Prenons, par exemple, le cas de la police scientifique. Les techniciens de scène de crime reçoivent souvent des informations sur la scène avant même d’y accéder physiquement, telles que la cause présumée du décès (homicide, suicide, accident) ou des hypothèses d’enquête (par exemple, le témoignage d’un témoin affirmant que le cambrioleur est entré par la fenêtre arrière, etc.). Lorsqu’un enquêteur reçoit ces éléments en amont de son observation directe de la scène, il risque de formuler des hypothèses et attentes a priori, ce qui peut orienter de manière biaisée sa perception, son interprétation de la scène et, en conséquence, les traces qu’il choisira ou non de collecter.
La même problématique s’applique à d’autres domaines non comparatifs comme la pathologie médico-légale, l’investigation d’incendies ou la criminalistique numérique. Par exemple, informer un expert en incendies avant même qu’il n’examine la scène qu’un bien immobilier était sur le marché depuis deux ans sans trouver d’acquéreur, ou que le propriétaire l’avait récemment assuré, peut orienter ses analyses et ses conclusions.
La lutte contre les biais dans ces domaines est d’autant plus complexe que les experts ont besoin d’un certain niveau d’information contextuelle pour exercer leur travail (contrairement, par exemple, aux experts en empreintes digitales, en balistique ou en ADN, qui peuvent effectuer leurs comparaisons avec un minimum de contexte).
L’objectif du LSU-E n’est pas de priver les experts des informations nécessaires, mais de réduire les biais en fournissant ces informations dans un ordre optimal. Le principe est simple : commencer toujours par les données ou éléments de preuve eux-mêmes — et uniquement ceux-ci — avant de prendre en compte tout autre élément contextuel, qu’il s’agisse d’informations explicites ou implicites, d’éléments de référence ou de toute autre donnée contextuelle ou méta-information.
Dans le cadre d’une investigation sur une scène de crime, par exemple, aucune information contextuelle ne devrait être communiquée à l’enquêteur ou au policier scientifique avant qu’il n’ait observé la scène de crime par lui-même et consigné ses premières impressions, fondées exclusivement sur ce qu’il voit sur les lieux. Ce n’est qu’ensuite qu’il pourra recevoir des informations contextuelles pertinentes avant de commencer la collecte d’indices. L’objectif est clair : dans la mesure du possible, les experts doivent, au moins dans un premier temps, se forger une opinion à partir des données brutes, avant d’être exposés à toute information susceptible d’influencer leur jugement.
Naturellement, le LSU-E ne se limite pas aux sciences forensiques et peut s’appliquer à de nombreux domaines d’expertise. Par exemple, en médecine, un médecin devrait examiner un patient avant d’établir un diagnostic (ou même de formuler une hypothèse) à partir d’informations contextuelles. Le protocole SBAR (Situation, Background, Assessment and Recommendation [49,50]) ne devrait être communiqué qu’après l’observation du patient. De même, un inspecteur de sécurité au travail ne devrait pas être informé des antécédents de non-conformité d’une entreprise avant d’avoir évalué le site de manière indépendante [32].
Au-delà de la réduction des biais
Au-delà de la question des biais, les décisions des experts gagnent en robustesse lorsqu’elles sont moins sujettes au bruit (variabilité aléatoire) et fondées sur les « bonnes » informations — c’est-à-dire les données les plus appropriées, fiables, pertinentes et diagnostiques. Le LSU-E propose des critères (décrits plus bas) permettant d’identifier et de hiérarchiser ces informations.
Plutôt que d’exposer les experts à l’information de manière aléatoire ou accidentelle, le LSU-E vise à optimiser la séquence d’accès à l’information, afin de neutraliser les effets cognitifs et psychologiques connus — tels que l’effet de primauté, l’attention sélective ou encore le biais de confirmation — et ainsi permettre aux experts de formuler de meilleures décisions.
Il est également essentiel que, au fur et à mesure de leur progression dans la séquence informationnelle, les experts documentent les informations auxquelles ils accèdent ainsi que toute évolution dans leur opinion. Cette exigence vise à garantir la transparence du processus décisionnel : elle permet de retracer précisément quelles informations ont été utilisées et comment elles ont influencé le jugement [51,52].
Critères de hiérarchisation de l’information dans le LSU-E
L’optimisation de l’ordre d’accès à l’information permet non seulement de réduire les biais, mais aussi de limiter le bruit et d’améliorer, de manière plus générale, la qualité des décisions. La question est alors la suivante : comment déterminer quelles informations doivent être fournies à l’expert, et dans quel ordre ? Le LSU-E propose trois critères pour établir une séquence optimale d’exposition à l’information pertinente : le pouvoir de biais, l’objectivité, et la pertinence — détaillés ci-dessous.
1. Pouvoir de biais. Le pouvoir de biais d’une information pertinente peut varier considérablement. Certaines données peuvent avoir un fort potentiel de biais, tandis que d’autres n’en présentent pratiquement aucun. Par exemple, la technique utilisée pour relever et révéler une trace digitale présente un risque de biais minime (voire nul), alors que la présence d’un médicament à proximité d’un corps peut influencer l’interprétation quant à la cause du décès. Il est donc recommandé de présenter en premier les informations pertinentes les moins biaisantes, puis, dans un second temps, celles qui présentent un pouvoir de biais plus important.
2. Objectivité. Les informations pertinentes diffèrent également quant à leur degré d’objectivité. Par exemple, le témoignage d’un témoin oculaire est généralement moins objectif qu’un enregistrement vidéo du même événement — mais même une vidéo peut varier en objectivité selon sa qualité, son angle, sa complétude, etc. Il est donc recommandé de faire précéder les informations plus objectives des informations moins objectives dans la séquence d’exposition.
3. Pertinence. Certaines informations pertinentes sont centrales pour l’analyse et sous-tendent directement la décision à prendre, alors que d’autres sont plus périphériques ou accessoires. Par exemple, pour déterminer la cause du décès, la présence d’un médicament à côté du corps sera généralement plus pertinente (par exemple pour orienter les analyses toxicologiques) que des antécédents de dépression. Il est donc recommandé de présenter d’abord les informations les plus pertinentes, avant les informations secondaires. Bien entendu, toute information non pertinente à la décision (comme les antécédents judiciaires d’un suspect, si non directement liés) devrait être exclue de la séquence.
Ces critères doivent être considérés comme des principes directeurs, pour plusieurs raisons :
A. Les critères proposés s’inscrivent en réalité sur un continuum, et non dans des catégories binaires simples [45,48,53]. On peut même observer des variations au sein d’une même catégorie d’information : par exemple, une vidéo de meilleure qualité pourra être considérée avant une vidéo de qualité inférieure, ou la déclaration d’un témoin sobre pourra être considérée avant celle d’un témoin en état d’ébriété.
B. Ces trois critères ne sont pas indépendants ; ils interagissent entre eux. Par exemple, l’objectivité et la pertinence peuvent se combiner pour déterminer le poids d’une information : une donnée très objective aura un impact limité si sa pertinence est faible, et inversement, une information hautement pertinente perdra en valeur si son objectivité est faible. Ainsi, il ne faut pas évaluer ces critères isolément, mais en interaction.
C. L’ordre de présentation des informations doit être mis en balance avec les bénéfices potentiels qu’elles peuvent apporter [52]. Par exemple, lors du procès de l’agent de police Derek Chauvin pour la mort de George Floyd, le médecin légiste Andrew Baker a témoigné avoir délibérément choisi de ne pas visionner la vidéo de la mort de Floyd avant de pratiquer l’autopsie, afin d’éviter de biaiser son examen par des idées préconçues susceptibles de l’orienter dans une direction ou une autre [54]. Il a ainsi préféré d’abord examiner les données brutes (l’autopsie du corps), avant toute exposition à d’autres sources d’information (la vidéo). Une telle décision doit aussi considérer les bénéfices éventuels qu’aurait pu apporter le visionnage de la vidéo en amont de l’autopsie — par exemple si celle-ci pouvait orienter utilement l’examen plutôt que le biaiser. En d’autres termes, le LSU-E exige de pondérer les bénéfices potentiels par rapport au risque de biais que peut entraîner une information [52].
Par cette approche, nous encourageons les experts à examiner attentivement comment chaque élément d’information répond à chacun des trois critères, et à déterminer s’il doit être inclus ou non dans la séquence, et à quel moment. Dans la mesure du possible, ils devraient également documenter leur justification quant à l’inclusion ou l’exclusion de chaque information donnée. Bien entendu, cela soulève des questions pratiques quant à la mise en œuvre du LSU-E — comme le recours à des gestionnaires de cas (case managers). Les stratégies d’implémentation efficaces peuvent varier selon les disciplines ou les laboratoires, mais il est essentiel, dans un premier temps, de reconnaître ces enjeux et la nécessité de développer des approches pour y répondre.
Conclusion
Dans cet article, nous nous sommes appuyés sur les travaux classiques en psychologie cognitive portant sur les facteurs qui influencent et structurent la prise de décision experte, afin de proposer une approche large et polyvalente visant à renforcer la qualité des décisions des experts. Les spécialistes, quel que soit leur domaine, devraient commencer par se forger une première impression fondée exclusivement sur les données brutes ou les éléments de preuve, sans accès à un quelconque matériel de référence ni à un contexte — même si ces derniers sont pertinents. Ce n’est qu’ensuite qu’ils pourront envisager quelles autres informations doivent leur être communiquées, et dans quel ordre, en se basant sur leur objectivité, leur pertinence, et leur pouvoir de biais.
Il est par ailleurs essentiel de documenter de manière transparente l’impact et le rôle de chaque information dans le processus décisionnel. Grâce à l’utilisation du LSU-E, les décisions seront non seulement plus transparentes et moins sujettes au bruit, mais elles permettront également de s’assurer que la contribution de chaque élément d’information soit justifiée et proportionnelle à sa valeur probante.
Références
[1] S.E. Asche, Forming impressions of personality, J. Abnorm. Soc. Psychol., 41 (1964), pp. 258-290 [2] C.I. Hovland (Ed.), The Order of Presentation in Persuasion, Yale University Press (1957) [3] D. Krane, S. Ford, J. Gilder, K. Inman, A. Jamieson, R. Koppl, et al. Sequential unmasking: a means of minimizing observer effects in forensic DNA interpretation, J. Forensic Sci., 53 (2008), pp. 1006-1107 [4] I.E. Dror, W.C. Thompson, C.A. Meissner, I. Kornfield, D. Krane, M. Saks, et al. Context management toolbox: a Linear Sequential Unmasking (LSU) approach for minimizing cognitive bias in forensic decision making, J. Forensic Sci., 60 (4) (2015), pp. 1111-1112 [5] F.H. Lund. The psychology of belief: IV. The law of primacy in persuasion, J. Abnorm. Soc. Psychol., 20 (1925), pp. 183-191 [6] B.B. Murdock Jr. The serial position effect of free recall, J. Exp. Psychol., 64 (5) (1962), p. 482 [7] J. Deese, R.A. Kaufman. Serial effects in recall of unorganized and sequentially organized verbal material, J. Exp. Psychol., 54 (3) (1957), p. 180 [8] J.M. Darley, P.H. Gross. A hypothesis-confirming bias in labeling effects,J. Pers. Soc. Psychol., 44 (1) (1983), pp. 20-33 [9] A. Treisman. Contextual cues in selective listening, Q. J. Exp. Psychol., 12 (1960), pp. 242-248 [10] J. Bargh, E. Morsella. The unconscious mind, Perspect. Psychol. Sci., 3 (1) (2008), pp. 73-79 [11] D.A. Broadbent. Perception and Communication, Pergamon Press, London, England (1958) [12] J.A. Deutsch, D. Deutsch. Attention: some theoretical considerations, Psychol. Rev., 70 (1963), pp. 80-90 [13] A. Tversky, D. Kahneman. Judgment under uncertainty: heuristics and biases, Science, 185 (4157) (1974), pp. 1124-1131 [14] R.S. Nickerson. Confirmation bias: a ubiquitous phenomenon in many guises, Rev. Gen. Psychol., 2 (1998), pp. 175-220 [15] C. Barry, K. Halfmann. The effect of mindset on decision-making, J. Integrated Soc. Sci., 6 (2016), pp. 49-74 [16] P.C. Wason. On the failure to eliminate hypotheses in a conceptual task, Q. J. Exp. Psychol., 12 (3) (1960), pp. 129-140 [17] B.M. Staw. The escalation of commitment: an update and appraisal, Z. Shapira (Ed.), Organizational Decision Making, Cambridge University Press (1997), pp. 191-215 [18] M. Sherif, D. Taub, C.I. Hovland. Assimilation and contrast effects of anchoring stimuli on judgments, J. Exp. Psychol., 55 (2) (1958), pp. 150-155 [19] C.A. Anderson, M.R. Lepper, L. Ross. Perseverance of social theories: the role of explanation in the persistence of discredited information, J. Pers. Soc. Psychol., 39 (6) (1980), pp. 1037-1049 [20] M.L. Dean. Presentation order effects in product taste tests, J. Psychol., 105 (1) (1980), pp. 107-110 [21] K.A. Carlson, J.E. Russo. Biased interpretation of evidence by mock jurors, J. Exp. Psychol. Appl., 7 (2) (2001), p. 91 [22] R.G. Lawson. Order of presentation as a factor in jury persuasion. Ky, LJ, 56 (1967), p. 523 [23] D. Jolley, K.M. Douglas. Prevention is better than cure: addressing anti-vaccine conspiracy theories, J. Appl. Soc. Psychol., 47 (2017), pp. 459-469 [24] A.R. Klales, K.M. Lesciotto. The “science of science”: examining bias in forensic anthropology, Proceedings of the 68th Annual Scientific Meeting of the American Academy of Forensic Sciences (2016) [25] M. Davidson, C. Rando, S. Nakhaeizadeh. Cognitive bias and the order of examination on skeletal remains, Proceedings of the 71st Annual Meeting of the American Academy of Forensic Sciences (2019) [26] D. Kahneman, O. Sibony, C. Sunstein. Noise: A Flaw in Human Judgment, William Collins (2021) [27] I.E. Dror. Cognitive and human factors in expert decision making: six fallacies and the eight sources of bias, Anal. Chem., 92 (12) (2020), pp. 7998-8004 [28] J. Kukucka, S.M. Kassin, P.A. Zapf, I.E. Dror. Cognitive bias and blindness: a global survey of forensic science examiners, Journal of Applied Research in Memory and Cognition, 6 (2017), pp. 452-459 [29] I.E. Dror. The paradox of human expertise: why experts get it wrong, N. Kapur (Ed.), The Paradoxical Brain, Cambridge University Press, Cambridge, UK (2011), pp. 177-188 [30] C. Eeden, C. De Poot, P. Koppen. The forensic confirmation bias: a comparison between experts and novices, J. Forensic Sci., 64 (1) (2019), pp. 120-126 [31] C. Huang, R. Bull. Applying Hierarchy of Expert Performance (HEP) to investigative interview evaluation: strengths, challenges and future directions, Psychiatr. Psychol. Law, 28 (2021) [32] C. MacLean, I.E. Dror. The effect of contextual information on professional judgment: reliability and biasability of expert workplace safety inspectors,J. Saf. Res., 77 (2021), pp. 13-22 [33] E. Rassin. Anyone who commits such a cruel crime, must be criminally irresponsible’: context effects in forensic psychological assessment, Psychiatr. Psychol. Law (2021) [34] V. Meterko, G. Cooper. Cognitive biases in criminal case evaluation: a review of the research, J. Police Crim. Psychol. (2021) [35] C. FitzGerald, S. Hurst. Implicit bias in healthcare professionals: a systematic review, BMC Med. Ethics, 18 (2017), pp. 1-18 [36] M.K. Goyal, N. Kuppermann, S.D. Cleary, S.J. Teach, J.M. Chamberlain. Racial disparities in pain management of children with appendicitis in emergency departments, JAMA Pediatr, 169 (11) (2015), pp. 996-1002 [37] I.E. Dror. Biases in forensic experts, Science, 360 (6386) (2018), p. 243 [38] S.M. Kassin, I.E. Dror, J. Kukucka. The forensic confirmation bias: problems, perspectives, and proposed solutions, Journal of Applied Research in Memory and Cognition, 2 (1) (2013), pp. 42-52 [39] NAS. National Research Council, Strengthening Forensic Science in the United States: a Path Forward, National Academy of Sciences (2009) [40] PCAST, President’s Council of Advisors on science and Technology (PCAST), Report to the President – Forensic Science in Criminal Courts: Ensuring Validity of Feature-Comparison Methods, Office of Science and Technology, Washington, DC (2016) [41] NCFS, National Commission on Forensic Science. Ensuring that Forensic Analysis Is Based upon Task-Relevant Information, National Commission on Forensic Science, Washington, DC (2016) [42] Forensic Science Regulator. Cognitive bias effects relevant to forensic science examinations, disponible sur https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/914259/217_FSR-G-217_Cognitive_bias_appendix_Issue_2.pdf [43] ANZPAA, A Review of Contextual Bias in Forensic Science and its Potential Legal Implication, Australia New Zealand Policing Advisory Agency (2010) [44] J. Kukucka, I.E. Dror. Human factors in forensic science: psychological causes of bias and error, D. DeMatteo, K.C. Scherr (Eds.), The Oxford Handbook of Psychology and Law, Oxford University Press, New York (2021) [45] I.E. Dror, J. Melinek, J.L. Arden, J. Kukucka, S. Hawkins, J. Carter, D.S. Atherton. Cognitive bias in forensic pathology decisions, J. Forensic Sci., 66 (4) (2021) [46] N. Sunde, I.E. Dror. A hierarchy of expert performance (HEP) applied to digital forensics: reliability and biasability in digital forensics decision making, Forensic Sci. Int.: Digit. Invest., 37 (2021) [47] D.C. Murrie, M.T. Boccaccini, L.A. Guarnera, K.A. Rufino. Are forensic experts biased by the side that retained them? Psychol. Sci., 24 (10) (2013), pp. 1889-1897 [48] G. Langenburg. Addressing potential observer effects in forensic science: a perspective from a forensic scientist who uses linear sequential unmasking techniques, Aust. J. Forensic Sci., 49 (2017), pp. 548-563 [49] C.M. Thomas, E. Bertram, D. Johnson. The SBAR communication technique, Nurse Educat., 34 (4) (2009), pp. 176-180 [50] I. Wacogne, V. Diwakar. Handover and note-keeping: the SBAR approach, Clin. Risk, 16 (5) (2010), pp. 173-175 [51] M.A. Almazrouei, I.E. Dror, R. Morgan. The forensic disclosure model: what should be disclosed to, and by, forensic experts?, International Journal of Law, Crime and Justice, 59 (2019) [52] I.E. Dror. Combating bias: the next step in fighting cognitive and psychological contamination, J. Forensic Sci., 57 (1) (2012), pp. 276-277 [53] D. Simon, Minimizing Error and Bias in Death Investigations, vol. 49, Seton Hall Law Rev. (2018), pp. 255-305 [54] CNN. Medical examiner: I « intentionally chose not » to view videos of Floyd’s death before conducting autopsy, April 9, 2021, disponible sur https://edition.cnn.com/us/live-news/derek-chauvin-trial-04-09-21/h_03cda59afac6532a0fb8ed48244e44a0 (2011)
Par Yann CHOVORY, Ingénieur en IA appliquée à la criminalistique (Institut Génétique Nantes Atlantique – IGNA). Sur une scène de crime, chaque minute compte. Entre l’identification d’un suspect en fuite, la prévention de nouveaux délits et les contraintes temporelles de l’enquête, les enquêteurs sont engagés dans une véritable course contre la montre. Traces digitales, résidus de tir, traces biologiques, vidéosurveillance, données numériques… Autant d’indices qui doivent être collectés et analysés rapidement, sous peine de voir une affaire s’effondrer faute de preuves exploitables à temps. Pourtant, submergés par la masse croissante de données, les laboratoires de forensiques peinent à suivre le rythme.
Analyser les preuves avec rapidité et précision
Dans ce contexte, l’intelligence artificielle (IA) s’impose comme un accélérateur indispensable. Capable de traiter en quelques heures des volumes d’informations qui prendraient des semaines à analyser manuellement, elle optimise l’exploitation des indices en accélérant leur tri et en détectant des liens imperceptibles à l’œil humain. Plus qu’un simple gain de temps, elle permet aussi d’améliorer la pertinence des investigations : croiser rapidement des bases de données, repérer des motifs cachés dans des schémas d’appels téléphoniques, comparer des fragments d’ADN avec une précision inégalée. L’IA agit ainsi comme un analyste virtuel infatigable, réduisant le risque d’erreurs humaines et offrant de nouvelles perspectives aux experts en forensiques.
Mais cette révolution technologique ne se fait pas sans heurts. Entre scepticisme institutionnel et résistances opérationnelles, son intégration dans les pratiques d’enquête reste un défi. Mon parcours professionnel, marqué par une quête obstinée d’intégrer l’IA à la police scientifique, illustre cette transformation – et les obstacles qu’elle rencontre. De bioinformaticien marginalisé à responsable de projets IA à l’IGNA, j’ai pu observer de l’intérieur comment cette discipline, longtemps fondée sur des méthodes traditionnelles, s’adapte, parfois à marche forcée, à l’ère du big data.
Le risque d’erreur humaine est réduit et la fiabilité des identifications augmentée
Des exemples concrets : l’IA à l’œuvre de la scène de crime au laboratoire
L’IA investit déjà plusieurs domaines de la criminalistique, avec des résultats prometteurs. Par exemple, les systèmes de reconnaissance d’empreintes digitales AFIS (Automated Fingerprint Identification System ou Système d’identification automatique par empreintes digitales) intègrent désormais des composantes d’apprentissage automatique pour améliorer la correspondance des empreintes latentes. Le risque d’erreur humaine est réduit et la fiabilité des identifications augmentée [1]. De même, en balistique, des algorithmes de vision par ordinateur comparent automatiquement les stries d’un projectile aux empreintes d’armes connues, accélérant le travail d’un expert en identification d’armes à feu. Nous voyons également apparaître des outils pour interpréter les traces de sang sur une scène : des modèles de machine learning1 peuvent aider à reconstituer la trajectoire de gouttelettes de sang et donc la dynamique d’une agression et d’un évènement sanglant [2]. Ces exemples illustrent comment l’IA s’intègre dans la boîte à outils de l’expert criminalistique, de l’analyse d’images de scène de crime à la reconnaissance de motifs complexes.
Mais c’est sans doute en génétique forensique que l’IA suscite actuellement le plus d’espoirs. Les laboratoires d’analyse ADN traitent des milliers de profils génétiques et d’échantillons, avec des délais qui peuvent être critiques. L’IA offre un gain de temps considérable et une précision accrue. Dans le cadre de mes recherches, j’ai contribué au développement d’une IA interne capable d’interpréter 86 profils génétiques en seulement trois minutes [3], un progrès majeur lorsque l’analyse d’un profil complexe peut prendre plusieurs heures. Depuis 2024, elle traite en autonomie les profils simples, tandis que les profils génétiques complexes sont automatiquement orientés vers un expert humain, garantissant ainsi une collaboration efficace entre l’automatisation et l’expertise. Les résultats observés sont très encourageants. Non seulement le délai d’obtention des résultats ADN est drastiquement réduit, mais le taux d’erreur diminue également grâce à la standardisation apportée par l’algorithme.
L’IA ne remplace pas l’humain mais le complète
Une autre avancée prometteuse concerne l’amélioration du portrait-robot génétique à partir de l’ADN. Actuellement, cette technique permet d’estimer certaines caractéristiques physiques d’un individu (comme la couleur des yeux, des cheveux ou la pigmentation de la peau) à partir de son code génétique, mais elle reste limitée par la complexité des interactions génétiques et l’incertitude des prédictions. L’IA pourrait révolutionner cette approche en exploitant des modèles de deep learning* entraînés sur de vastes bases de données génétiques et phénotypiques, permettant ainsi d’affiner ces prédictions et de générer des portraits plus précis. Contrairement aux méthodes classiques, qui reposent sur des probabilités statistiques, un modèle d’IA pourrait analyser des millions de variantes génétiques en quelques secondes et identifier des corrélations subtiles que les approches traditionnelles ne détectent pas. Cette perspective ouvre la voie à une amélioration significative de la pertinence des portraits ADN, facilitant l’identification des suspects en l’absence d’autres indices exploitables. La plate-forme Forenseek a exploré les avancées actuelles dans ce domaine, mais l’IA n’a pas encore été pleinement exploitée pour surpasser les méthodes existantes [5]. Son intégration pourrait donc constituer une avancée majeure dans l’enquête criminelle.
Il est important de noter que dans tous ces exemples, l’IA ne remplace pas l’humain mais le complète. À l’IRCGN (Institut de Recherche Criminelle de la Gendarmerie Nationale) cité plus haut, si la majorité des profils ADN de routine et de bonne qualité peuvent être traités automatiquement, un contrôle qualité humain régulier subsiste : chaque semaine, un technicien revérifie aléatoirement des dossiers traités par l’IA, pour s’assurer qu’aucune dérive n’apparaît [3]. Cette collaboration homme-machine est la clé d’un déploiement réussi, car le savoir-faire de l’expert criminalistique reste indispensable pour valider et interpréter finement les résultats, notamment lorsqu’un cas est complexe.
Des algorithmes nourris aux données : comment l’IA «apprend» en forensique
Les performances impressionnantes de l’IA en criminalistique reposent sur une ressource cruciale : les données. Pour qu’un algorithme d’apprentissage automatique sache identifier une empreinte digitale ou interpréter un profil ADN, il doit préalablement être entraîné sur de nombreux exemples. Concrètement, nous lui fournissons des jeux de données représentatifs, comportant chacun des entrées (images, signaux, profils génétiques, etc.) associées à un résultat attendu(identité du bon suspect, composition exacte du profil ADN, etc.). En analysant ces milliers (voir millions) d’exemples, la machine ajuste ses paramètres internes afin de reproduire au mieux les décisions des experts humains. On parle d’apprentissage supervisé, car l’IA apprend à partir de cas que l’on connaît déjà. Par exemple, pour entraîner un modèle à reconnaître des profils ADN, nous utilisons des données issues de cas résolus où l’on sait quel était le résultat attendu.
La performance d’une IA dépend de la qualité des données qui l’entraînent.
Plus le volume de données d’entraînement est grand et varié, mieux l’IA pourra détecter des motifs robustes et fiables. Toutefois, toutes les données ne se valent pas. Il faut s’assurer qu’elles soient de bonne qualité (par exemple, des images bien annotées, des profils ADN sans erreur de saisie) et qu’elles couvrent une diversité de situations suffisante. Si on biaise le système en ne lui montrant qu’un éventail restreint de cas, ce dernier risque d’échouer face à un scénario un peu différent. En génétique, cela signifie par exemple d’inclure des profils d’origines ethniques variées, des niveaux de dégradation différents, des configurations de mélanges multiples, afin que l’algorithme apprenne à gérer toutes les sources de variations possibles.
La transparence dans la composition des données est un impératif. Des études ont montré que certaines bases de données forensiques sont démographiquement déséquilibrées : par exemple, la base américaine CODIS comporte une sur-représentation de profils d’individus afro-américains par rapport aux autres groupes [6]. Un modèle entraîné naïvement sur ces données pourrait hériter de biais systématiques et produire des résultats moins fiables ou moins justes pour des populations sous-représentées. Il est donc indispensable de contrôler les biais dans les données d’apprentissage et, si nécessaire, de les corriger (par échantillonnage équilibré, augmentation de données minoritaires, etc.) afin d’obtenir un apprentissage équitable.
Techniquement, l’entraînement d’une IA passe par des étapes rigoureuses de validation croisée et de mesure de performance. On divise généralement les données en trois ensembles : un pour l’apprentissage, un pour la validation pendant le développement (pour ajuster les paramètres) et un jeu de test final pour évaluer le modèle de façon objective. Des métriques quantitatives comme la précision, le rappel (sensibilité) ou les courbes d’erreur permettent de quantifier la fiabilité de l’algorithme sur des données qu’il n’a jamais vues [6]. On peut ainsi vérifier, par exemple, que l’IA identifie correctement une grande majorité des auteurs à partir de traces, tout en maintenant un faible taux de faux positifs. De plus en plus, nous intégrons également des critères de justice et d’éthique dans ces évaluations : nous examinerons si la performance reste constante quel que soit le groupe démographique ou la condition du test (genre, âge, etc.), afin de s’assurer qu’aucun biais inacceptable ne subsiste [6]. Enfin, le respect des contraintes juridiques (telles que le RGPD en Europe, qui encadre l’utilisation des données personnelles) doit être intégré dès la phase de conception du système [6]. Cela peut impliquer d’anonymiser les données, de limiter certaines informations sensibles ou de prévoir des procédures en cas de détection d’un biais éthique.
En définitive, la performance d’une IA dépend de la qualité des données qui l’entraînent. Dans le domaine forensique, cela signifie que les algorithmes « apprennent » à partir de l’expertise humaine accumulée. Chaque décision algorithmique porte en filigrane l’expérience de centaines d’experts qui ont fourni des exemples ou ajusté les paramètres. C’est à la fois une force (nous capitalisons sur une base de connaissance énorme) et une responsabilité : celle de bien sélectionner, préparer et contrôler les données qui serviront à nourrir l’intelligence artificielle.
Défis techniques et opérationnels pour intégrer l’IA en police scientifique
Si l’IA fait miroiter des gains substantiels, son intégration concrète sur le terrain forensique s’accompagne de nombreux défis. Il ne suffit pas d’entraîner un modèle en laboratoire : encore faut-il pouvoir l’utiliser dans le cadre contraint d’une enquête judiciaire, avec toutes les exigences de fiabilité que cela implique. Parmi les principaux défis techniques et organisationnels, on peut citer :
Accès aux données et infrastructures : paradoxalement, alors que l’IA a besoin de beaucoup de données pour apprendre, il peut être difficile de rassembler ces données en quantité suffisante dans le domaine forensique visé. Les profils ADN, par exemple, sont des données personnelles hautement sensibles, protégées par la loi et cloisonnées dans des bases sécurisées. Obtenir des jeux de données assez volumineux pour entraîner un algorithme peut nécessiter des coopérations complexes entre services, ou la génération de données synthétiques pour combler les manques. De plus, les outils informatiques doivent être adaptés pour traiter en temps raisonnable des masses de données – ce qui implique des investissements en matériel (serveurs, GPU2pour le deep learning3) et en logiciels spécialisés. Certaines initiatives nationales commencent à voir le jour pour mutualiser des données forensiques de façon sécurisée, mais cela reste un chantier en cours.
Qualité des annotations et biais : l’apprentissage d’une IA dépend de la qualité de l’annotation des données d’entraînement. Dans bien des domaines forensiques, établir le « vrai » n’est pas trivial. Par exemple, pour entraîner un algorithme à reconnaître un visage sur une vidéo de surveillance, il faut que chaque visage soit correctement identifié par un humain au préalable – ce qui peut être ardu si l’image est floue ou partielle. De même, étiqueter des jeux de traces de semelles, de fibres ou des empreintes demandent un travail méticuleux d’experts, avec parfois une part de subjectivité. Si les données d’apprentissage comportent des erreurs d’annotation ou des biais historiques, l’IA les reproduira [6]. Un biais classique est lié à la représentativité démographique mentionnée plus haut, mais il peut y en avoir d’autres. Par exemple, si nous entraînons un modèle de détection d’armes principalement sur des images d’armes en intérieur, il sera moins performant pour détecter une arme en extérieur, sous la pluie, etc. La qualité et la diversité des données annotées sont donc un enjeu technique majeur. Cela implique d’établir des protocoles rigoureux de collecte et d’annotation (idéalement standardisés au niveau international), ainsi qu’un contrôle continu pour détecter les dérives du modèle (surapprentissage sur certains cas, perte de performance dans le temps, etc.). Cette validation repose sur des études expérimentales comparant les performances de l’IA aux experts humains. Toutefois, la complexité des procédures d’homologation et d’acquisition freine parfois l’adoption, retardant de plusieurs années la mise en service de nouveaux outils en criminalistique.
Compréhension et acceptation par les acteurs judiciaires : introduire de l’intelligence artificielle dans le processus judiciaire soulève inévitablement la question de la confiance. Un enquêteur ou un technicien de laboratoire, formé aux méthodes classiques, doit apprendre à utiliser et à interpréter les résultats fournis par l’IA. Cela nécessite des formations et une acculturation progressive pour que l’outil devienne un allié et non une «boîte noire incomprise». Plus largement, les magistrats, avocats et jurés qui auront à discuter ces preuves doivent aussi en saisir les principes. Or, expliquer le fonctionnement interne d’un réseau de neurones ou la signification statistique d’un score de similarité n’est pas aisé. Nous observons parfois une incompréhension ou une méfiance de la part de certains acteurs judiciaires face à ces méthodes algorithmiques [6]. Si un juge ne comprend pas comment une conclusion a été obtenue, il pourrait être enclin à la rejeter ou à lui accorder moins de poids, par prudence. De même, un avocat de la défense cherchera légitimement à scruter les failles d’un outil qu’il ne connaît pas, ce qui peut donner lieu à des débats judiciaires autour de la validité de l’IA. Un défi conséquent est donc de rendre l’IA explicable (concept de «XAI» pour eXplainable AI), ou du moins d’en présenter les résultats dans un format compréhensible et pédagogiquement acceptable par un tribunal. Sans cela, l’intégration de l’IA risque de se heurter à un refus ou à des controverses lors des procès, limitant son apport pratique.
Cadre réglementaire et protection des données : enfin, les sciences forensiques évoluent dans un cadre légal strict, notamment en ce qui concerne les données personnelles (profil ADN, données biométriques, etc…) et la procédure pénale. L’utilisation d’une IA doit respecter ces régulations. En France, la CNIL (Commission Nationale de l’Informatique et des Libertés) veille au grain et peut imposer des restrictions si un traitement algorithmique porte atteinte à la vie privée. Par exemple, entraîner une IA sur des profils ADN nominatifs sans base légale serait impensable. Il faut souvent innover tout en restant dans les clous juridiques, ce qui impose des contraintes dès la conception des projets. Par ailleurs, le secret industriel autour de certains algorithmes pose un problème dans le contexte judiciaire : si un éditeur refuse de divulguer le fonctionnement interne de son logiciel pour des raisons de propriété intellectuelle, comment la défense ou le juge peuvent-ils s’assurer de sa fiabilité ? Des cas récents ont montré des accusés condamnés sur la foi de logiciels propriétaires (par exemple d’analyse ADN) sans que la défense n’ait pu examiner le code source utilisé [7]. Ces situations soulèvent un enjeu de transparence et de droits de la défense. Aux États-Unis, une proposition de loi intitulée «Justice in Forensic Algorithms Act» entend justement faire en sorte que le secret commercial ne puisse pas empêcher l’examen par des experts des algorithmes employés en criminalistique, afin de garantir l’équité des procès. Cela illustre bien la nécessité d’adapter le cadre réglementaire à ces nouvelles technologies.
Le manque de coopération ralentit la mise au point d’outils performants et limite leur adoption sur le terrain.
Un autre obstacle, plus structurel, réside dans la difficulté d’intégrer des profils hybrides aux institutions forensiques tout du moins en France. Aujourd’hui, les concours et les recrutements restent souvent cloisonnés entre différentes spécialités, limitant l’émergence d’experts possédant une double compétence. Par exemple, dans la police scientifique, le concours de technicien ou d’ingénieur de police scientifique est accessible via des spécialités distinctes, comme la biologie ou l’informatique, mais ne permet pas de valoriser une expertise combinée aux deux. Cette rigidité institutionnelle freine l’intégration de professionnels capables de faire le lien entre les domaines et d’exploiter pleinement le potentiel de l’IA en criminalistique. Pourtant, les avancées technologiques actuelles montrent que l’analyse des traces biologiques repose de plus en plus sur des outils numériques avancés. Face à cette évolution, une plus grande souplesse dans le recrutement et la formation des experts forensiques sera nécessaire pour répondre aux défis de demain.
L’IA en criminalistique ne doit pas être un enjeu de compétition ou de prestige entre laboratoires, mais un outil mis au service de la justice et de la vérité, au bénéfice des enquêteurs et des victimes.
Un autre frein majeur à l’innovation en criminalistique est le cloisonnement des efforts entre les différents acteurs du domaine qui travaillent en parallèle sur des problématiques identiques, sans mutualiser leurs avancées. Ce manque de coopération ralentit la mise au point d’outils performants et limite leur adoption sur le terrain. Pourtant, en partageant nos ressources – qu’il s’agisse de bases de données, de méthodologies ou d’algorithmes – nous pourrions accélérer la mise en production des solutions IA et garantir une amélioration continue fondée sur l’expertise de chacun. Mon expérience à travers les différents laboratoires français (Le Laboratoire de Police Scientifique de Lyon (Service National de Police Scientifique SNPS), L’Institut de Recherche Criminelle de la Gendarmerie Nationale (IRCGN) et maintenant l’Institut Génétique Nantes Atlantique IGNA) me permet de mesurer combien cette fragmentation freine les progrès, alors que nous poursuivons un même objectif : améliorer la résolution des enquêtes. C’est pourquoi il est essentiel de promouvoir le développement en open source lorsque cela est possible et de créer des plateformes de collaboration entre les entités publiques et judiciaires. L’IA en criminalistique ne doit pas être un enjeu de compétition ou de prestige entre laboratoires, mais un outil mis au service de la justice et de la vérité, au bénéfice des enquêteurs et des victimes.
Enjeux éthiques et légaux : innover sans renoncer aux garanties
Les défis évoqués ci-dessus ont tous une dimension technique, mais ils s’entremêlent à des questions éthiques et juridiques fondamentales. D’un point de vue éthique, la priorité absolue est de ne pas causer d’injustice par l’usage de l’IA. Il faut à tout prix éviter qu’un algorithme mal conçu n’entraîne l’inculpation injustifiée d’une personne ou, à l’inverse, le relâchement d’un coupable. Cela passe par la maîtrise des biais (pour ne pas discriminer certains groupes), par la transparence (pour que chaque partie au procès puisse comprendre et contester la preuve algorithmique) et par la responsabilisation des décisions. En effet, qui est responsable si une IA se trompe ? L’expert qui l’a utilisée à tort, le concepteur du logiciel, ou personne car «la machine a fait une erreur» ? Ce flou n’est pas acceptable en justice : il importe de toujours garder l’expertise humaine dans la boucle, de façon qu’une décision finale – incriminer ou disculper – repose sur une évaluation humaine éclairée par l’IA, et non sur le verdict opaque d’un automate.
Sur le plan légal, le paysage est en train d’évoluer pour encadrer l’utilisation de l’IA. L’Union européenne, notamment, finalise un Règlement sur l’IA (AI Act) qui sera la première législation au monde à définir un cadre pour le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle [8]. Son objectif est de minimiser les risques pour la sécurité et les droits fondamentaux des personnes, en imposant des obligations en fonction du niveau de risque de l’application (et nul doute que les usages en matière pénale seront classés parmi les plus sensibles). En France, la CNIL a publié des recommandations soulignant qu’il est possible de concilier innovation et respect des droits des personnes lors du développement de solutions d’IA [9]. Cela passe par exemple par le respect du RGPD, la limitation des finalités (nous n’entraînons un modèle qu’à des fins légitimes et clairement définies), la proportionnalité des données collectées, et l’évaluation d’impact préalable pour tout système algorithmique susceptible d’affecter significativement les individus. Ces garde-fous visent à ce que l’enthousiasme pour l’IA ne se fasse pas au détriment des principes fondamentaux de la justice et de la vie privée.
Encourager l’innovation tout en exigeant une validation scientifique solide et une transparence sur les méthodes
Un équilibre délicat doit donc être trouvé entre innovation technologique et cadre réglementaire. D’un côté, brider excessivement l’expérimentation et l’adoption de l’IA en criminalistique pourrait priver les enquêteurs d’outils potentiellement salvateurs dans la résolution d’enquêtes complexes. De l’autre, laisser le champ libre sans règles ni contrôle serait prendre le risque d’erreurs judiciaires ou d’atteintes aux droits. La solution réside sans doute dans une approche mesurée : encourager l’innovation tout en exigeant une validation scientifique solide et une transparence sur les méthodes. Des comités d’éthique et des experts indépendants peuvent être associés pour auditer les algorithmes, vérifier qu’ils respectent bien les normes et qu’ils ne reproduisent pas de biais problématiques. En outre, il convient d’informer et de former les professionnels du droit à ces nouvelles technologies, afin qu’ils soient en mesure d’en discuter avec pertinence lors des procès. Un juge formé aux concepts de base de l’IA sera plus à même de comprendre la valeur probante (et les limites) d’une preuve issue d’un algorithme.
Conclusion : L’avenir de la criminalistique à l’ère de l’IA
L’intelligence artificielle est en passe de transformer en profondeur la criminalistique, apportant aux enquêteurs des outils d’analyse plus rapides, plus précis et capables d’exploiter des volumes de données autrefois inaccessibles. Qu’il s’agisse de passer au crible des giga-octets d’informations numériques, de comparer des traces latentes avec une fiabilité accrue, ou de démêler des profils ADN complexes en quelques minutes, l’IA ouvre de nouvelles perspectives pour résoudre les enquêtes plus efficacement.
Mais cette avancée technologique s’accompagne de défis cruciaux. Techniques d’apprentissage, qualité des bases de données, biais algorithmiques, transparence des décisions, cadre réglementaire : autant d’enjeux qui détermineront si l’IA peut réellement renforcer la justice sans la fragiliser. À l’heure où la confiance du public dans les outils numériques est plus que jamais mise à l’épreuve, il est impératif d’intégrer ces innovations avec rigueur et responsabilité.
L’avenir de l’IA en criminalistique ne sera pas un face-à-face entre la machine et l’homme, mais un travail de collaboration où l’expertise humaine restera centrale. La technologie pourra aider à voir plus vite, plus loin, mais l’interprétation, le discernement et la prise de décision resteront entre les mains des experts forensiques et du monde judiciaire. Dès lors, la vraie question n’est peut-être pas jusqu’où l’IA peut aller en criminalistique, mais comment saurons-nous l’encadrer afin qu’elle puisse garantir une justice éthique et équitable. Serons-nous capables d’exploiter sa puissance tout en préservant les fondements mêmes du procès équitable et du droit à la défense ?
La révolution est en marche. Il nous appartient désormais d’en faire un progrès et non une dérive.
Le Machine Learning (apprentissage automatique) est une branche de l’intelligence artificielle qui permet aux ordinateurs d’apprendre à partir de données sans être explicitement programmés. Il repose sur des algorithmes capables de détecter des motifs, de faire des prédictions et d’améliorer leurs performances avec l’expérience.↩︎
Un GPU (Graphics Processing Unit) est un processeur spécialisé conçu pour exécuter des calculs massivement parallèles, principalement utilisés pour le rendu graphique. Contrairement aux CPU (processeurs centraux) qui exécutent un nombre limité de tâches séquentielles avec des cœurs optimisés pour la polyvalence, les GPU possèdent des milliers de cœurs optimisés pour effectuer des opérations simultanées sur de grandes quantités de données. ↩︎
Le Deep Learning (apprentissage profond) est une branche du Machine Learning qui utilise des réseaux de neurones artificiels composés de plusieurs couches pour modéliser des représentations complexes des données. Inspiré du fonctionnement du cerveau humain, il permet aux systèmes d’IA d’apprendre à partir de grandes quantités de données et d’améliorer leurs performances avec l’expérience. Le Deep Learning est particulièrement efficace pour le traitement des images, de la parole, du texte et des signaux complexes, avec des applications en vision par ordinateur, reconnaissance vocale, médecine légale et cybersécurité. ↩︎