Quand un document a été déchiré ou broyé, l’enquêteur se retrouve face à un puzzle dont on a perdu la boîte, l’image de référence et parfois même une partie des pièces. Pourtant, l’information contenue dans ces fragments peut changer le cours d’une affaire : un chiffre sur un contrat, un nom dans un tableau, une annotation manuscrite dans la marge. La question n’est donc pas seulement “peut-on reconstituer ?”, mais “peut-on le faire de façon fiable, traçable, et suffisamment rapide pour être utile à l’enquête ?”.
Pourquoi la reconstitution est difficile
Dans la pratique forensique, les fragments sont rarement propres et réguliers. Ils varient par la forme, la taille, la texture du papier, la densité d’encre et l’orientation. Lorsque plusieurs documents ont été détruits ensemble, les morceaux s’entremêlent et produisent des ambiguïtés visuelles : deux bords peuvent sembler compatibles sans l’être, deux polices différentes peuvent paraître proches, et des zones uniformes, un fond clair, une photographie sans détail, n’offrent quasiment aucun indice. Les approches dites “edge matching”, qui cherchent des continuités au niveau des bords et des motifs, fonctionnent assez bien sur de petits lots. Mais dès que le nombre de fragments augmente, le nombre de combinaisons explose et ces méthodes peinent à départager les hypothèses concurrentes.
L’idée : apprivoiser le hasard pour mieux explorer
L’optimisation stochastique propose une autre manière d’aborder le problème. Plutôt que d’essayer d’atteindre immédiatement la configuration parfaite, l’algorithme génère des assemblages plausibles, les évalue, et accepte parfois des choix “imparfaits” afin de continuer à explorer l’espace des solutions. Cette stratégie, inspirée des probabilités, alterne en permanence entre deux mouvements complémentaires : l’exploration, qui visite des pistes nouvelles pour éviter les impasses, et l’exploitation, qui consolide les bonnes intuitions déjà trouvées. Concrètement, chaque proposition d’assemblage reçoit un score fondé sur la continuité visuelle (alignement des lettres, prolongement de traits, raccords de texture et de couleur). Si la cohérence s’améliore, l’hypothèse est adoptée ; si elle est moins bonne, elle peut tout de même être tolérée un temps, pour vérifier qu’elle n’ouvre pas sur une meilleure configuration plus loin. Cette logique souple distingue la méthode des approches plus rigides telles que le recuit simulé ou certains algorithmes génétiques. Elle s’accommode mieux de la variabilité réelle des documents et des mélanges de fragments, et elle laisse la porte ouverte à une interaction légère de l’opérateur lorsque nécessaire.
Ce que montrent les essais
Les auteurs rapportent des tests à grande échelle sur plus d’un millier de documents déchirés hétérogènes (impressions bureautiques, manuscrits, images et pages mixtes). Les résultats convergent vers une observation intuitive pour tout expert : plus un document est riche en contenu (texte dense, trames, motifs), plus la reconstitution gagne en vitesse et en précision. À l’inverse, les zones uniformes exigent davantage d’itérations, car elles offrent peu de points d’ancrage visuels. Dans les cas les plus délicats, l’ajout ponctuel d’indices par l’opérateur, par exemple valider un raccord ou indiquer l’orientation probable d’un fragment, suffit à guider l’algorithme sans compromettre la reproductibilité globale.
Une validation sur un défi de référence
Pour éprouver l’approche en conditions proches du terrain, les chercheurs l’ont confrontée à des jeux de fragments inspirés du DARPA Shredder Challenge, un jalon bien connu où l’on tente de reconstituer des documents broyés en très petites bandes ou en confettis. La méthode est parvenue à reconstruire des pages lisibles et cohérentes là où d’autres techniques échouaient ou s’essoufflaient. Ce n’est pas seulement un résultat académique : c’est une preuve que l’algorithme tient la route lorsque les contraintes se rapprochent d’un contexte d’enquête, avec des fragments nombreux, mélangés et parfois abîmés par la manipulation ou la numérisation.
Intérêt pour la pratique forensique
Au-delà des performances brutes, la valeur d’une telle méthode se mesure à son intégration dans un flux de travail probant. La reconstitution initiale, habituellement la plus chronophage, peut être automatisée en grande partie, libérant du temps pour l’analyse de contenu. Surtout, la démarche se prête à une traçabilité fine : journal des hypothèses testées, paramètres retenus, seuils d’acceptation, captures intermédiaires. Ces éléments permettent de documenter la chaîne de conservation, d’expliquer les choix techniques devant un magistrat et, si nécessaire, de reproduire la procédure.
Dans les laboratoires, l’intégration est facilitée si l’on adopte des pratiques d’acquisition rigoureuses comme une numérisation à haute définition, un fond neutre, un calibrage colorimétrique et l’archivage des fichiers sources. Un pré-tri physique des fragments, par grammage, teinte, présence d’images, améliore aussi la robustesse en réduisant les ambiguïtés dès l’entrée.
Limites et pistes d’amélioration
Comme toute méthode d’optimisation, celle-ci dépend d’un paramétrage pertinent. Des seuils trop stricts bloquent l’exploration ; des critères trop laxistes la rendent erratique. Les lots fortement mélangés, composés de documents visuellement proches (même mise en page, mêmes polices), restent difficiles et requièrent parfois une intervention humaine pour éviter les confusions. Les micro-fragments issus de broyeurs très fins constituent un autre défi : moins il y a de surfaces visibles, plus l’algorithme manque de prises. Des progrès sont attendus sur la robustesse aux artefacts de numérisation, sur l’automatisation des étapes de pré-tri et, plus largement, sur l’évaluation standardisée des performances (précision des raccords, complétude des pages, temps de calcul, etc.), pour faciliter la comparaison entre méthodes.
En conclusion
La reconstitution de documents déchirés ne relève plus seulement de la patience et de l’intuition de l’expert. L’optimisation stochastique apporte un moteur d’exploration capable de traiter des volumes importants, de composer avec l’incertitude et d’aboutir à des assemblages exploitables. En combinant automatisation, traçabilité et supervision par un expert lorsque c’est nécessaire, elle transforme un “puzzle impossible” en procédure méthodique, au service de la preuve matérielle, du renseignement et de la sauvegarde d’archives endommagées.
Références :
- Dong, A., & Melnykov, V. (2025). A stochastic optimization approach for shredded document reconstruction in forensic investigations. Journal of Forensic Sciences. https://doi.org/10.1111/1556-4029.70182
- Sundararajan, N., & Murugan, S. (2017). Regenerate the shredded documents by using Memetic Algorithm. International Journal of Hybrid Information Technology, 10(2), 89–102. http://gvpress.com/journals/IJHIT/vol10_no2/10.pdf
Tous droits réservés - © 2025 Forenseek