Optimisation du traitement documentaire : benchmark des modèles de résumé et d'embedding

Introduction

Dans le cadre du développement de Personal Assistant, nous avons développé une approche complète de traitement documentaire basée sur deux composants clés : la génération automatique de résumés et leur vectorisation sémantique. Cette approche permet une gestion efficace des documents à travers leur classification et leur recherche.

Notre démarche s'est articulée autour de deux axes majeurs :

  1. L'évaluation des modèles de génération de résumés automatiques
  2. L'analyse comparative des modèles d'embeddingUn embedding est une représentation vectorielle d'éléments distincts dans un espace à plusieurs dimensions. Chaque élément est mappé dans cet espace de manière à préserver certaines caractéristiques ou relations inhérentes à ces éléments. En d'autres termes, les embeddings traduisent les informations complexes et discrètes en un format continu, ce qui permet aux modèles d'IA de les manipuler plus facilement.

    Embeddings dans le traitement du langage naturel

    Dans le domaine du TAL, les embeddings de mots, comme Word2Vec ou GloVe, sont très courants. Ces techniques permettent de représenter chaque mot d'un vocabulaire par un vecteur de haute dimension.

    L'aspect vraiment révolutionnaire des embeddings de mots est qu'ils parviennent à capturer la signification sémantique des mots. Dans l'espace des embeddings, les mots sémantiquement similaires se trouvent près les uns des autres.
    pour la vectorisation sémantique

La problématique principale était double : trouver un équilibre optimal entre la qualité des résumés générés et les ressources nécessaires, tout en assurant une vectorisation sémantique performante pour une comparaison efficace des documents, le tout avec une compatibilité multilingue (français et anglais).

Architecture du système

Document source
Lecture
Texte brut
Modèle IA résumé
Résumé
Modèle embeddingUn embedding est une représentation vectorielle d'éléments distincts dans un espace à plusieurs dimensions. Chaque élément est mappé dans cet espace de manière à préserver certaines caractéristiques ou relations inhérentes à ces éléments. En d'autres termes, les embeddings traduisent les informations complexes et discrètes en un format continu, ce qui permet aux modèles d'IA de les manipuler plus facilement.

Embeddings dans le traitement du langage naturel

Dans le domaine du TAL, les embeddings de mots, comme Word2Vec ou GloVe, sont très courants. Ces techniques permettent de représenter chaque mot d'un vocabulaire par un vecteur de haute dimension.

L'aspect vraiment révolutionnaire des embeddings de mots est qu'ils parviennent à capturer la signification sémantique des mots. Dans l'espace des embeddings, les mots sémantiquement similaires se trouvent près les uns des autres.
Vecteur sémantique
Similarité
Score de similarité

Méthodologie d'évaluation

Benchmark des modèles de résumé

Notre benchmark évalue cinq critères principaux pour les modèles de résumé, avec une pondération spécifique pour chaque critère :

  • Similarité sémantique (x5)
  • Temps d'exécution (x2)
  • Utilisation RAM (x1)
  • Utilisation CPU (x1)
  • Taille du modèle (x1)

Benchmark des modèles d'embeddingUn embedding est une représentation vectorielle d'éléments distincts dans un espace à plusieurs dimensions. Chaque élément est mappé dans cet espace de manière à préserver certaines caractéristiques ou relations inhérentes à ces éléments. En d'autres termes, les embeddings traduisent les informations complexes et discrètes en un format continu, ce qui permet aux modèles d'IA de les manipuler plus facilement.

Embeddings dans le traitement du langage naturel

Dans le domaine du TAL, les embeddings de mots, comme Word2Vec ou GloVe, sont très courants. Ces techniques permettent de représenter chaque mot d'un vocabulaire par un vecteur de haute dimension.

L'aspect vraiment révolutionnaire des embeddings de mots est qu'ils parviennent à capturer la signification sémantique des mots. Dans l'espace des embeddings, les mots sémantiquement similaires se trouvent près les uns des autres.

Pour les modèles d'embeddingUn embedding est une représentation vectorielle d'éléments distincts dans un espace à plusieurs dimensions. Chaque élément est mappé dans cet espace de manière à préserver certaines caractéristiques ou relations inhérentes à ces éléments. En d'autres termes, les embeddings traduisent les informations complexes et discrètes en un format continu, ce qui permet aux modèles d'IA de les manipuler plus facilement.

Embeddings dans le traitement du langage naturel

Dans le domaine du TAL, les embeddings de mots, comme Word2Vec ou GloVe, sont très courants. Ces techniques permettent de représenter chaque mot d'un vocabulaire par un vecteur de haute dimension.

L'aspect vraiment révolutionnaire des embeddings de mots est qu'ils parviennent à capturer la signification sémantique des mots. Dans l'espace des embeddings, les mots sémantiquement similaires se trouvent près les uns des autres.
, nous avons évalué plus de 40 modèles selon un processus rigoureux en plusieurs étapes :

  1. Prétraitement initial des modèles candidats
  2. Test exhaustif sur l'ensemble des critères
  3. Évaluation avec 13 métriques de similarité différentes
  4. Analyse approfondie des performances

Jeux de test

Pour les résumés

Le benchmark utilise six fichiers de test, répartis équitablement entre le français et l'anglais :

  • Français :
    • Small - textes courts
    • Big - textes moyens
    • XL - textes longs
  • Anglais :
    • Small - textes courts
    • Big - textes moyens
    • XL - textes longs

Pour les embeddingsUn embedding est une représentation vectorielle d'éléments distincts dans un espace à plusieurs dimensions. Chaque élément est mappé dans cet espace de manière à préserver certaines caractéristiques ou relations inhérentes à ces éléments. En d'autres termes, les embeddings traduisent les informations complexes et discrètes en un format continu, ce qui permet aux modèles d'IA de les manipuler plus facilement.

Embeddings dans le traitement du langage naturel

Dans le domaine du TAL, les embeddings de mots, comme Word2Vec ou GloVe, sont très courants. Ces techniques permettent de représenter chaque mot d'un vocabulaire par un vecteur de haute dimension.

L'aspect vraiment révolutionnaire des embeddings de mots est qu'ils parviennent à capturer la signification sémantique des mots. Dans l'espace des embeddings, les mots sémantiquement similaires se trouvent près les uns des autres.

Nous avons utilisé un jeu de 18 phrases tests soigneusement sélectionnées :

  • 9 phrases en français
  • 9 phrases équivalentes en anglais

Résultats

Modèles de résumé

Falconsai arc_of_conversation (score global : 83.57)

Modèles d'embeddingUn embedding est une représentation vectorielle d'éléments distincts dans un espace à plusieurs dimensions. Chaque élément est mappé dans cet espace de manière à préserver certaines caractéristiques ou relations inhérentes à ces éléments. En d'autres termes, les embeddings traduisent les informations complexes et discrètes en un format continu, ce qui permet aux modèles d'IA de les manipuler plus facilement.

Embeddings dans le traitement du langage naturel

Dans le domaine du TAL, les embeddings de mots, comme Word2Vec ou GloVe, sont très courants. Ces techniques permettent de représenter chaque mot d'un vocabulaire par un vecteur de haute dimension.

L'aspect vraiment révolutionnaire des embeddings de mots est qu'ils parviennent à capturer la signification sémantique des mots. Dans l'espace des embeddings, les mots sémantiquement similaires se trouvent près les uns des autres.

deepvk_USER-bge-m3 (score global : 0.92)

Performance globale des solutions

Top 5 des modèles de résumé

Top 5 des modèles d'embeddingUn embedding est une représentation vectorielle d'éléments distincts dans un espace à plusieurs dimensions. Chaque élément est mappé dans cet espace de manière à préserver certaines caractéristiques ou relations inhérentes à ces éléments. En d'autres termes, les embeddings traduisent les informations complexes et discrètes en un format continu, ce qui permet aux modèles d'IA de les manipuler plus facilement.

Embeddings dans le traitement du langage naturel

Dans le domaine du TAL, les embeddings de mots, comme Word2Vec ou GloVe, sont très courants. Ces techniques permettent de représenter chaque mot d'un vocabulaire par un vecteur de haute dimension.

L'aspect vraiment révolutionnaire des embeddings de mots est qu'ils parviennent à capturer la signification sémantique des mots. Dans l'espace des embeddings, les mots sémantiquement similaires se trouvent près les uns des autres.

Conclusion

Notre analyse comparative approfondie nous a permis d'identifier la combinaison optimale pour notre système de traitement documentaire :

Cette combinaison offre :

  • Une excellente qualité de résumé avec une forte similarité sémantique
  • Une vectorisation précise et performante en contexte multilingue
  • Des temps d'exécution optimaux
  • Une utilisation efficiente des ressources système

Perspectives

Les prochaines étapes de développement pour Personal Assistant incluent :

  1. L'optimisation de l'intégration entre les deux modèles
  2. L'amélioration continue des performances
  3. L'extension du support multilingue
  4. L'automatisation du processus de mise à jour des modèles

Cette approche constitue une base solide pour un système de gestion documentaire efficace, évolutif et performant, parfaitement adapté aux besoins de nos clients chez Nicely.