Tech Talk: Comment automatiser la classification des e-mails avec AWS

Tech Talk: Comment automatiser la classification des e-mails avec AWS

Implémentation d'un modèle de classification des e-mails automatisé pour un client et mise en production du modèle avec AWS.

Implémentation d'un modèle de classification des e-mails automatisé pour un client et mise en production du modèle avec AWS.

Implémentation d'un modèle de classification des e-mails automatisé pour un client et mise en production du modèle avec AWS.

Une grande entreprise avec de nombreux clients, comme une banque, une assurance, une mutualité, une administration publique, etc., reçoit quotidiennement une grande quantité d'e-mails de ses clients. Par exemple, les e-mails sont généralement envoyés à une adresse de contact général. Ensuite, les e-mails sont classés manuellement pour être envoyés et traités par le département compétent. Avec ce projet, l'entreprise a commencé à rechercher une méthode plus intelligente avec une classification automatisée des e-mails.

La classification manuelle représente un goulot d'étranglement dans le flux de support client. Peu importe si les départements sont rapides à traiter les requêtes clients, si cela prend des siècles pour les traiter. Par conséquent, une classification automatisée des e-mails peut accroître l'efficacité du support client et, en conséquence, la satisfaction des clients.

Cet article couvre l'approche pour mettre en œuvre un modèle de classification des e-mails pour l'un de nos clients et pour mettre le modèle en production avec Amazon Web Services (AWS). L'objectif était de classer les e-mails entrants en deux catégories. Le problème était qu'il n'y avait pas de classification historique des e-mails. Cependant, il y avait un historique de 1,5 million de commentaires classés du centre de service téléphonique. Ces commentaires étaient déjà classés en catégories pour être utilisés comme proxy pour les e-mails.

Comment le modèle a-t-il été entraîné ?

Nous avons décidé d'utiliser Naïve Bayes pour cette tâche de classification de texte car il est rapide pour faire des prédictions et fonctionne bien lorsqu'il est entraîné sur beaucoup de données.

Avant d'envoyer le texte d'entrée dans Naïve Bayes, nous devons d'abord transformer le texte en données numériques. Nous avons donc utilisé la méthode de pondération par fréquence inverse documentaire (TF-IDF) pour transformer le texte en données numériques. Pour éviter de donner trop de poids aux mots français courants, TF-IDF reçoit une liste de mots vides français (de la bibliothèque Spacy) qu'il ne doit pas prendre en compte.

Ensuite, nous avons utilisé une validation croisée par recherche aléatoire pour trouver les meilleurs paramètres pour le pipeline composé de TF-IDF suivi de Naïve Bayes. La précision sur les e-mails était d'environ 80%, même si nous l'avons entraîné sur des commentaires du centre de service téléphonique. Le modèle a appris le jargon spécifique au secteur à partir de ces commentaires et a transféré les connaissances sur les e-mails.

Comment mettre le modèle en production sur AWS ?

AWS fournit toutes les ressources nécessaires pour exécuter un modèle dans une stack. Cette unité unique peut inclure les règles de réseau, les règles de sécurité, les bases de données et les ressources de calcul pour exécuter votre modèle. Il est préférable d'utiliser une stack par cas d'utilisation/modèle. Le schéma suivant définit l'architecture :

L'architecture d'AWS pour la classification automatisée des e-mails

En résumé, le processus est le suivant :

  1. L'ingénieur de données place l'e-mail à classer comme fichier .parquet dans le bucket d'entrée. Alternativement, nous pouvons tester la stack avec un e-mail d'échantillon généré par le lambda trial.

  2. Un événement détecte ce nouveau fichier et envoie les métadonnées du fichier au déclencheur lambda.

  3. Le déclencheur lambda obtient le nom de l'actif en utilisant le nom du fichier. Il demande ensuite à la stack de l'actif correspondant de traiter les données dans le bucket d'entrée.

  4. La stack d'actif traite et produit les prédictions dans le bucket des sorties.

  5. L'ingénieur de données chargera ensuite cette sortie dans l'entrepôt de données d'entreprise.

La stack principale inclut le lambda trial, le déclencheur lambda, le bucket d'entrée/sortie, les ressources réseau et de calcul.

Exploration détaillée d'une architecture AWS pour la classification automatisée d'e-mails

Examinerons comment ces composants sont liés et assemblés ensemble ! L'ordre d'exécution structure les descriptions des composants. Le premier élément décrit est le premier élément à être exécuté par le code.

App.py pour la classification automatisée des e-mails

L'exécution commence par un script (appelé app.py) dont le but est d'appeler les stacks. Il doit d'abord configurer les configurations de base utilisées pour construire l'environnement et les tags pour chaque stack. Une configuration de base est un dictionnaire qu'AWS utilise pour identifier l'application :

  • Étape : l'étape de développement (dev, test, prod)

  • Région

  • Nom de l'application

  • ID du compte

  • Nom du compte

Il appelle d'abord la MainStack, qui configurera les ressources pour les autres stacks.

MainStack pour la classification automatisée d'e-mails

La MainStack configure les éléments suivants :

  • Bucket d'entrée, de sortie et de configuration

  • Nuage privé virtuel (VPC) et sous-réseaux

  • Ressources de calcul

  • File d'attente des tâches

  • Essai lambda et déclencheurs lambda

Les buckets sont construits en utilisant l'ID de compte, le nom de l'application et l'étape. Cela signifie que nous créerons plusieurs buckets en fonction du nombre d'étapes définies. Il est préférable de séparer autant que possible les étapes de développement, test et production.

Les ressources de calcul peuvent définir le nombre minimal et maximal de CPU que nous souhaitons allouer aux stacks.

La file d'attente des tâches utilise le VPC, les sous-réseaux et les ressources de calcul initialisées. Elle a pour but de mettre en file d'attente les tâches et d'exécuter la tâche avec la plus haute priorité.

L'essai lambda vise à créer un fichier parquet de test dans le bucket d'entrée pour tester les stacks. Ensuite, le déclencheur lambda envoie une tâche en utilisant le nom de la clé de fichier et le bucket de l'événement. De plus, la stack principale doit également ajouter une politique de rôle à chaque lambda et la source du bucket au déclencheur lambda.

De plus, il est essentiel d'accorder des permissions de bucket aux fonctions lambda. Sinon, elles ne peuvent pas effectuer d'actions avec les buckets.

Ressources et étapes de la stack d'e-mails pour la classification automatisée des e-mails

Une image docker 'containerise' chaque stack. Nous définissons les ressources suivantes dans la classe stack :

  • Actif d'image Docker

  • Configuration des journaux : Cela garantit que les journaux seront dans CloudWatch.

  • Rôle de tâche : Il accorde la permission de la tâche d'accéder à d'autres ressources AWS.

  • Conteneur de définition de tâche : un emballage autour des actifs d'image docker.

  • Définition de tâche : Elle définit la tâche en utilisant le conteneur de définition de tâche, le rôle et les journaux.

L'image docker contient les scripts à exécuter dans le conteneur. Nous pouvons résumer la stack par les étapes suivantes :

  1. Créer un dictionnaire de contexte composé des informations sur l'environnement et la configuration

  2. Obtenir les données d'entrée à partir du bucket d'entrée

  3. Obtenir le modèle à partir de son bucket

  4. Vérifier si les données d'entrée ont le bon format et les bonnes colonnes.

  5. Utiliser le modèle pour prédire les catégories des données d'entrée.

  6. Créer un data frame avec les catégories prédites des données d'entrée

  7. Télécharger le data frame de sortie dans le bucket de sortie

Plus sur la configuration de la stack d'e-mails

Toutes les stacks commencent par extraire les variables d'environnement et les variables de configuration. Elles mettent les variables dans un dictionnaire qui passera entre les fonctions des stacks. Les variables d'environnement contiennent le bucket d'entrée, le bucket de sortie et la clé de fichier. Les variables de configuration incluent des variables avec des informations statiques, comme la clé du modèle ou le nom du modèle. Pour récupérer les données d'un bucket dans AWS en utilisant Python, nous utilisons la bibliothèque boto3.

Les données d'entrée étaient composées d'environ 1 million de lignes. Votre (Elastic Container 2) EC2 pourrait provoquer une erreur de mémoire car il n'y a pas assez de mémoire pour gérer cette quantité de données en une seule fois. La solution est donc de diviser vos données en plus petits morceaux. Ensuite, vous pouvez appliquer votre fonction de prétraitement à vos données. Pour accélérer le temps de prétraitement, nous recommandons d'utiliser la fonction de vectorisation fournie par NumPy.

Conclusion

Félicitations ! Vous avez maintenant une image complète pour déployer un modèle de classification dans AWS. Dans notre exemple, le modèle de classification automatisée des e-mails mis en production traite environ 500 000 e-mails quotidiennement. Imaginez ce que votre entreprise pourrait faire avec une telle capacité.


Une grande entreprise avec de nombreux clients, comme une banque, une assurance, une mutualité, une administration publique, etc., reçoit quotidiennement une grande quantité d'e-mails de ses clients. Par exemple, les e-mails sont généralement envoyés à une adresse de contact général. Ensuite, les e-mails sont classés manuellement pour être envoyés et traités par le département compétent. Avec ce projet, l'entreprise a commencé à rechercher une méthode plus intelligente avec une classification automatisée des e-mails.

La classification manuelle représente un goulot d'étranglement dans le flux de support client. Peu importe si les départements sont rapides à traiter les requêtes clients, si cela prend des siècles pour les traiter. Par conséquent, une classification automatisée des e-mails peut accroître l'efficacité du support client et, en conséquence, la satisfaction des clients.

Cet article couvre l'approche pour mettre en œuvre un modèle de classification des e-mails pour l'un de nos clients et pour mettre le modèle en production avec Amazon Web Services (AWS). L'objectif était de classer les e-mails entrants en deux catégories. Le problème était qu'il n'y avait pas de classification historique des e-mails. Cependant, il y avait un historique de 1,5 million de commentaires classés du centre de service téléphonique. Ces commentaires étaient déjà classés en catégories pour être utilisés comme proxy pour les e-mails.

Comment le modèle a-t-il été entraîné ?

Nous avons décidé d'utiliser Naïve Bayes pour cette tâche de classification de texte car il est rapide pour faire des prédictions et fonctionne bien lorsqu'il est entraîné sur beaucoup de données.

Avant d'envoyer le texte d'entrée dans Naïve Bayes, nous devons d'abord transformer le texte en données numériques. Nous avons donc utilisé la méthode de pondération par fréquence inverse documentaire (TF-IDF) pour transformer le texte en données numériques. Pour éviter de donner trop de poids aux mots français courants, TF-IDF reçoit une liste de mots vides français (de la bibliothèque Spacy) qu'il ne doit pas prendre en compte.

Ensuite, nous avons utilisé une validation croisée par recherche aléatoire pour trouver les meilleurs paramètres pour le pipeline composé de TF-IDF suivi de Naïve Bayes. La précision sur les e-mails était d'environ 80%, même si nous l'avons entraîné sur des commentaires du centre de service téléphonique. Le modèle a appris le jargon spécifique au secteur à partir de ces commentaires et a transféré les connaissances sur les e-mails.

Comment mettre le modèle en production sur AWS ?

AWS fournit toutes les ressources nécessaires pour exécuter un modèle dans une stack. Cette unité unique peut inclure les règles de réseau, les règles de sécurité, les bases de données et les ressources de calcul pour exécuter votre modèle. Il est préférable d'utiliser une stack par cas d'utilisation/modèle. Le schéma suivant définit l'architecture :

L'architecture d'AWS pour la classification automatisée des e-mails

En résumé, le processus est le suivant :

  1. L'ingénieur de données place l'e-mail à classer comme fichier .parquet dans le bucket d'entrée. Alternativement, nous pouvons tester la stack avec un e-mail d'échantillon généré par le lambda trial.

  2. Un événement détecte ce nouveau fichier et envoie les métadonnées du fichier au déclencheur lambda.

  3. Le déclencheur lambda obtient le nom de l'actif en utilisant le nom du fichier. Il demande ensuite à la stack de l'actif correspondant de traiter les données dans le bucket d'entrée.

  4. La stack d'actif traite et produit les prédictions dans le bucket des sorties.

  5. L'ingénieur de données chargera ensuite cette sortie dans l'entrepôt de données d'entreprise.

La stack principale inclut le lambda trial, le déclencheur lambda, le bucket d'entrée/sortie, les ressources réseau et de calcul.

Exploration détaillée d'une architecture AWS pour la classification automatisée d'e-mails

Examinerons comment ces composants sont liés et assemblés ensemble ! L'ordre d'exécution structure les descriptions des composants. Le premier élément décrit est le premier élément à être exécuté par le code.

App.py pour la classification automatisée des e-mails

L'exécution commence par un script (appelé app.py) dont le but est d'appeler les stacks. Il doit d'abord configurer les configurations de base utilisées pour construire l'environnement et les tags pour chaque stack. Une configuration de base est un dictionnaire qu'AWS utilise pour identifier l'application :

  • Étape : l'étape de développement (dev, test, prod)

  • Région

  • Nom de l'application

  • ID du compte

  • Nom du compte

Il appelle d'abord la MainStack, qui configurera les ressources pour les autres stacks.

MainStack pour la classification automatisée d'e-mails

La MainStack configure les éléments suivants :

  • Bucket d'entrée, de sortie et de configuration

  • Nuage privé virtuel (VPC) et sous-réseaux

  • Ressources de calcul

  • File d'attente des tâches

  • Essai lambda et déclencheurs lambda

Les buckets sont construits en utilisant l'ID de compte, le nom de l'application et l'étape. Cela signifie que nous créerons plusieurs buckets en fonction du nombre d'étapes définies. Il est préférable de séparer autant que possible les étapes de développement, test et production.

Les ressources de calcul peuvent définir le nombre minimal et maximal de CPU que nous souhaitons allouer aux stacks.

La file d'attente des tâches utilise le VPC, les sous-réseaux et les ressources de calcul initialisées. Elle a pour but de mettre en file d'attente les tâches et d'exécuter la tâche avec la plus haute priorité.

L'essai lambda vise à créer un fichier parquet de test dans le bucket d'entrée pour tester les stacks. Ensuite, le déclencheur lambda envoie une tâche en utilisant le nom de la clé de fichier et le bucket de l'événement. De plus, la stack principale doit également ajouter une politique de rôle à chaque lambda et la source du bucket au déclencheur lambda.

De plus, il est essentiel d'accorder des permissions de bucket aux fonctions lambda. Sinon, elles ne peuvent pas effectuer d'actions avec les buckets.

Ressources et étapes de la stack d'e-mails pour la classification automatisée des e-mails

Une image docker 'containerise' chaque stack. Nous définissons les ressources suivantes dans la classe stack :

  • Actif d'image Docker

  • Configuration des journaux : Cela garantit que les journaux seront dans CloudWatch.

  • Rôle de tâche : Il accorde la permission de la tâche d'accéder à d'autres ressources AWS.

  • Conteneur de définition de tâche : un emballage autour des actifs d'image docker.

  • Définition de tâche : Elle définit la tâche en utilisant le conteneur de définition de tâche, le rôle et les journaux.

L'image docker contient les scripts à exécuter dans le conteneur. Nous pouvons résumer la stack par les étapes suivantes :

  1. Créer un dictionnaire de contexte composé des informations sur l'environnement et la configuration

  2. Obtenir les données d'entrée à partir du bucket d'entrée

  3. Obtenir le modèle à partir de son bucket

  4. Vérifier si les données d'entrée ont le bon format et les bonnes colonnes.

  5. Utiliser le modèle pour prédire les catégories des données d'entrée.

  6. Créer un data frame avec les catégories prédites des données d'entrée

  7. Télécharger le data frame de sortie dans le bucket de sortie

Plus sur la configuration de la stack d'e-mails

Toutes les stacks commencent par extraire les variables d'environnement et les variables de configuration. Elles mettent les variables dans un dictionnaire qui passera entre les fonctions des stacks. Les variables d'environnement contiennent le bucket d'entrée, le bucket de sortie et la clé de fichier. Les variables de configuration incluent des variables avec des informations statiques, comme la clé du modèle ou le nom du modèle. Pour récupérer les données d'un bucket dans AWS en utilisant Python, nous utilisons la bibliothèque boto3.

Les données d'entrée étaient composées d'environ 1 million de lignes. Votre (Elastic Container 2) EC2 pourrait provoquer une erreur de mémoire car il n'y a pas assez de mémoire pour gérer cette quantité de données en une seule fois. La solution est donc de diviser vos données en plus petits morceaux. Ensuite, vous pouvez appliquer votre fonction de prétraitement à vos données. Pour accélérer le temps de prétraitement, nous recommandons d'utiliser la fonction de vectorisation fournie par NumPy.

Conclusion

Félicitations ! Vous avez maintenant une image complète pour déployer un modèle de classification dans AWS. Dans notre exemple, le modèle de classification automatisée des e-mails mis en production traite environ 500 000 e-mails quotidiennement. Imaginez ce que votre entreprise pourrait faire avec une telle capacité.


Une grande entreprise avec de nombreux clients, comme une banque, une assurance, une mutualité, une administration publique, etc., reçoit quotidiennement une grande quantité d'e-mails de ses clients. Par exemple, les e-mails sont généralement envoyés à une adresse de contact général. Ensuite, les e-mails sont classés manuellement pour être envoyés et traités par le département compétent. Avec ce projet, l'entreprise a commencé à rechercher une méthode plus intelligente avec une classification automatisée des e-mails.

La classification manuelle représente un goulot d'étranglement dans le flux de support client. Peu importe si les départements sont rapides à traiter les requêtes clients, si cela prend des siècles pour les traiter. Par conséquent, une classification automatisée des e-mails peut accroître l'efficacité du support client et, en conséquence, la satisfaction des clients.

Cet article couvre l'approche pour mettre en œuvre un modèle de classification des e-mails pour l'un de nos clients et pour mettre le modèle en production avec Amazon Web Services (AWS). L'objectif était de classer les e-mails entrants en deux catégories. Le problème était qu'il n'y avait pas de classification historique des e-mails. Cependant, il y avait un historique de 1,5 million de commentaires classés du centre de service téléphonique. Ces commentaires étaient déjà classés en catégories pour être utilisés comme proxy pour les e-mails.

Comment le modèle a-t-il été entraîné ?

Nous avons décidé d'utiliser Naïve Bayes pour cette tâche de classification de texte car il est rapide pour faire des prédictions et fonctionne bien lorsqu'il est entraîné sur beaucoup de données.

Avant d'envoyer le texte d'entrée dans Naïve Bayes, nous devons d'abord transformer le texte en données numériques. Nous avons donc utilisé la méthode de pondération par fréquence inverse documentaire (TF-IDF) pour transformer le texte en données numériques. Pour éviter de donner trop de poids aux mots français courants, TF-IDF reçoit une liste de mots vides français (de la bibliothèque Spacy) qu'il ne doit pas prendre en compte.

Ensuite, nous avons utilisé une validation croisée par recherche aléatoire pour trouver les meilleurs paramètres pour le pipeline composé de TF-IDF suivi de Naïve Bayes. La précision sur les e-mails était d'environ 80%, même si nous l'avons entraîné sur des commentaires du centre de service téléphonique. Le modèle a appris le jargon spécifique au secteur à partir de ces commentaires et a transféré les connaissances sur les e-mails.

Comment mettre le modèle en production sur AWS ?

AWS fournit toutes les ressources nécessaires pour exécuter un modèle dans une stack. Cette unité unique peut inclure les règles de réseau, les règles de sécurité, les bases de données et les ressources de calcul pour exécuter votre modèle. Il est préférable d'utiliser une stack par cas d'utilisation/modèle. Le schéma suivant définit l'architecture :

L'architecture d'AWS pour la classification automatisée des e-mails

En résumé, le processus est le suivant :

  1. L'ingénieur de données place l'e-mail à classer comme fichier .parquet dans le bucket d'entrée. Alternativement, nous pouvons tester la stack avec un e-mail d'échantillon généré par le lambda trial.

  2. Un événement détecte ce nouveau fichier et envoie les métadonnées du fichier au déclencheur lambda.

  3. Le déclencheur lambda obtient le nom de l'actif en utilisant le nom du fichier. Il demande ensuite à la stack de l'actif correspondant de traiter les données dans le bucket d'entrée.

  4. La stack d'actif traite et produit les prédictions dans le bucket des sorties.

  5. L'ingénieur de données chargera ensuite cette sortie dans l'entrepôt de données d'entreprise.

La stack principale inclut le lambda trial, le déclencheur lambda, le bucket d'entrée/sortie, les ressources réseau et de calcul.

Exploration détaillée d'une architecture AWS pour la classification automatisée d'e-mails

Examinerons comment ces composants sont liés et assemblés ensemble ! L'ordre d'exécution structure les descriptions des composants. Le premier élément décrit est le premier élément à être exécuté par le code.

App.py pour la classification automatisée des e-mails

L'exécution commence par un script (appelé app.py) dont le but est d'appeler les stacks. Il doit d'abord configurer les configurations de base utilisées pour construire l'environnement et les tags pour chaque stack. Une configuration de base est un dictionnaire qu'AWS utilise pour identifier l'application :

  • Étape : l'étape de développement (dev, test, prod)

  • Région

  • Nom de l'application

  • ID du compte

  • Nom du compte

Il appelle d'abord la MainStack, qui configurera les ressources pour les autres stacks.

MainStack pour la classification automatisée d'e-mails

La MainStack configure les éléments suivants :

  • Bucket d'entrée, de sortie et de configuration

  • Nuage privé virtuel (VPC) et sous-réseaux

  • Ressources de calcul

  • File d'attente des tâches

  • Essai lambda et déclencheurs lambda

Les buckets sont construits en utilisant l'ID de compte, le nom de l'application et l'étape. Cela signifie que nous créerons plusieurs buckets en fonction du nombre d'étapes définies. Il est préférable de séparer autant que possible les étapes de développement, test et production.

Les ressources de calcul peuvent définir le nombre minimal et maximal de CPU que nous souhaitons allouer aux stacks.

La file d'attente des tâches utilise le VPC, les sous-réseaux et les ressources de calcul initialisées. Elle a pour but de mettre en file d'attente les tâches et d'exécuter la tâche avec la plus haute priorité.

L'essai lambda vise à créer un fichier parquet de test dans le bucket d'entrée pour tester les stacks. Ensuite, le déclencheur lambda envoie une tâche en utilisant le nom de la clé de fichier et le bucket de l'événement. De plus, la stack principale doit également ajouter une politique de rôle à chaque lambda et la source du bucket au déclencheur lambda.

De plus, il est essentiel d'accorder des permissions de bucket aux fonctions lambda. Sinon, elles ne peuvent pas effectuer d'actions avec les buckets.

Ressources et étapes de la stack d'e-mails pour la classification automatisée des e-mails

Une image docker 'containerise' chaque stack. Nous définissons les ressources suivantes dans la classe stack :

  • Actif d'image Docker

  • Configuration des journaux : Cela garantit que les journaux seront dans CloudWatch.

  • Rôle de tâche : Il accorde la permission de la tâche d'accéder à d'autres ressources AWS.

  • Conteneur de définition de tâche : un emballage autour des actifs d'image docker.

  • Définition de tâche : Elle définit la tâche en utilisant le conteneur de définition de tâche, le rôle et les journaux.

L'image docker contient les scripts à exécuter dans le conteneur. Nous pouvons résumer la stack par les étapes suivantes :

  1. Créer un dictionnaire de contexte composé des informations sur l'environnement et la configuration

  2. Obtenir les données d'entrée à partir du bucket d'entrée

  3. Obtenir le modèle à partir de son bucket

  4. Vérifier si les données d'entrée ont le bon format et les bonnes colonnes.

  5. Utiliser le modèle pour prédire les catégories des données d'entrée.

  6. Créer un data frame avec les catégories prédites des données d'entrée

  7. Télécharger le data frame de sortie dans le bucket de sortie

Plus sur la configuration de la stack d'e-mails

Toutes les stacks commencent par extraire les variables d'environnement et les variables de configuration. Elles mettent les variables dans un dictionnaire qui passera entre les fonctions des stacks. Les variables d'environnement contiennent le bucket d'entrée, le bucket de sortie et la clé de fichier. Les variables de configuration incluent des variables avec des informations statiques, comme la clé du modèle ou le nom du modèle. Pour récupérer les données d'un bucket dans AWS en utilisant Python, nous utilisons la bibliothèque boto3.

Les données d'entrée étaient composées d'environ 1 million de lignes. Votre (Elastic Container 2) EC2 pourrait provoquer une erreur de mémoire car il n'y a pas assez de mémoire pour gérer cette quantité de données en une seule fois. La solution est donc de diviser vos données en plus petits morceaux. Ensuite, vous pouvez appliquer votre fonction de prétraitement à vos données. Pour accélérer le temps de prétraitement, nous recommandons d'utiliser la fonction de vectorisation fournie par NumPy.

Conclusion

Félicitations ! Vous avez maintenant une image complète pour déployer un modèle de classification dans AWS. Dans notre exemple, le modèle de classification automatisée des e-mails mis en production traite environ 500 000 e-mails quotidiennement. Imaginez ce que votre entreprise pourrait faire avec une telle capacité.


Prêt à atteindre vos objectifs avec les données ?

Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'IA, vous êtes au bon endroit.

Prêt à atteindre vos objectifs avec les données ?

Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'IA, vous êtes au bon endroit.

Prêt à atteindre vos objectifs avec les données ?

Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'IA, vous êtes au bon endroit.

Prêt à atteindre vos objectifs avec les données ?

Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'IA, vous êtes au bon endroit.

© 2025 Agilytic

© 2025 Agilytic

© 2025 Agilytic