Quand on parle d’Intelligence Artificielle on a souvent en tête les dernières avancées autour de l’IA générative (e.g. ChatGPT), l’émergence des systèmes autonomes (e.g. conduite automatique), ou encore la popularisation des outils de biométrie (e.g. reconnaissance faciale). On s’imagine alors qu’il s’agit d’un domaine récent, surtout lorsqu'il est question de techniques avancées comme le Deep Learning. Et pourtant, le Perceptron, base du Deep Learning, a été imaginé par Warren McCulloch et Walter Pitts en… 1943 ! La première implémentation de ce réseau de neurones remonte à 1957 avec la machine Mark I Perceptron.
Depuis, l’augmentation des capacités de calcul, la démocratisation de l’IA en entreprise et surtout l’avènement des technologies Big Data, ont permis de nombreuses avancées majeures. Ces dernières années, c’est surtout le domaine du Deep Learning qui a évolué : de l’invention du réseau neuronal convolutif par Yann Lecun (cocorico) en 1989 à l’essor des Large Languages Models via ChatGPT fin 2022, les limites sont constamment repoussées et la fascination pour l’IA n’a jamais été aussi importante.
Notre offre de service Noviad
Valeuriad est une société de service numérique fondée en 2015, spécialisée dans 3 domaines : le DevOps, la Data et le Conseil. Noviad, notre offre de service IA, propose aux entreprises un accompagnement de la conception à l’implémentation de leurs solutions IA, en passant par le déploiement et l'intégration avec les systèmes existants de l'entreprise. Nos experts maîtrisent les algorithmes et techniques à l’état de l’art, et proposent une approche responsable de l’IA avec des réflexions autour de l’éthique, de l’explicabilité et de la sobriété algorithmique.
Noviad accompagne un acteur de l’emploi français dans le développement de ses produits IA
Depuis 2019, nous accompagnons un leader du marché de l’emploi français dans la réalisation et l'industrialisation de ses produits IA. L’objectif ? Concevoir des produits valorisant les données du marché de l'emploi au service des demandeurs d’emploi, des entreprises et des conseillers. Nous avons été sollicités pour instaurer une approche structurée et cohérente de l’IA, mettant l'accent sur la vision produit, et alignée sur les besoins réels des utilisateurs finaux.
Étude des non-conformités dans les offres d’emploi
Nos experts sont intervenus sur plus de 20 projets IA (détection de fraudes, classification de documents, recommandation d’offres...) de la conception à la mise en production. L’un des premiers projets sur lesquels nous avons travaillé avait pour objectif de détecter les non-conformités dans les descriptifs des offres d’emploi (discriminations, demandes illégales, insultes…). La première étape a été de récupérer des offres d’emploi et d’identifier manuellement des phrases exemples pour chaque thème de non-conformité, c’est ce qu’on appelle la labellisation. Ces phrases forment la base d’entraînement de nos modèles d’apprentissage automatique. Une stratégie de labellisation a été mise en place : identification des phrases pertinentes, rédaction d’un guide de labellisation, planification de campagnes de labellisation avec des conseillers. Nous avons ensuite mis en œuvre une approche itérative en commençant par créer un modèle simple de Machine Learning (TFIDF / SVM[LM1] [1]) pour avoir une première base fonctionnelle, puis nous avons amélioré la détection des thèmes d’alerte un par un en fonction de leur importance. Pour chaque thème à améliorer, nous avons entraîné un modèle de Deep Learning (LSTM [2] [LM2] )sur des données labellisées à la main. Ces modèles sont aujourd’hui en production et analyse sur plus de 10 000 offres par jour, ce qui permet de fiabiliser considérablement les offres d’emploi pour les demandeurs d’emploi, mais aussi d’aider les entreprises dans la rédaction des offres d’emploi.
L’humain au centre des projets IA
Dans tous nos projets IA, nous mettons l’humain au centre du projet : c’est lui qui conçoit, développe et utilise le produit. Ici, nous avons travaillé avec les métiers pour définir le besoin, des juristes pour cadrer la définition des non-conformités, des équipes Data pour identifier les sources de données, des architectes pour valider les solutions techniques…, et surtout avec des conseillers, utilisateurs finaux du produit, pour s'assurer que la solution réponde aux besoins et qu’elle soit adaptée à une utilisation réelle. Nous avons notamment développé un outil d’explicabilité destiné aux conseillers pour les aider à comprendre les raisons des alertes remontées par l’algorithme. Notre objectif n'est pas de remplacer l'humain par l'IA mais de lui apporter un soutien qui lui permettra de se concentrer sur les tâches où il a le plus de valeur.
La Data Science, un domaine en constante évolution
Il y a à peine plus d’un an, les IA génératives, et plus spécifiquement les Large Language Models (LLM), ont révolutionné le domaine de l’Intelligence Artificielle. Des outils comme ChatGPT ont démontré des capacités impressionnantes dans la compréhension du langage naturel et dans la génération de texte. Tout comme l’apparition des Transformers en 2017, cette nouvelle technologie vient bouleverser notre approche des problématiques IA. Par exemple, il est très vraisemblable qu’une “simple” requête (= un prompt) soigneusement rédigée pourrait obtenir des résultats a minima similaires à nos algorithmes de Deep Learning sur le sujet de détection des non-conformités dans les offres d’emplois.
Cependant, tout n’est pas aussi simple que ce qu’on pourrait croire. Notre premier problème : ces modèles sont énormes ! Les temps d’entraînement sont considérables, les besoins en ressources physiques sont importants même en inférence (e.g. GPU type A100, une carte spécialisée IA de Nvidia), les temps de réponses sont élevés ce qui peut être rédhibitoire pour certains projets, l’empreinte carbone générée est démesurée, etc. On peut citer d’autres risques : la tendance des LLMs à “halluciner”, des modèles entraînés sur internet avec les biais qui en découlent, des données qui ne sont pas à jour, l’envoi d’informations dans le cloud, un monde Open Source qui évolue (trop) vite, etc.
En conclusion, les IA génératives représentent une avancée majeure qui fascine et qui révolutionne le domaine de l’Intelligence Artificielle. Cependant, tout va très vite et de nombreux défis restent à résoudre à la fois sur des aspects techniques, éthiques et sociétaux. C’est une technologie complexe qui nécessite des compétences d’experts et qui va transformer notre façon de concevoir un projet d’IA. Nous sommes convaincus par les promesses de l’IA générative : plusieurs preuves de valeurs confirment déjà son potentiel pour transformer le paysage de la recherche d'emploi.
L'article a été écrit par Alexandre Garel (ingénieur ENSEA), Data Scientist pour Valeuriad.
[1] TFIDF méthode de calcul générée par un algorithme de moteur de recherche et qui permet de déterminer la pertinence d'un document ou d'un site internet par rapport à un terme.
SVM : Support-vector machine, ou machine à vecteur de support : outil de classification et de discrimination d'informations structurées pour des besoins de filtrage, reconnaissance de formes, etc…
[2] LSTM : Long-short term memory : dispositifs de mémoires de données capables de stocker et gérer les dépendances mutuelles des informations accumulées sur une longue période. Ces dispositifs améliorent et corrigent les réseaux de neurones qui peuvent présenter des défauts liés à une dérive successive dans leur apprentissage (en gros, des données successives prises en compte à court terme s'annulent ou se contredisent).