Browse
Recent Submissions
Item Conception et réalisation d’un module ERP pour la gestion des opérations escale au sein de l’Entreprise Portuaire de Skikda(Faculté des Sciences, 2025) BOUCHELIT, Fadi; Zeghida ,Djamel.; BELKAHLA,RoumaissaL’objectif de ce mémoire est de concevoir et réaliser un ERP pour la gestion et le suivi des opérations des escales des navires, c’est le résultat d'une étude approfondie d’un système existant lors de notre stage à l’Entreprise Portuaire Skikda. Nous avons utilisé le langage de modélisation UML pour la conception, et pour la programmation nous avons choisi Odoo comme un progiciel open source avec le langage python qui respecte le modèle de conception MVC, ainsi que PostgreSQL en tant que système de gestion de base de données.Item Segmentation client par machine learning : application marketing(Faculté des Sciences, 2025) BOUGHIOUT ,Youcef; TOURECHE ,Oussama; MAGROUN, HananeLes entreprises, en particulier celles des secteurs du commerce électronique et de la vente au détail, collectent des données démographiques et financières étendues sur leurs clients qui fournissent des insights cruciaux sur les modèles de comportement des consommateurs et leur pouvoir d'achat. Ce mémoire aborde le problème de la segmentation des clients en utilisant l'algorithme K-means pour identifier et analyser différentes catégories de clients basées sur les caractéristiques démographiques et économiques dans une stratégie marketing ciblée. Le problème d'étude est la difficulté pour les entreprises à catégoriser efficacement leur base de clientèle diversifiée et à adapter leurs approches marketing sans une segmentation appropriée basée sur des indicateurs démographiques et financiers clés. La solution proposée consiste à appliquer l'algorithme K-means sur des données clients incluant l'âge, le sexe, le revenu annuel et le score de dépenses pour créer des clusters clients significatifs. Les résultats obtenus révèlent des segments clients distincts avec des profils de dépenses spécifiques, permettant aux entreprises de développer des stratégies marketing ciblées et d'optimiser les offres produits pour chaque groupe de clients identifiéItem Un system de prévision des maladies agricoles(FACULTÉ DES SCIENCES, 2025) REHAIL ,Ayoub; BOUCHETATA, Djihad; BENOUDINA ,LazharLa détection précoce des maladies de la pomme de terre, notamment le mildiou (Phytophthora infestans) et l'alternariose (Alternaria solani), représente un défi majeur en agriculture en raison de la rapidité de propagation et des impacts dévastateurs sur les rendements. Cette étude propose une approche innovante basée sur les réseaux de neurones convolutifs (CNN) pour classer automatiquement les états de santé des plants à partir d'images foliaires. En exploitant une base de données d'images annotées, nous avons développé et comparé plusieurs architectures profondes, incluant des modèles CNN personnalisés et des architectures pré-entraînées comme VGG16 et ResNet, évaluées à l'aide de métriques telles que l'accuracy, le F1-score, la précision et le rappel. Les résultats expérimentaux démontrent la supériorité des approches par apprentissage profond, avec notre modèle CNN personnalisé atteignant une précision de 98.7%, un F1-score de 0.98 et une AUC de 0.99, surpassant significativement les méthodes traditionnelles. Ces performances soulignent le potentiel des systèmes basés sur le deep learning pour fournir aux agriculteurs un outil de diagnostic rapide et fiable, contribuant ainsi à une gestion phytosanitaire plus efficace et durable.Item The Detection of AI-Generated Video Sequences(Faculty of Science, 2025) Kabrane ,Mohamed Achraf; Boughamouza, FatehIn recent years, the advancement of artificial intelligence has enabled the creation of highly realistic digital content. Among the most notable developments is the rise of deepfake videos — synthetic videos generated by AI models that can closely imitate human faces, voices, and movements. While such technologies offer creative potential, they also raise serious concerns about misinformation, identity fraud, and digital manipulation. This thesis addresses the challenge of detecting AI-generated videos by proposing a deep learning-based system capable of distinguishing real from synthetic content. The work combines theoretical research on generative models and detection techniques with a practical implementation of a video classification model. The proposed system uses a hybrid architecture that captures both visual and temporal features in video sequences. The project includes data preparation, model design, training, and evaluation. Results show the model's ability to detect synthetic videos with promising performance, contributing to ongoing efforts in media forensics and digital content verification. This research reflects the growing need for tools that ensure trust and authenticity in an increasingly digital world.Item UNE APPROCHE DE MODÉLISATION ET DE VÉRIFICATION DES DIAGRAMMES UML 2.0 D’ÉTATS-TRANSITIONS EN UTILISANT GROOVE(Faculté des Sciences, 2025) Manel ,Gheribi; Saoussene ,Bouslama; Houda ,HAMROUCHECe mémoire s’inscrit dans le cadre de l’Ingénierie Dirigée par les Modèles (IDM), une approche visant à maîtriser la complexité croissante des systèmes logiciels en plaçant les modèles au coeur du processus de développement. Il s’intéresse particulièrement aux diagrammes d’états-transitions UML 2.0 (UML 2.0 STM), utilisés pour modéliser le comportement dynamique des systèmes interactifs. Toutefois, la sémantique informelle de ces diagrammes constitue un frein majeur à leur vérification automatique, en particulier pour les systèmes critiques où la fiabilité est très importante. Communicating Sequential Processes (CSP) est un langage de spécification formel adapté pour décrire les interactions dans les systèmes concurrents. Dans ce mémoire nous proposons une approche formelle intégrée combinant UML 2.0 STM avec le langage CSP visant à modéliser et à vérifier le comportement des systèmes modélisés. Notre approche repose sur la transformation de graphes et utilise l'outil de modélisation et de vérification GROOVE. Elle propose un méta-modèle des diagrammes UML 2.0 STM (source), un méta-modèle de CSP (cible), un méta-modèle de correspondances établissant les relations entre les modèles source et cible, et une grammaire de graphes. Afin d’illustrer cette approche, nous présentons une étude de casItem Conception et Développement d’une Application OCR-OMR : Correction Automatique des Examens à base de QCMs comme Etude de Cas(Faculté des Sciences, 2025) Lemchema ,Mounir; Zouiten ,Abdelhak; Mawloud ,MOSBAHAu sein de l’université, les examens constituent le moyen standard pour évaluer les étudiants après un semestre d’étude. La correction des examens semble être une tâche dure et fastidieuse surtout pour les promotions de première année tronc-commun où il y a un nombre volumineux des étudiants. Pour cette raison, aller dans le sens des examens à base des QCM, où la correction devient seulement une vérification par rapport au corrigé type, est un raisonnement devant être adopté par les enseignants, de nos jours, pour simplifier la tâche de correction d’une part, et rendre la phase de réponse plus facile aux étudiants, surtout ceux qui sont faibles à la langue d’étude, d’autre part. L’objectif de ce mémoire de fin d’études est de concevoir et de mettre en oeuvre une application informatique permettant de corriger les copies d’examen automatiquement, reconnaitre les noms des étudiants sur les copies, et remplir les notes sur la plateforme d’évaluation en générant un fichier en format Excel. Notre application s’inscrit alors dans le cadre de la reconnaissance automatique du manuscrit en reconnaissant les noms des étudiants, leurs groupes associés, ainsi que les réponses correctes. Nous procédons alors à appliquer les différentes étapes du processus de reconnaissance de la phase de prétraitement qui englobe la binarisation et la segmentation automatique, jusqu’à l’étape de reconnaissance des noms des étudiants, leurs groupes associés, ainsi que les réponses correctes. Dans le but de simplifier les tâches à effectuer par notre application, on exige un certain modèle de la copie d’examens afin de limiter l’espace où l’étudiant est invité à cocher la bonne réponseItem Conception et réalisation d’un drone quadrirotor pour le suivi des incendies(Faculté des Sciences, 2025) Aissa ,Kenef; Badr ,Eddine Bezaze; Laroum ,ToukikLes drones Unmanned Aerial Vehicle (UAV) ont démontré une grande efficacité dans la surveillance de l’environnement et la gestion des catastrophes. Ce projet vise à développer un drone équipé d’une caméra capable de détecter en temps réel la présence d’incendies et de personnes. Un Raspberry Pi est utilisé comme unité de traitement embarquée, permettant de capturer des images aériennes et de les transmettre via une connexion Wi-Fi à un ordinateur pour analyse. Le système a pour objectif d’offrir une solution rapide et intelligente afin d’aider les équipes de secours à détecter les incendies et identifier les personnes dans les zones dangereuses ou isolées, ce qui permet de réduire le temps de réponse et de limiter les risques.Item Etude et évaluation des protocoles de routage dans les réseaux de capteurs sans fil hiérarchiques : LEACH, SEP et TSEP(Faculté des sciences, 2025) Saker ,Assia; Dounia ,Lekhchine; REDJIMI, KenzaLes réseaux de capteurs sans fil (RCSFs) représentent une technologie clé pour les applications modernes, mais leur efficacité est limitée par des contraintes énergétiques strictes. Ce mémoire se concentre sur l'étude comparative des protocoles de routage hiérarchique LEACH, SEP et TSEP, qui optimisent la consommation d'énergie grâce à une organisation en clusters. Les protocoles sont évalués sur leur capacité à prolonger la durée de vie du réseau, à maintenir une couverture optimale et à réduire la latence, tout en équilibrant la charge entre les noeuds. Les simulations réalisées sous MATLAB mettent en évidence les forces et les faiblesses de chaque protocole. LEACH montre des limitations évidentes en termes d'équilibrage énergétique, particulièrement pour les noeuds éloignés. SEP présente un meilleur compromis, avec une réduction notable de la mortalité précoce des noeuds. TSEP, quant à lui, se distingue par sa stabilité et son efficacité énergétique, tout en maintenant des niveaux de latence acceptables. Cette étude comparative met en lumière l'évolution des protocoles de routage hiérarchique, depuis l'approche simple de LEACH jusqu'aux mécanismes avancés de TSEP. Les résultats soulignent l'importance d'adapter le protocole de routage aux caractéristiques spécifiques du réseau et aux exigences de l'application.Item Amélioration du Protocole TCP pour les Applications Temps Réel Multimédia(Faculté des Sciences, 2025) Insaf,SAADI; Mehdi ,BOULAICHECe mémoire vise à adapter le protocole TCP aux exigences des applications temps réel, telles que la vidéo interactive et la voix sur Internet. Pour ce faire, nous avons adopté une approche de communication inter-couches, où la couche application envoie un signal à la couche transport l'informant que les données transmises sont en temps réel. À la réception de ce signal, TCP élargit la fenêtre de réception, permettant ainsi le passage d'un plus grand volume de données sans attendre d'accusé de réception (ACK), réduisant ainsi la latence. Des expériences ont montré que cette modification améliore les performances de TCP dans ce contexte, bien qu'elle n'ait pas été initialement prévue pour les applications temps réel. Les graphiques ci-joints mettent en évidence la nette différence de comportement du protocole avant et après la modification, avec une analyse détaillée des différences de latence et de réponseItem Détection automatisée des maladies de la pomme de terre par Deep Learning(Faculté des sciences, 2025) Chebel ,Seif Eddine; Magroun ,HananeLa détection des maladies des plantes constitue un enjeu majeur dans le domaine de l’agriculture intelligente, car un diagnostic précoce peut améliorer considérablement la productivité et réduire les pertes économiques. Avec l’évolution rapide des technologies d’intelligence artificielle, il est désormais possible d’analyser automatiquement des images de plantes et d’identifier les maladies avec une grande précision. Ce mémoire porte sur la conception et le développement d’un système intelligent permettant la détection et la classification des maladies des feuilles de pomme de terre, en s’appuyant sur des modèles d’apprentissage profond basés sur les réseaux de neurones convolutifs (CNN), notamment DenseNet121 et U-Net. La méthodologie adoptée commence par le traitement et la préparation de la base de données Plant Village, qui contient des images étiquetées de feuilles saines et malades. Les étapes de prétraitement incluent la réduction du bruit, la normalisation et le redimensionnement des images, suivies par l’extraction des caractéristiques et l’entraînement des modèles. Pour faciliter l’utilisation du système une interface web interactive a été développée à l’aide de technologies modernes telles que FastAPI et ReactJS, offrant ainsi une expérience conviviale pour l’utilisateur.. Les résultats expérimentaux ont montré que le modèle DenseNet121 a obtenu les meilleures performances avec une précision d’entraînement atteignant 99,48 %, et une stabilité remarquable lors de la validation, ce qui démontre son efficacité dans la classification des maladies. En revanche, le modèle U-Net a présenté des performances moins stables, avec certaines fluctuations. Ce travail confirme le potentiel de l’intelligence artificielle dans le développement de solutions pratiques destinées au secteur agricole, et ouvre la voie à des outils intelligents au service des agriculteurs de demain.Item Multimodal Deception Detection Using Machine and Deep Learning: A Comparative Study on Audio and Visual Cues(Computer Science, 2025) CHAGUETMI, Ilhem; TADJINE, Meram; BOUGAMOUZA, FatehThis thesis explores the use of artificial intelligence for automated deception detection using multimodal data. Traditional lie detection methods—such as polygraph testing and behavioral observation—are limited by subjectivity and poor reliability. In response, this work investigates machine learning and deep learning models applied to audio and visual cues from the Real-Life Trial Deception Dataset (RLDD), which features authentic courtroom testimonies. The proposed pipeline covers feature extraction, model training, and system deployment. Audio features were extracted using the ComParE_2016 set, while visual features were generated through Vision Transformer (ViT) embeddings. Multiple models, including SVM, XGBoost, Conv1D, BiGRU, and CNN+LSTM, were tested across four configurations: audio-only, visual-only, early fusion, and late fusion. SVM and Conv1D performed best for audio inputs, while BiGRU and CNN+LSTM achieved the highest accuracy for visual inputs. The final system—LieBusters—uses SVM for audio and BiGRU for visual detection, integrated via decision-level late fusion. It features a real-time interface, recording tools, and LIME-based interpretability for ethical transparency. This work provides both a practical prototype and a benchmark for future AI-driven behavioral analysis tools.Item Etude et mise en oeuvre d’un protocole de routage hiérarchique dans les réseaux de Capteurs sans fil(Faculté des Sciences, 2022) Benzaid ,Abdelghani; Benredouane, Amel; Redjimi, MohamedL’intelligence artificielle, à travers ses divers paradigmes et techniques, joue aujourd’hui un rôle central dans l’amélioration du diagnostic médical, toutes spécialités confondues. L’imagerie médicale constitue un outil indispensable pour les cliniciens et radiologues, en l’aidant à affiner les diagnostics et à définir les stratégies thérapeutiques appropriées. La reconnaissance des anomalies pathologiques dans les images médicales, notamment par l’apprentissage automatique – qu’il soit classique ou moderne – connaît un essor significatif en médecine contemporaine. Dans le cadre de ce mémoire de master, nous explorons une technique d’apprentissage automatique non supervisée : l’algorithme de clustering k-means. Notre contribution consiste à proposer une approche de segmentation localisée, dans laquelle les images IRM cérébrales sont d’abord divisées en régions, puis segmentées localement à l’aide de k-means, avant d’agréger les résultats partiels pour obtenir une segmentation globale. L’objectif principal est d’identifier et de délimiter des lésions cérébrales, telles que les tumeurs, de manière plus précise. Avant d’aborder la méthode proposée, nous présentons un aperçu du domaine de l’imagerie médicale, en mettant l’accent sur l’IRM, ainsi qu’une synthèse des principales techniques d’apprentissage automatique utilisées en traitement d’images médicalesItem Ordonnancement en ateliers à flux continu par approches métaheuristiques(Faculté des Sciences, 2025) Yamine, Kahoul; Oujdane ,Boustar; Mohammed ,RedjimiCe mémoire traite du problème complexe de l’ordonnancement en ateliers à flux continu, un enjeu stratégique majeur pour l’optimisation des systèmes industriels modernes. L’objectif est d’améliorer la performance des lignes de production en minimisant des critères tels que le temps de fabrication total. Après une revue des méthodes existantes, principalement les heuristiques et métaheuristiques, l’étude propose une approche basée sur l’optimisation par essaims de particules, adaptée aux contraintes combinatoires du problème. L’approche proposée a été testée sur des jeux de données standardisés et comparée aux méthodes de l’état de l’art, démontrant une robustesse et une efficacité compétitives. Les résultats confirment la pertinence de cette approche et ouvrent des perspectives pour des améliorations futures, notamment par la prise en compte d’autres aspects méthodologiques avancés et des applications pratiques en milieu industrielItem Technique d’Apprentissage Automatique de la Segmentation d’Image Médicale IRM Cérébrale Tumorale(Faculté des Sciences, 2025) Khalfaoui, Chahrazed; Bacha, Farouk; Mazouzi, SmaineL’intelligence artificielle, à travers ses divers paradigmes et techniques, joue aujourd’hui un rôle central dans l’amélioration du diagnostic médical, toutes spécialités confondues. L’imagerie médicale constitue un outil indispensable pour les cliniciens et radiologues, en l’aidant à affiner les diagnostics et à définir les stratégies thérapeutiques appropriées. La reconnaissance des anomalies pathologiques dans les images médicales, notamment par l’apprentissage automatique – qu’il soit classique ou moderne – connaît un essor significatif en médecine contemporaine. Dans le cadre de ce mémoire de master, nous explorons une technique d’apprentissage automatique non supervisée : l’algorithme de clustering k-means. Notre contribution consiste à proposer une approche de segmentation localisée, dans laquelle les images IRM cérébrales sont d’abord divisées en régions, puis segmentées localement à l’aide de k-means, avant d’agréger les résultats partiels pour obtenir une segmentation globale. L’objectif principal est d’identifier et de délimiter des lésions cérébrales, telles que les tumeurs, de manière plus précise. Avant d’aborder la méthode proposée, nous présentons un aperçu du domaine de l’imagerie médicale, en mettant l’accent sur l’IRM, ainsi qu’une synthèse des principales techniques d’apprentissage automatique utilisées en traitement d’images médicalesItem Video Stitching(Faculty of Science, 2025) DJAREDDIR ,Kawther; TOUIL, GHASSENThis project explores video stitching—a process that merges multiple video streams into a single panoramic output. Building on image stitching techniques like feature detection, homography estimation, and blending, it addresses video-specific challenges such as temporal consistency, motion handling, and real-time processing. A Python-based application was developed using OpenCV and PyQt6, offering both simple and advanced stitching modes. Advanced methods include hybrid stitching, attention-based blending, and GAN-based inpainting. Evaluations show that while fast methods are efficient, advanced techniques produce superior visual quality, making the system suitable for applications in VR, surveillance, and mappingItem Traitement d’images numériques(Faculté des sciences, 2025) DJAGHROUD ,Assia; MAGROUN, HananeLe traitement d’images est un domaine en pleine expansion qui vise à analyser et interpréter automatiquement les données visuelles. Il combine des techniques de bas niveau (filtrage, restauration, segmentation) et de haut niveau (reconnaissance de formes). Ce mémoire propose une application intégrée offrant des fonctionnalités de prétraitement (amélioration du contraste, réduction du bruit), des transformations géométriques et des méthodes de compression. Les algorithmes implémentés incluent le filtrage Gaussien, les détecteurs de contours (Sobel, Canny) ainsi que l'algorithme K-means pour la segmentation et la classification d’images. Structuré en trois parties, ce travail présente d'abord les fondamentaux des images numériques, puis les méthodes de traitement, et enfin la conception et la réalisation de l’applicationItem Plat-Forme saas pour la Prise des Rendez- vous avec l intégration de l IA(Faculté des Sciences, 2025) Bouhaouche ,Fatima; Boulehouache, SoufianeCe mémoire présente la conception et le développement d’une plateforme SaaS intelligente de gestion de rendez-vous, destinée à plusieurs secteurs professionnels (santé, droit, esthétique, entreprises, etc.). Le projet est né d’un constat clair : les méthodes traditionnelles et certaines solutions numériques actuelles restent limitées en termes de personnalisation, d’intelligence et de flexibilité. La solution proposée repose sur une architecture modulaire comprenant un frontend React.js, un backend Node.js, une base de données MongoDB, et un module d’intelligence artificielle développé en Python. Ce module permet de recommander automatiquement des créneaux optimaux aux utilisateurs, en s’appuyant sur leurs habitudes et les disponibilités des prestataires. Le système offre une expérience fluide, sécurisée et évolutive, posant les bases d’un service numérique universel, intelligent et adaptable aux réalités de différents métiers.Item Étude et Mise en OEuvre des Protocoles de Routage SEP, SEP-PSO et SEP-BPSO dans les Réseaux de Capteurs sans Fil(Faculté des Sciences, 2025) Boudjema ,Meriem; Louracia, Amina; Mohammed ,RedjimiLes réseaux de capteurs sans fil (RCSF) constituent une technologie clé pour la surveillance, la collecte et la transmission de données dans des environnements variés grâce à leur déploiement flexible et leur capacité d’auto-organisation. Leur adoption croissante dans des applications critiques (environnement, santé, industrie, sécurité) s’explique par leur simplicité de mise en oeuvre et leur potentiel d’innovation. Cependant, ces réseaux font face à des défis majeurs, notamment la gestion de l’énergie, la sécurité, la mobilité imprévisible des noeuds, l’agrégation des données et la conception de protocoles de routage efficaces. L’autonomie énergétique, en particulier, demeure un enjeu central, car la durée de vie du réseau dépend fortement de l’optimisation de la consommation des noeuds, souvent déployés dans des zones hostiles ou difficilement accessibles. Dans ce contexte, ce mémoire s’intéresse à l’optimisation du routage pour améliorer la durée de vie des RCSF. Nous étudions et comparons trois protocoles de routage : PSO (Particle Swarm Optimization), BPSO (Binary Particle Swarm Optimization) et SEP (Stable Election Protocol). PSO et BPSO sont des méta-heuristiques inspirées du comportement collectif, permettant une sélection optimisée des chefs de clusters, tandis que SEP est un protocole hiérarchique conçu pour les réseaux hétérogènes. L’objectif est d’analyser leur impact sur la consommation énergétique, la stabilité du réseau et l’efficacité de la transmission des données. Pour cela, nous avons implémenté ces protocoles sous MATLAB et mené une série de simulations comparatives. Les résultats montrent que les approches basées sur les méta-heuristiques (PSO et BPSO) surpassent le protocole SEP en termes de gestion énergétique et de durée de vie du réseau, grâce à une meilleure répartition de la charge entre les noeuds et une sélection plus judicieuse des chefs de clusters. Le protocole BPSO, en particulier, s’avère adapté à la nature binaire de la sélection des chefs, offrant ainsi une performance accrue. Cette étude met en évidence l’importance de l’intégration d’algorithmes d’optimisation intelligents dans la conception des protocoles de routage pour les RCSF, ouvrant la voie à des réseaux plus robustes, autonomes et économes en énergie.Item Étude et Mise en OEuvre d’Algorithmes d’Optimisation(Faculté des Sciences, 2025) REDJIMI ,Mohammed; BOUAKBA, NoraCe mémoire s’inscrit dans le cadre de l’optimisation, discipline centrale dans la résolution de problèmes complexes où il s’agit de rechercher une solution optimale respectant un ensemble de contraintes prédéfinies. L’optimisation joue un rôle déterminant dans divers domaines tels que la planification, l’affectation des ressources ou encore l’organisation de systèmes, notamment lorsqu’il est nécessaire de concilier efficacité, performance et faisabilité. Afin de résoudre ces problèmes, plusieurs algorithmes d’optimisation ont été développés. Ce travail se concentre sur deux approches complémentaires : la méthode AGL (Algorithme Glouton Local), qui construit une solution étape par étape en choisissant localement les meilleures options, et AGE (Algorithme Génétique Évolutionnaire) un méta heuristique inspiré des processus biologiques de sélection naturelle, permettant une exploration approfondie de l’espace des solutions. Ces deux approches sont évaluées en termes de performances, de temps de calcul, et de capacité à satisfaire des contraintes. L’étude a été appliquée au cas concret de la génération automatique des emplois du temps universitaire, un problème de nature combinatoire, souvent NP-difficile, nécessitant la prise en compte de nombreuses contraintes : indisponibilités des enseignants, limitation du nombre de cours par jour, incompatibilités d’horaires ou de salles, pauses pédagogiques, etc. Nous avons conçu un outil permettant d’évaluer et de maitre en oeuvre deux techniques d’optimisation dans le but de produire un emploi du temps (EDT) satisfaisant les contraintes académiques Les résultats obtenus mettent en évidence que, si la méthode gloutonne permet une génération rapide de solutions acceptables dans des cas simples, les algorithmes génétiques offrent de meilleures performances en matière de qualité de solution et de satisfaction des contraintes dans des scénarios plus complexes. Cette étude montre l’intérêt des approches heuristiques et évolutives dans la résolution efficace de problèmes organisation efficace en milieu universitaire.Item QCM manager, confection de sujet(Faculté des sciences, 2025) Drihem ,Abdellatif; Zeghida ,DjamelLes responsables pédagogiques actuels doivent impérativement maîtriser les fondamentaux de l’évaluation afin de rester en phase avec les exigences éducatives modernes. En effet, les résultats des élèves aux tests constituent aujourd’hui, et le resteront à l’avenir, un indicateur clé permettant d’évaluer la qualité du système éducatif à l’échelle mondiale. [2] Ainsi, pour garantir une gestion efficace, il est essentiel que ces responsables possèdent une solide compréhension des outils et des méthodes d’évaluation. La maîtrise de ces dispositifs est désormais une compétence incontournable pour tout leader pédagogique souhaitant assurer un enseignement de qualité. Comme le soulignent Schmidt et Bjork (1992), « l'objectif de l'apprentissage dans la vie réelle doit être de maximiser les performances futures et de les transférer à de nouvelles situations. [1] . L’évaluation des connaissances et des compétences joue un rôle fondamental tant dans le domaine éducatif que professionnel. Elle ne se limite pas à mesurer l’acquisition des savoirs, mais contribue également à guider le processus d’apprentissage, à détecter d’éventuelles lacunes et à optimiser les approches pédagogiques. Au fil du temps, les pratiques d’évaluation ont connu une transformation significative, passant des traditionnels examens oraux et écrits à des méthodes plus innovantes intégrant les technologies numériques. Face à la diversification des disciplines et à la croissance du nombre d’apprenants, il devient indispensable d’adopter des outils d’évaluation qui allient efficacité, rapidité et fiabilité. [1] Parmi les différentes méthodes d’évaluation, les Questions à Choix Multiples (QCM) se distinguent comme une solution largement adoptée dans les milieux éducatifs et professionnels. Leur succès s’explique par leur capacité à offrir une évaluation standardisée, objective et facilement automatisable. Toutefois, l’élaboration de QCM de qualité représente un défi, Notamment en ce qui concerne leur validité, la diversité des questions et la réduction des biais. Par ailleurs, l’intégration des technologies numériques dans la gestion des QCM ouvre de nouvelles perspectives, tout en soulevant des interrogations sur leur impact sur l’évaluation effective des compétences des apprenants