Informatique
Permanent URI for this collection
Browse
Browsing Informatique by Issue Date
Now showing 1 - 20 of 20
Results Per Page
Sort Options
Item Approches Collectives et Coopératives en Sécurité des Systèmes Informatiq(Université 20 Août 1955- Skikda, 2016) Belaoued, Mohamed; Mazouzi, SmaineLes malwares (logiciels malveillants) représentent une réelle menace pour la sécurité de nos systèmes informatiques, et avec la constante prolifération et l'évolution des techniques d’anti-détection de ces derniers, il est devenu primordial d’avoir une protection efficace contre ce genre de menaces. Malheureusement, les antivirus commerciaux sont incapables de fournir le degré requis de protection. Ceci est d^u principalement au fait que ces derniers utilisent des méthodes de détection basées sur les signatures. Ces techniques sont connues pour leurs limites dans la détection des malwares inconnus, ainsi que les variantes de malwares existants. Durant ces vingt dernières années, les chercheurs en sécurité informatique ont propos´e une multitude d’approches afin de remédier aux faiblesses des systèmes `a base de signatures. Cependant, la majorité de ces approches focalisent sur l’amélioration du degré de précision et ignorent un facteur primordial qui est le temps de détection. En effet, être en mesure de détecter et de neutraliser une menace dans un temps court peut s'avérer vital pour la sécurité du système informatique. En plus, connaitre la nature de la menace (dans notre cas le type de malware) est également un facteur important qui va conditionner le choix des mesures `a prendre. Par ailleurs, nous pensons que quelque soit son degré de précision, un outil détection local agissant d’une manière isolée sera rapidement submergé, et cela `a cause du nombre colossal de malwares circulant sur le reséau internet. Dans cette thèse, nous proposons en premier lieu un système temps réel pour la détection des malwares PE (Portable Excuse -table), en cherchant un bon compromis entre précision de détection et temps de traitement. Deuxièmement, nous proposons une nouvelle approche basée sur la méthode d’analyse des correspondances multiples (ACM) qui permet d’extraire les associations d’ APIs (Application Programming Interface) utilisées par les différents types de malwares. Ces associations seront d’une grande importance pour l’identification des différents types de malwares. Enfin, nous proposons une nouvelle approche pour la détection collaborative des malwares, en utilisant les systèmes multi-agents (SMA). Notre approche offre un mécanisme de distribution et de collaboration `a l’aide d’agents autonomes, permettant de faire collaborer différents outils de détection de nature hétérogènes et ayant des performances variables. Il sera également question d’envisager une méthode d’identification universelle de fichiers exécutables en utilisant une signature `a base de code-opérations (Opcodes). Ainsi, la décision collective qui en résulte permet d’améliorer significativement la précision de détection.Item Apport de la texture à la caractérisation d'images(Université 20 Août 1955 -Skikda, 2017-05-18) Salah ,Bougueroua; Bachir, BOUCHEHAMDans ce travail, nous nous intéressons à la recherche d’images par le contenu. Cette intéressante approche, plus connue par son acronyme anglais CBIR (Content Based Image Retrieval), a vu le jour afin de remédier aux problèmes engendrés par son prédécesseur, basé sur le texte (TBIR : Text based image retrieval). Principalement, le TBIR souffre de deux inconvénients. Le premier consiste dans la difficulté de la tâche d’attribution des mots clés aux images, due à son aspect manuel. En outre, le deuxième inconvénient réside dans la subjectivité de la tâche. Afin de parer à ces inconvénients, l’approche alternative CBIR utilise les caractéristiques visuelles de l’image, telles que la couleur, la texture, la forme… etc. Cependant, le fait de se baser sur de telles caractéristiques de bas niveau pour représenter et exprimer le contenu d’une image, généralement très complexe, engendre un écart significativement important avec les sémantiques et les significations de celle-ci. Cet écart est communément connu par le fossé sémantique. Particulièrement, l’attribut texture est très répandu et très utilisé, vu que les êtres humains sont capables de distinguer entre différentes manifestations de cet attribut. Néanmoins, sur le plan computationnel, la texture demeure un attribut difficile à caractériser. Dans le présent travail, la texture représente le point de focalisation. Par conséquent, un ensemble de méthodes basées textures seront abordées ainsi que la proposition de plusieurs contributions. Principalement, notre première contribution est une amélioration de la célèbre méthode LBP (Local Binary Pattern, motif binaire local), où nous proposons d’intégrer graduellement l’information locale véhiculée par les motifs binaires locaux. Ceci est obtenu à travers un nouveau schéma de délimitation des régions, qui diffère de celui basé sur les blocs (régions rectangulaires classiques). Par conséquent, notre méthode est baptisée GLIBP (Gradual Locality Integration of binary patterns). Le succès de cette instance du Framework proposé GLI (Gradual Locality Integration) nous a poussés à investiguer la faisabilité de l’approche pour l’extraction des caractéristiques de la couleur. Dans ce contexte, la méthode GLI-Color a été proposée ainsi que deux de ses variantes. La première opère sur l’espace de couleur HSV, d’où son nom : GLI-Color(HSV). Quant à la deuxième variante, elle utilise les moments d’où son nom M-GLI-Color. Dans la seconde contribution, nous nous intéressons aux ondelettes dans le contexte de la caractérisation du contenu textural de l’image. Dans cette optique, la littérature existante montre que des auteurs affirment que la moyenne des sous-bandes d’ondelettes est égale à (ou proche de) zéro. Cette affirmation nous a paru digne d’intérêt, vu que les mesures calculées des différentes sous-bandes sont généralement les moments statistiques ; or la moyenne est utilisée lors du calcul de ces derniers. Donc, comme première étape, nous avons vérifié expérimentalement la différence entre la distribution des moyennes des sous-bandes d’ondelettes et celle des énergies des sous-bandes. Les résultats obtenus montrent une différence intéressante entre les deux distributions. Effectivement, par opposition aux valeurs des moyennes qui se concentrent autour de l’axe de zéro, celles des énergies sont plusdispersées. En se basant sur ces résultats, le calcul des moments statistiques autour de l'énergie au lieu de la moyenne, semble une modification efficace afin d'améliorer les capacités discriminatives de ces mesures. Cette hypothèse a fait l'objet de la deuxième étape où nous avons montré l’apport de la considération de l’énergie dans les formules des moments statistiques sur la performance. Notre troisième contribution principale agit quant à elle au niveau de l’étape de comparaison des systèmes CBIR. Elle repose sur une stratégie gloutonne basée sur une mesure d’homogénéité importée du domaine du biclustering des Expressions de Gènes, appelée Mean Squared Residue (MSR). Notre méthode est distinguée par le fait qu’elle profite de toutes les images déjà jugées pertinentes par le système CBIR, pour la sélection de l’image suivante. Ceci est complètement différent de l’approche classique des systèmes CBIR, où seulement la requête est utilisée lors de la recherche des images, puisque le résultat de la requête est alors traité comme un cluster homogène dont la croissance est réalisée de façon incrémentale. L’ensemble des résultats obtenus par les différents algorithmes et techniques proposés ont montré des performances intéressantes, voire supérieures, par rapport à plusieurs travaux publiés. En particulier, la méthode GLIBP a montré des performances supérieures à celles des méthodes : LBP de Ojala et al. (1996), DLEP de Murala et al. (2012a), ‘Block-based LBP’ de Takala et al. (2005), entre autres. D’un autre côté, les résultats obtenus nous encouragent à continuer sur cet axe de recherche et aussi nous inspirent des perspectives à explorer dans le futur, particulièrement, l’exploitation d’autres techniques de biclustering des expressions génétiques dans le domaine de la recherche d’images par le contenuItem Approches Formelles et Opérationnelles pour la Modélisation des Echanges et de la Coopération dans les Systèmes Distribués(Université20Aout 1955- Skikda, 2018-12-19) SLIMANI, Amira; Redjimi, MohammedAu cours de ces dernières décennies, les développements spectaculaires dans le domaine de l’informatique, de la micro-électronique et des média de communication ont permis des évolutions considérables dans les systèmes répartis. Ces systèmes distribués ont reçu une attention considérable de la part des universitaires et de l'industrie et sont devenus un domaine de recherche très important. La motivation principale des systèmes distribués est le partage des ressources et l'accès distant aux informations et aux services indépendamment de leurs localisations. Plusieurs architecture des systèmes distribués se sont développées afin d'améliorer leurs performances et de répondre aux besoins des utilisateurs. Les réseaux sans fil sans ont vu naître, au cours de leur évolution, diverses architectures dérivées, telles que les réseaux cellulaires, les réseaux locaux sans fil, les réseaux WiMax, etc. Durant la dernière décennie, de nouveaux types de réseaux sans fil ont suscité un grand intérêt auprès de la communauté scientifique et des industriels, il s'agit des réseaux ad hoc et des réseaux de capteurs sans fil (WSN). Ces dernières années, les réseaux de capteurs sans fil se sont introduits à tous les niveaux de la société : les entreprises, les gares, les hôpitaux, les usines, les domiciles, les téléphones et autres équipements domestiques, militaire, de santé, environnement. Dans cette thèse, nous nous sommes intéressés au problème de l'énergie dans les réseaux de capteurs sans fil. Nous avons abordé cette problématique en investiguant deux axes de recherche, à savoir les protocoles de routage hiérarchique et les stratégies de gestion de l'énergie. Notre première contribution consiste à proposer un protocole de clustering nommé WDC-LEACH-C pour établir une architecture hiérarchique clustérisée avec une meilleure sélection des clusters heads (CHs) afin de minimiser la consommation d'énergie dans les clusters. La seconde contribution consiste dans la proposition d’un autre protocole de routage nommé Improved-ACORP qui intègre une stratégie de gestion d'énergie des CHs nommée CHMS afin de conserver le maximum l'énergie aux CHs et prolonger, ainsi, la durée de vie du réseau. Plusieurs simulations ont été effectuées pour démontrer la faisabilité et l’efficacité de ces solutionsItem Test des Systèmes Multi Agents dans les Environnements d’Intelligence Ambiante(Université 20aout 1955 Skikda, 2019-01-22) Sara ,KERRAOUI; M. Mohammed, REDJIMILes systèmes ambiants forment un domaine d’application très particulier, car ils sont très dynamiques et en interactions constantes avec des utilisateurs. Les systèmes multi-agents sont utilisés comme abstractions utiles dans ces systèmes, par exemple pour les dispositifs et les fonctionnalités, et comme paradigme pour la mise en œuvre. Cependant, les caractéristiques de tels systèmes rendent leur test un vrai défi qui demande de nouvelles méthodes de test efficaces et adéquates afin d’évaluer les comportements autonomes des agents ambiants et leurs interactions. Cette thèse aborde le problème des tests basés sur les modèles formels pour les systèmes multi-agents dans les environnements d’intelligence ambiante par le biais d’une approche qui couvre tous les niveaux d’abstraction du paradigme agent. Ces niveaux d’abstraction sont : le niveau agent, le niveau société d’agents et le niveau système. L’approche proposée s’intègre dans l’éthique du test basé sur les modèles en proposant de mettre en œuvre un processus intégrant la gestion des exigences, l’automatisation de la génération des cas de test et leur concrétisation. En particulier, nous proposons en premier lieu, un système à base d’agents pour la modélisation d’un environnement ambiant destiné aux personnes âgées utilisant les réseaux de références. L’exemple a été modélisé en respectant l’architecture MULAN (multi agent system net) augmentée de JESS (Java Expert System Shell) pour la prise en compte des aspects délibératifs des agents ambiants. De plus, le modèle proposé tient compte de l’aspect temps pour toute décision. Deuxièmement, nous proposons une approche de test basée sur les modèles (réseaux dans les réseaux) qui s’intègre à l’outil JUNIT pour la génération et le test des systèmes multi-agents. Contrairement aux différentes approches de test, où l’instrumentation porte, la plupart du temps, sur le code source de l’application, notre approche laisse intact l’application sous test en faisant l’instrumentation au niveau du modèle, permettant ainsi de préserver son comportement initial (l’aspect fonctionnel ou nonfonctionnel ne sera pas modifié)Item Patrons de représentation et correspondance des ontologies Multipoints de vues : Conception et Exploitation pour intégrer les bases de données à base ontologique(Université 20Aout 1955-Skikda, 2019-06-20) Soumaya, Kasri; Fouzia, Magra-BenchikhaCe travail de recherche concerne l’apport de l’intégration de la notion de point de vue dans les ontologies en utilisant les patrons de conception d’ontologie. L’objectif principal de ce travail est de développer un patron de conception d’ontologie d’architecture et des correspondances afin de construire une ontologie multipoints de vue. Un Framework de validation de notre patron de conception est proposé en utilisant l’extension de l’Analyse Formelle de Concepts (structures de patrons). Le patron est utilisé par la suite dans un système d’intégration hybride à base ontologie multipoints de vue afin d’offrir un accès par point de vue aux données. Les ontologies locales sont restructurées par notre patron proposé et l’Analyse Relationnelle de Concepts avant les intégrer afin de les rendre homogènesItem Approche individu-centrée basée Multi-Agents pour la modélisation de la dynamique des populations(université 20 aout skikda, 2020-06-15) LAROUM, TOUFIK; Tighiouart, BorniaL’objectif de ce travail de thèse est de proposer un système Multi-Agent pour modéliser la dynamique de populations. Le système biologique que nous avons étudié est l’infection par le virus de l’immunodéficience humaine VIH. La dynamique des populations est la science qui étudie l’évolutions dans le temps des individus d’une population donnée (particulièrement en biologie et écologie) pour des raisons descriptives et prédictives. Depuis la découverte du premier cas du SIDA et l’isolation de VIH comme cause de cette maladie en 1984, plusieurs études et modèles, généralement populationscentrés basés sur l’approche mathématique, ont été mis en œuvre pour comprendre la dynamique de ce phénomène. Cependant, la complexité de ce phénomène biologique et la diversité des cellules et acteurs qui affecte sa dynamique requièrent l’utilisation des approches individu-centrées comme l’approche Multi-Agent. Cette approche consiste à modéliser le comportement de chaque individu de la population (et les interactions entre les individus) au lieu de considérer la population comme une seule entité, et ce afin de produire le comportement global du système étudié. Les résultats obtenus sont encourageants et sont conformes et en cohérence avec les constats biologiques.Item CONTRIBUTIONS A LA RECONNAISSANCE AUTOMATIQUE DE LA PAROLE(université 20aout skikda, 2021) Samira. HAZMOUNE; Mohamed. BENMOHAMMEDCette thèse s’inscrit dans le cadre général de la reconnaissance automatique de la parole (RAP) qui, malgré son évolution frappante durant la dernière décennie, continue à attirer l’attention de la communauté scientifique, car la conception d’un SRAP (système de RAP), à la fois performant et robuste, reste toujours une problématique. L’ultime objectif de ce travail est de proposer des solutions pour améliorer les performances des SRAP, et de booster leur robustesse face à la variabilité des données, et ce, dans le cas particulier d'une application à vocabulaire limité. Notre contribution, dans ce contexte, s’axe sur deux points principaux : En premier lieu, nous proposons une nouvelle approche hybride basée sur une modélisation multiple par les modèles de Markov cachés (HMM). Dans cette approche, les HMM sont intégrés au sein d’une architecture 𝑘NN (𝑘Nearest Neighbors) au niveau représentation et au niveau reconnaissance. L’objectif est de concevoir un classifieur héritant à la fois de la robustesse du 𝑘NN et de l’efficacité des HMM tout en écartant leurs inconvénients respectifs. Le second point de notre contribution est la proposition d’une approche ensembliste qui, comme la première approche, basée sur une modélisation markovienne multiple. L’idée est de faire apprendre, pour la même classe de données, plusieurs modèles, obtenus à partir de différentes configurations initiales. Ces modèles doivent ensuite être regroupés dans des classifieurs qui seront combinés durant la phase de reconnaissance. En plus, nous mettons en place une étude expérimentale visant à montrer l’impact des différents paramètres initiaux de l’apprentissage markovien sur la création des ensembles de classifieurs, où nous faisons une analyse profonde de la relation entre chaque paramètre et les mesures de diversité utilisées couramment dans la littérature. Ce problème, à notre connaissance, n’a jamais été exploré de la façon avec laquelle nous l’avons abordé. A travers la modélisation multiple proposée, nous visons, d’une part, à réduire l'influence de la configuration initiale des paramètres de l’apprentissage, et d’autre part, à améliorer la robustesse face à la variabilité des données. Nos contributions sont évaluées en utilisant la base des chiffres arabes « Spoken Arabic Digits ». Les résultats comparatifs en termes de performances et de robustesse montrent la supériorité de nos approches, d'une part, sur un HMM et un 𝑘NN de base, et d'autre part, sur des travaux précédents de la littérature. Les approches proposées peuvent être appliquées directement dans le domaine de la commande vocale (un composeur téléphonique par exemple) où un vocabulaire limité est suffisant. Comme elles peuvent être adaptées facilement à la parole continue à grand vocabulaire en utilisant, dans ce cas, une approche analytique basée sur les phonèmes contextuels comme unités de modélisation acoustique, et en bénéficiant de la segmentation implicite, assurée par les HMMItem Caractérisation des séries temporelles pour la recherche et la classification(Université 20 Août 1955-Skikda, 2021-02-14) Imen, Boulnemour; Redjimi, MohamedL’objet de cette thèse concerne principalement : (a) La problématique de caractérisation des séries temporelles (ST) et (b) L’investigation du domaine obligatoirement lié à cette problématique : Les mesures de distances et les mesures de similarité entre ST, ainsi que les techniques d’appariement (ou alignement) des ST. Ces dernières techniques sont beaucoup plus robustes que les mesures de distance/similarité, mais, elles sont peu nombreuses et difficiles à inventer. La caractérisation des ST a pour but de décrire de façon compacte, mais pertinentes ce type de données (les ST). Compacte au sens de la réduction autant que possible de la redondance des données dans les ST, en n’extrayant que les caractéristiques effectivement discriminantes. Cela nécessite le plus souvent de faire muter les ST du domaine temporel à un domaine beaucoup plus expressif en termes de pouvoir de discrimination. Dans ce contexte, nous allons établir un état de l’art et une catégorisation des techniques de caractérisation des ST. Grossièrement parlant, nous pouvons déjà avancer que ces techniques peuvent être classées en quatre domaines: (1) Le domaine temporel tels que les histogrammes, les motifs et l’approche PLA (Piecewise Linear Approximation), (2) Le domaine fréquentiel, tel que la Transformée de Fourier Discrète (DFT), (3) Le domaine temps-fréquences, tel que la Transformée des Ondelettes Discrètes (DWT : Discrete Wavelet Transform) et (4) La transformée par décomposition en valeurs singulières (SVD : Singular Value Decomposition), qui relève du domaine de l’algèbre linéaire. Pour le point d’intérêt (b), notre étude montre l’existence de quatre familles de techniques de comparaison des ST. Il y a d’abord (1) Les techniques de comparaison utilisant les données directes des ST combinées à des mesures de distance/similarité, telle que la distance Euclidienne, (2) Les techniques de comparaison basées caractéristiques combinées aussi à une mesure de distance / similarité, telle que la DFT et (3) Les technique d’alignement, telle que la célèbre et très pertinente méthode : DTW (Dynamic Time Warping). Enfin, (4) une autre classe de techniques d’alignement des ST basées signatures (caractéristiques globales) a été récemment proposée par Boucheham: la méthode SEA (Shape Exchange Algorithm). Son auteur la présente comme la rivale de la DTW ; mais, plus précise et plus pertinente. Comme contributions personnelles dans le cadre de cette thèse, nous avons proposé quatre travaux dont deux ont été publiés au niveau international : (1) L’élaboration d’une technique d’alignement pour l’alignement des ST quasi-périodiques (STQP), telles que les tracés ECG (Electrocardiogramme) et les ST du Capnogram (Qualité de la respiration). Notre méthode, intitulée QPDTW (Quasi-Periodic Dynamic Time Warping), est une fusion entre la méthode DTW et la méthode SEA. L’intérêt de ce travail est que, selon les travaux de Boucheham, l’alignement des STQP serait le cas le plus complexe à résoudre. Brièvement, notre méthode QPDTW permet d’aligner de manière effective les STQP même lorsqu'elles sont déphasées et bruitées de manières significatives. (2) Développement d'un classifieur binaire basé QPDTW pour la détection d'anomalies dans les tracés ECG. Ce travail en particulier a eu un écho remarquable sur Researchgate. (3) Développement d’une méthode accélérée à base de la transformation en ondelettes de Haar et de la méthode QP-DTW pour la recherche de similarité dans l’ECG. (4) Développement d’un classifieur de type KNN basé QPDTW pour la classification des ST générales. La base utilisée dans ce cas étant l'UCR (University of California at Riverside) utilisée mondialement comme benchmark pour évaluation des techniques de classification et de clustering des TS. Les résultats sont prometteurs, que se soit pour la détection d'anomalies, la recherche ou pour la classification des séries temporelles.Item Adaptive Techniques for Content Based Image Retrieval (CBIR): Study and Applications(University of Skikda - 20 Août 1955, 2021-04-04) Safa, Hamreras; Smaine ,MazouziThe significant growth of images repositories in terms of content and usage has increased the need of conceiving powerful image retrieval systems. In this regard, CBIR is the process of searching images given a query based on their visual aspects. One of the most serious challenges that is facing CBIR systems is “the semantic gap”. This gap occurs between images representation given by a CBIR system and the true semantics included within these images. The semantic gap should be bridged or at least reduced in order to bring closer the low level vision of the CBIR system and the high level vision of the Human Visual System (HVS). This could be achieved through designing CBIR systems that behave with respect to the human understanding of images. In this thesis, we address this challenge by shedding light on a paradigm that has already imposed itself in many fields, that is the adaptation paradigm. Indeed, there is a need to inject a flexibility in the designed CBIR systems, so that they behave depending on some criterion, mainly the input data. We particularly integrate the adaptation into images characterization phase so as to reduce the semantic gap. This adaptation is carried out by selecting the characterization algorithm or tuning its parameters in a training phase, in order to increase its performance with respect to the target task. First, we start with the selection paradigm, where we apply the algorithm selection based on RICE model to select the best performing CBIR-algorithm for each image. In this work, the CBIR-algorithm was decomposed to many variants, where the feature variant was selected based on the input image. In the second contribution, we propose to use a Convolutional Neural Network (CNN) in the feature extraction stage. This latter is first finetuned on the target images dataset in order to adapt its parameters. The resulting network is then used to extract the class probability vectors from input images to use them as representations. Last, our main contribution consists of using an ensemble of CNNs that collaborate to extract relevant features from images. Herein, the class probability vectors are extracted from images using each ensemble member. They are then combined to make a powerful image representation. Finally, it is noteworthy that all our contributions have led to a significant improvement in the performance of the developed CBIR systems. This latter is a relevant indicator of narrowing the semantic gap within these systems, which is the ultimate goal of this thesisItem Approches collectives et distribuées pour l’interprétation d’images et la reconnaissance des formes(université 20 Aout 1955 skikda, 2022) Azzouz, Daouia; Smaine, MazouziDepuis l’avènement de la radiologie, l’imagerie médicale n’a cessé de gagner du terrain comme premier moyen pour l’établissement de diagnostics médicaux. Cependant, le volume de données enregistrées dans une image médicale, ainsi que les différents artéfacts auxquels elle est sujette rendent son traitement manuel, par des praticiens de santé, problématique et consomme énormément de temps et d’effort, avec la possibilité accru de commettre des erreurs d’interprétation, conduisant à de faux diagnostics. Dans ce travail de thèse, nous nous sommes penchés sur deux problématiques co-récurrentes dans la littérature du traitement d’images médicales. D’une part, la segmentation d’images à grands volumes en adoptant des approches ne nécessitant pas de données d’apprentissage massives, et produisant des résultats satisfaisants en un temps raisonnable pour les utilisateurs. D’autre part, le traitement de certains artéfacts spécifiques aux images médicales, tels que la non uniformité d’intensité (INU : Intensity Non Uniformity), notamment dans les images à résonance magnétique (IRM). Pour la première problématique, nous avons proposé une nouvelle méthode de segmentation d’IRM, consistant en un nouveau schéma de combinaison de deux méthodes de base, une par clustering et l’autre par accroissement de région. Les deux méthodes sont intrinsèquement faibles en computation mais aussi et en performance de classification. Par contre, le schéma de combinaison proposé, qui se base sur des volumes de probabilités selon différentes distributions statistiques des données IRM nous a permis d’améliorer considérablement la performance de la segmentation. Pour la seconde problématique, nous avons proposé une nouvelle méthode de modélisation et de correction du champ de biais, responsable de la non uniformité des intensités (INU) dans les IRM. Tout d’abord le volume global de l’IRM est subdivisé aléatoirement en sousvolumes de faibles tailles qui se chevauchent, et dont chacun est affecté à un agent pour le segmenter en ses trois tissus qui composent la matière cérébrale. Dans de tels sous volumes, l’effet du champ de biais est pratiquement négligeable, et la non uniformité d’intensité résiduelle ne fausse pas l’étiquetage des voxels. Ainsi, la première segmentation qui en résulte est utilisée pour estimer le champ de biais global dans l’IRM en l’approximant par une hypersurface de variation d’intensité, ajusté par interpolation Lagrangienne et en utilisant les voxels fiablement étiquetés. Au reste de l’IRM, le champ de biais est estimé par interpolation en utilisant l’hyper surface obtenu. Les résultats expérimentaux obtenus pour les deux méthodes, de segmentation par combinaison probabiliste et de correction de l’INU par interpolation Lagrangienne, ont montré l’intérêt des deux méthodes et leur potentiel pour une correction de l’INU et une segmentation fiable et rapide des IRMs. Selon les deux contributions réalisées, nous avons pu confirmer que la combinaison de méthodes de base de segmentation, de complexité computationnelle faible et de performances intrinsèques moyennes, permet de mettre en œuvre des méthodes avec des performances boostées, mais de complexité de calcul raisonnable, compatible avec l’utilisation de telles méthodes sur un terrain réel d’exploitation.Item Nouvelles approches pour l'optimisation de la consommation énergétique, l'efficacité du routage et pour l'agrégation des données dans les réseaux de capteurs sans fil(Université 20 Août 1955- Skikda, 2022) Redjimi, Kenza; Mazouzi, SmaineLes avancées scientifiques et technologiques dans les domaines de l’électronique, de l’informatique, des télécommunications et du génie-logiciel associées aux progrès consentis dans la miniaturisation des machines permettent de mettre à disposition des appareils très performants de taille réduite tels que les Smartphones et autres systèmes pouvant être embarqués. La distribution des taches, leur coordination et parallélisassions apportent plusieurs types de solutions parmi lesquelles la parcellisation de traitements globaux en des ensembles de traitements locaux. Dans ce type de cas ; la solution globale émerge des solutions locales. Dans cet ordre d’idées, les réseaux de capteurs sans fil sont constitués d’un grand nombre d’unités de captages dits nœuds capteurs disposant de faibles potentialités d’’énergie et de traitement qui ont pour rôle d’extraire l’information brute, de la transformer et de l’envoyer vers des centres de traitement lointains grâce à des communications radio. Le travail entrepris ici, entre dans ce cadre et propose un ensemble d’idées permettant d’assurer le transfert sans perte des données recueillies par les nœuds capteurs depuis le lieu où ces informations sont recueillies vers les stations de base. Un algorithme original qui a été simulé et implémenté propose un protocole de routage géographique (IEGGR) qui permet de garantir la délivrance des données même dans le cas de l’existence de minima locaux (vide).Item Advanced Methods for Establishing Similarity between Time Series: Study and Applications(University of Skikda - 20 Août 1955, 2022) Lahrechen, Abdelmadjid; Mazouzi, SmaineLes séries temporelles (ST) sont des séquences de données à valeur réelle enregistrées régulièrement dans le temps. Elles peuvent être trouvées dans pratiquement toutes les applications du monde réel, telles que la médecine, la finance, l’économie, l’industrie et bien d’autres. Dans cette thèse, nous abordons la problématique de l’établissement de similarité entre séries temporelles. La mesure de similarité des séries temporelles est un élément clé de plusieurs tâches d’exploration/fouille de ces séries y compris, mais sans s’y limiter, la classification, la recherche par similarité, le clustering et la détection d’anomalies dans ce type de données. En raison de son importance considérable, la tâche de mesure de similarité des séries temporelles a reçu une attention grandissante et est devenue un domaine de recherche très actif dans la fouille de séries temporelles. D’une manière générale, la problématique d’établissement de similarité des séries temporelles consiste à définir une méthode permettant de comparer/aligner deux séries temporelles données, en déterminant le degré d’accord/discordance entre ces ST. Cependant, mesurer la similarité entre séries temporelles a toujours été une problématique difficile. La difficulté de cette problématique réside dans le fait que les séries temporelles sont intrinsèquement de grande dimension et portent de grandes quantités de données. De plus, diverses distorsions, souvent rencontrées dans les séries temporelles, compliquent davantage l’établissement de similarité (par exemple, le bruit, les valeurs aberrantes, le changement d’échelle du temps/amplitude et le décalage dans le temps/amplitude). Par conséquent, la mesure de similitude doit être soigneusement établie afin de saisir correctement la vraie similitude entre deux séries temporelles. D’autre part, la classification des séries temporelles (CST) est une tâche de plus en plus importante dans le cadre de la fouille de séries temporelles. La CST est, brièvement, la tâche dédiée à la prédiction de l’étiquette (classe) d’une série temporelle requête à partir d’un ensemble de données d’apprentissage étiqueté. Au cours des deux dernières décennies, il y a eu un intérêt croissant pour la CST et, par conséquent, de nombreuses approches ont été publiées dans la littérature. Étonnamment, des études approfondies, dans ce domaine de recherche, ont rapporté que l’approche basée sur distance où le classificateur 1-Nearest Neighbor (1-NN) combiné avec une mesure de distance/similarité appropriée est plus précise que la plupart des approches existantes. De toute évidence, dans ce contexte, la mesure de similarité est un ingrédient crucial et joue un rôle essentiel dans la précision du classificateur 1-NN. Par conséquent, la grande majorité de recherches dans le cadre de la CST s’est concentrée sur le développement de nouvelles mesures de distance/similarité. L’objectif principal de cette thèse concerne, alors, la problématique de mesure de similarité entre séries temporelles avec un focus particulier sur la classification comme domaine d’application très motivant. Nous visons donc à étudier et à développer des mesures de similarité dans le contexte de la CST qui soient compétitives (robustes, précises et efficaces) par rapport aux méthodes existantes dans la littérature. À cette fin, diverses contributions ont été proposées au cours de l’élaboration de ce travail de thèse. Dans la première contribution, nous avons effectué une large comparaison expérimentale entre la célèbre mesure de similarité des ST “Dynamic Time Warping” (DTW) et ses variantes les plus populaires dans le cadre de la CST. Dans cette étude, nous avons évalué empiriquement les méthodes en termes de précision de classification en utilisant 85 ensembles de données de l’archive publique des ST ’Université de Californie-Riverside’ (UCR). Les résultats expérimentaux montrent que pratiquement toutes les variantes sont statistiquement équivalentes. Dans la deuxième contribution, nous avons abordé le problème de la classification des longues séries temporelles en introduisant une nouvelle mesure de similarité appelée “Local Extrema Dynamic Time Warping” (LE-DTW). LE-DTW transforme d’abord les séries temporelles originelles en un espace de faible dimension en extrayant des caractéristiques locales extrêmes. Ensuite, elle compare les séries temporelles transformées ainsi obtenues en utilisant une version adaptée de DTW. Afin d’évaluer la performance de LE-DTW, nous avons effectué des expérimentations approfondies sur une grande variété d’ensembles de données provenant de l’archive UCR. Les résultats ont montré la précision et l’efficacité de notre nouvelle proposition LE-DTW par rapport à certaines méthodes de l’état de l’art, en particulier sur les longues séries temporelles. Dans la troisième contribution, une version accélérée de la méthode Shape Exchange Algorithm (Boucheham, 2008) est proposée pour l’alignement des Séries Temporelles Quasi-Périodiques (STQP). FastSEA est basé sur un algorithme de tri plus efficace mais simple qui est ‘Counting Sort Algorithm’. Le but de FastSEA est d’accélérer le processus d’alignement de la méthode SEA sans affecter sa qualité. La dernière contribution est consacrée à l’extension de la pertinence de la méthode SEA à la classification des séries temporelles générales. Dans ce contexte, nous avons proposé la mesure “Local Matching and Distance Selection SEA” (LMDS-SEA), qui est principalement basée sur un nouveau paradigme de sélection de distance proposé dans (Kotsifakos et al., 2016; Mori et al., 2016; Mosbah and Boucheham, 2017). Les résultats expérimentaux ont montré que la méthode LMDS-SEA proposée est plus performante que SEA. et rivalise avec DTW en termes de précision de classification.Item Un Système Multi-Agents Auto-Adaptatifs Sensibles aux Contextes à Boucles de Contrôle Hiérarchisées(UNIVERSITE 20 août 1955-Skikda, 2023) Ouareth, Selma; Redjimi, MohammedLa centralisation des décisions d’auto-adaptation hétérogènes des Systèmes Auto-* et le couplage fort inter-constituants ont engendré des Entités Autonomiques trop volumineuses et trop complexes à construire et à maintenir. Donc, ce travail concerne la re-ingénierie de la partie Contrôle Autonomique des Systèmes Auto-Adaptatifs (SAAs). Il s’agit de sé- parer les capacités d’auto-adaptations en plusieurs boucles de contrôle MAPE-K (Monitor, Analyze, Plan, Execute et Knowledge base) spéci ques pour chaque type d’auto-adaptation. Cependant, le modèle MAPE-K est trop basique et même les améliorations existantes de sa conception sont très générales. Ils manquent su samment de détails concernant la structure et la dynamique de ses constituants. De plus, ces conceptions n’utilisent ni un paradigme de conception ni des modèles de conception bien établis. Nous avons donc trouvé nécessaire de ra ner plus le modèle MAPE-K et le remodéliser utilisant un modèle à base de composant. Ce modèle facilitera le processus de la conception des SAAs. Lorsque le système est complexe et à grande échelle, il est nécessaire d’utiliser plusieurs boucles de contrôle. Dans la littérature, di érents modèles ont été proposés de composition de boucles de contrôle, basés sur les approches de contrôle suivantes : centralisé, décentralisé et hiérarchique. Dans ce contexte, nous avons proposé un nouveau modèle de contrôle partiellement centralisé basé sur le modèle MAPE-K à base de composant. Ce modèle consiste à centraliser les composants Plan et Knowledge, et à décentraliser les composants Monitor, Analyze et Execute. Nous nous sommes appuyés sur le modèle de composant Fractal pour modéliser les composants Plan et Knowledge en tant que composants partagés. De plus, le composant Execute doit se coordonner avec ses pairs. Ce modèle assure une dé- cision correcte et une exécution dans un temps raisonnable. En raison de la nature évolutive des SAAs, il existe d’autres dé s a ectent le fonctionnement des SAAs, tels que : la distribution des actions d’adaptation peut imposer un surcoût de communication important, le composant Plan représente un point de défaillance unique et une surcharge de communication importante est e ectué sur le composant Plan. Par conséquent, nous avons développé ce modèle en passant du contrôle partiellement centralisé au contrôle hiérarchique a n d’améliorer la abilité globale du système. Le contrôle hiérarchique est prouvé être un bon compromis pour gérer la complexité de l’auto-adaptation. Cependant, il est confronté à un certain nombre de dé s, notamment la séparation des préoccupations et l’a ectation des di érentes boucles de contrôles à différentes préoccupations. Motivés par ce fait, nous arrivons au HCLs (Hierarchical Control Loops), une proposition architecturale qui se concentre sur trois aspects : la séparation des préoccupations dans la modélisation des systèmes, le contrôle hiérarchique et l’adaptation des di érentes entités des boucles de contrôle MAPE-K. Pour séparer les préoccupations, nous nous appuyons sur le modèle de composant Fractal qui peut simpli er la séparation. Dans HCLs, chaque niveau de la hiérarchie correspond à un type d’adaptation spéci que. Trois types d’adaptation pouvant être appliqués par HCLs qui sont Adaptation Locale, Adaptation Régionale et adaptation Supérieure. De plus, HCLs o re la possibilité de modi er la structure et le comportement des boucles de contrôle au moment de l’exécution sur la base de stratégies d’exploration pour l’apprentissage par renforcement en ligne utilisant le modèle de caractéristiques pour adapter di érentes entités des boucles de contrôle MAPE-K. En n, une expérimentation a été menée avec cette approche dans la gestion d’une connexion Internet sans l dans un aéroportItem Approches collectives basées datamining et machine-learning pour l’interprétation d’images et reconnaissance d’objets(Université 20Aout 1955-Skikda, 2023) Nadjet, BOUCHAOUR; Smaine, MAZOUZIEn imagerie médicale, comme pour la quasi-totalité de domaines traitant de l’image numérique, la segmentation occupe une place critique, et dont dépend fortement la qualité des résultats d’interprétation. Cependant, la segmentation d’image a été et demeure encore un problème mal-posé, du fait de l’incertitude et de l’imprécision des données lors de l’acquisition des images, mais aussi de la difficulté de modéliser ses données afin que les traitements puissent produire les résultats escomptés par les utilisateurs. Les images à résonance magnétique, (IRM) et en plus du lot de problèmes communs en traitement d’images tels que le bruit et les déformations, elles sont entachées d’artéfacts spécifiques qui compliquent leur segmentation, il s’agit du problème de la non uniformité des intensités (INU : Intensity Non Uniformity) et le problème de l’effet du volume partiel. Afin de contribuer à la résolution du problème de segmentation d’IRM, structurelles et pathologique, nous nous sommes penchés le long de cette thèse à proposer des modèles de données et des modèles de classification, permettant de bien étiqueter les voxels d’une IRM en fonction des tissus auxquels ils appartiennent. Pour ce faire, nous avons démarré d’une hypothèse, postulant que des patterns qui peuvent exister au sein des données IRM permettent de bien classifier ces dernières. Aussi, des attributs qui représentent à la fois les intensités des voxels, mais aussi les interactions qui existent entre eux, devraient renforcer le pourvoir discriminatoire des classifieurs utilisés. Et enfin, et à cause des tailles importantes des volumes IRM, nous avons supposé que les méta-classifieurs ensemblistes tels que l’Adaboost sont bien appropriés aux données traitées. Ces hypothèse et ces réflexions nous ont conduit à mener deux travaux dans le cadre de cette thèse. Le premier travail consiste à concevoir un modèle de représentation des données IRM, basé sur la notion d’entropie spatiale au sein des voxels dans un voisinage local. Les attributs basés entropie obtenus, et l’intensité du voxel lui même sont utilisé en entrée de l’algorithme Adaboost, en testant deux classifieurs faibles, à savoir le Naif bayesien, et le vSVM. Au second travail, et en utilisant l’Adaboost avec un classifieur CNN léger, nous avons considéré un ensemble d’attributs pour classifier un voxel donné. Cet ensemble consiste en une sous image 2D de coupe IRM autour du voxel à étiqueter. Pour les deux modèles, des expérimentations ont été menées et les résultats obtenus ont été comparés avec ceux de travaux récents de la littérature. Les résultats expérimentaux obtenus ont montré le fort potentiel des modèles proposées, soit de représentation, soit de classification pour une segmentation efficace des IRM, et ce dans les deux cas : IRM structurelle et IRM tumorale. Ces résultats nous ont conféré de confirmer notre hypothèse, à savoir que l’utilisation d’attributs représentant des patterns, tels que l’entropie spatiale ou les sous-images, ainsi que le recours à des méta-classifieurs d’ensemble, tel que Adaboost pourra être considéré comme un Framework général pour une segmentation efficace d’IRM.Item Big Data Paradigm: Methods, Tools and Applications, Case of the Internet of Things(UNIVERSITY 20 AUGUST 1955 - SKIKDA, 2024) Mohamed Lamine, BOUGHOUAS; Smaine ,MAZOUZIBig data’s distinguishing features include its substantial volume, swift velocity, and wide-ranging variety of data types, which present obstacles for traditional data processing software. The proliferation of big data is propelled by the Internet of Things (IoT), which produces massive data volumes via interconnected devices. The collaboration between IoT and big data is revolutionary, facilitating the development of intelligent applications across various fields, such as healthcare and higher education. This thesis discusses the challenges and opportunities in managing and extracting insights from Big Data, mainly focusing on IoT-generated Big Data in sectors like higher education and environmental perception and management. It highlights the potential benefits of utilizing Big Data in these sectors and emphasizes the importance of advanced technologies for improving monitoring, analysis, and response mechanisms. In higher education, the study introduces the concept of Big Data Analytics (BDA) for improving student performance and decision-making, presenting a model for educational supply chain management and predictive analytics for student outcomes. In environmental management, a multi-layered architecture leveraging IoT and fog computing is proposed for forest fire management, emphasizing the importance of fog computing in handling data volume and improving system response time to fire incidents. Implementing advanced technologies like BDA and fog computing can significantly enhance efficiency and decision-making processes in various fields, revolutionizing how data is managed and utilized.Item Contribution to the study of certain functional differential equations(20 August 1955 University of Skikda, 2024) Lynda. MEZGHICHE; Rabah, KHEMISDans ce travail, trois classes d’équations di¤érentielles fonctionnelles non linéaires avec retards et termes itératifs sont étudiées. Grâce à une approche hybride combinant les théorèmes du point …xe de Banach, Schauder et Krasnoselskii avec la méthode des fonctions de Green, nous établissons des conditions su¢ santes qui garantissent l’existence, l’unicité et la stabilité des solutions positives et périodiques. L’idée principale consiste à dé…nir un espace de Banach et un sous-ensemble d’une part, pour faciliter l’étude et, d’autre part, pour garantir certaines exigences souhaitées avant de convertir le problème proposé en une équation intégrale équivalente dont le noyau est une fonction de Green. Ensuite, l’application de certains théorèmes de point …xe à l’aide de certaines propriétés utiles du noyau de Green obtenu et de quelques outils d’analyse fonctionnelle nous aident à prouver les résultats souhaitésItem Plateformes et Outils pour la modélisation et la simulation des systèmes à évènements discrets: Application aux systèmes industriels(Université 20 Août 1955 Skikda, 2024-02-06) Amel, Dembri; Abdelhak, MansoulL’ingénierie dirigée par les modèles (IDM), accompagne les concepteurs et les assiste dans la réalisation de leurs applications en se référant uniquement à l’artefact modèle. Le cas des systèmes industriels revêt un cadre particulier qui prend en considération des aspects temps réel, confidentialité, rigueur et sécurité. Ainsi, un des objectifs majeurs défendus dans ce travail consiste à fournir un ensemble de solutions de simulation et de modélisation pour de tels systèmes. Parmi ces solutions, une approche originale est développée dans ce travail concerne une extension des réseaux de Pétri aux agents (APN : Agent Petri Nets), ceci permet de formaliser les comportements des systèmes complexes à un niveau d’abstraction élevé et de les valider. L’approche qui été proposée dans ce travail concerne le développement d’une solution qui combine une méthode formelle(APN) et des outils de l’ingénierie dirigée par les mod- èles. Un outil est déployé sous forme de plugin Cinco. Ce travail permet aux concepteurs de manipuler des modèles APN et de les expérimenter grâce à des fonctionnalités de simulation. Enfin, une comparaison couvrant les solutions de modélisation MDA (model driven architecture) parmi les plus intéressantes est élaborée. Cette démarche permettrait d’aider et de guider les concepteurs à choisir des solutions, parmi les plus efficaces, pour concevoir et développer leurs applications.Item UNE APPROCHE INTÉGRÉE POUR LA MODÉLISATION ET L’ANALYSE DES SYSTEMES DISTRIBUÉS(Université 20 août 1955 – SKIKDA, 2024-03-07) Houda,HAMROUCHE; Allaoua, CHAOUICette thèse s’inscrit dans le domaine de l'Ingénierie Dirigée par les Modèles (IDM), qui révolutionne la manière dont les systèmes complexes sont conçus, développés et maintenus, en s'appuyant sur la création de modèles abstraits pour représenter les aspects essentiels d'un système. UML (Unified Modeling Language) offre un cadre graphique puissant pour représenter la structure et le comportement des systèmes logiciels. La vérification des diagrammes UML doit être effectuée dès les premières phases du processus de développement logiciel afin de garantir la production d'un système fiable. Cependant, les modèles UML manquent d'une sémantique formelle, ce qui rend leur vérification difficile, en particulier lorsque nous modélisons un système critique où l'automatisation de la vérification est nécessaire. Par conséquent, la recherche de solutions pour attribuer une sémantique formelle aux modèles UML est une préoccupation majeure dans le domaine de l'ingénierie système. Communicating Sequential Processes (CSP) est un langage de spécification formel adapté pour décrire les interactions dans les systèmes concurrents et possède de nombreux outils de vérification automatique. Dans la littérature, de nombreux travaux de formalisation d'UML dans CSP ont été présentés, cependant, ils manquent d'automatisation ou ne traitent que partiellement les composants du diagramme formalisé. Dans cette thèse nous proposons une approche intégrée UML 2.0/CSP visant à modéliser et à vérifier les aspects statiques et dynamiques des systèmes distribués. Nous concentrons notre attention sur les Diagrammes de Classe (UML 2.0 CD), les Diagrammes de Séquence (UML 2.0 SD), et les Diagrammes d'États-Transitions (UML 2.0 STM). Cette approche a pour objectif d'améliorer les formalisations existantes tout en proposant des outils visuels pour la modélisation et l'automatisation de la transformation des modèles UML 2.0 en spécifications CSP. Cela permet aux vérificateurs de modèles CSP existants d'effectuer les vérifications souhaitées. Notre approche repose sur la transformation de graphes et utilise l'outil de méta-modélisation multi-formalismes AToM³. Elle propose trois méta-modèles des diagrammes UML 2.0 ainsi que trois grammaires de graphes. Pour la vérification des propriétés comportementales du système modélisé, telles que les impasses, les blocages vivants et le déterminisme, nous faisons appel au vérificateur de modèle Failures-DivergenceRefinement (FDR4). Pour illustrer cette approche et ses outils, nous proposons une étude de casItem Contribution au Clustering de données : Adéquation d’approches et défis de domaines d’application(Université 20 août 1955 Skikda, 2024-04-30) Ibrahim, Zebiri; Mohammed ,RedjimiWe are swamped in our daily lives by an ever-growing torrent of information, handled by intricate systems with insatiable demands for speed and efficiency. Gleaning knowledge and insights from this deluge requires adaptable techniques that flex with the harsh, ever-shifting realities of data processing. Data clustering, though classified as NP-Hard problem, shines as one such technique. To tackle these computationally prohibitive problems, we turn to metaheuristics, inspired by the marvels in the living world. These approximate solutions allow us to stay ahead of the curve, continually proposing new approaches and optimizing and combining existing ones to achieve high-performance, quality clustering. This thesis offers a short comprehensive exploration of data clustering, delving into its fundamental concepts, motivations, and diverse applications across scientific fields. It provides an in-depth analysis of the state-of-the-art in data clustering, encompassing its objectives, applications, techniques, and the various measures used to evaluate clustering results. Furthermore, the thesis introduces optimization methods inspired by real-world phenomena like genetic algorithms, rat swarm optimizer, and grey wolf optimizer, and explores their potential for effective data clustering. This work makes two notable contributions: the Rat Swarm Optimizer for Data Clustering (RSOC) and the Enhanced Grey Wolf Optimizer for Data Clustering (EGWAC). Both aim to address the limitations of some existing clustering techniques and enhance their performance. RSOC adapts the swarm intelligence metaheuristic RSO to data clustering challenges. It leverages its ability to escape local optima and premature convergence while exploring a broad solution space to find optimal cluster centers. The discussion section showcases RSOC’s performance on diverse datasets using various measures, including homogeneity, completeness, v-measure, purity, and error rate. Comparisons with state-of-the-art and recent algorithms demonstrate RSOC’s adaptability and superior performance in most cases. The second contribution (EGWAC) addresses an identifies the issue in the position updation mechanism of the original Grey Wolf Algorithm-based Clustering technique (GWAC). This issue arises from treating the order of cluster centers as significant for finding clusters, when in reality it only affects wolf position updates and can lead to inaccurate solutions. EGWAC optimizes this key element. Experiments on various data clustering benchmarksviii comparing EGWAC against GWAC and other well-known algorithms, using measures like precision, recall, g-measure, purity, and entropy, demonstrate its overall capability to identify optimal clusters.Item Intégration des Techniques de l’Informatique Affective et des Technologies de la Réalité Virtuelle/Augmentée pour l’Aide à la Thérapie Cognitive et Comportementale(UNIVERSITÉ 20 AOÛT 1955 - SKIKDA, 2024-06-30) Sid Ahmed, HADRI; Abdelkrim ,BOURAMOULÀ une époque où les troubles mentaux posent des défis cruciaux pour la santé globale, et plus particulièrement pour la santé mentale, cette thèse examine la problématique de l’amélioration des méthodes thérapeutiques en psychiatrie. Les approches thérapeutiques traditionnelles, qui reposent principalement sur l’expertise des professionnels de la santé mentale, se révèlent efficaces dans de nombreux cas. Cependant, elles manquent de précision, notamment lorsqu’il s’agit de traiter de grands volumes de données, d’observations analytiques, et de la sensibilité ou de la gravité de certains cas. Par conséquent, ces méthodes traditionnelles ont montré des limites significatives en termes de diagnostic et d’efficacité du traitement. À l’inverse, les technologies modernes basées sur l’intelligence artificielle, l’apprentissage automatique, la réalité virtuelle et l’informatique affective offrent des opportunités sans précédent pour soutenir et améliorer ces pratiques thérapeutiques. Ces technologies facilitent l’intégration des avancées technologiques modernes avec les pratiques psychiatriques. L’idée de lier ces deux domaines forme la problématique centrale abordée dans cette thèse, qui consiste à utiliser les techniques d’apprentissage automatique et de réalité virtuelle pour améliorer le diagnostic, le suivi et le traitement des troubles mentaux et psychologiques. L’objectif global est de parvenir à des soins de santé plus adaptatifs, appropriés et efficaces, adaptés aux conditions spécifiques de chaque patient. Cette thèse propose trois contributions majeures et originales dans le domaine. La première utilise l’apprentissage automatique pour dépister précocement les signes de l’autisme chez les enfants, offrant ainsi une évaluation précise et rapide qui facilite une intervention anticipée. La seconde vise à améliorer l’engagement des enfants autistes en adaptant les interactions grâce à l’apprentissage profond et à l’informatique affective. Enfin, la troisième permet de quantifier l’attention visuelle dans des environnements contrôlés utilisant la réalité virtuelle, pour explorer un dépistage avant-gardiste de l’alcoolisme. Les résultats obtenus, observés et discutés, démontrent que ces innovations technologiques, lorsqu’elles sont utilisées de manière éthique et équitable, ont le potentiel de transformer radicalement la santé mentale. Elles offrent des solutions novatrices pour des défis complexes et diversifiés