Faculté des Sciences
Permanent URI for this community
Browse
Browsing Faculté des Sciences by Title
Now showing 1 - 20 of 98
Results Per Page
Sort Options
Item Adaptive Techniques for Content Based Image Retrieval (CBIR): Study and Applications(University of Skikda - 20 Août 1955, 2021-04-04) Safa, Hamreras; Smaine ,MazouziThe significant growth of images repositories in terms of content and usage has increased the need of conceiving powerful image retrieval systems. In this regard, CBIR is the process of searching images given a query based on their visual aspects. One of the most serious challenges that is facing CBIR systems is “the semantic gap”. This gap occurs between images representation given by a CBIR system and the true semantics included within these images. The semantic gap should be bridged or at least reduced in order to bring closer the low level vision of the CBIR system and the high level vision of the Human Visual System (HVS). This could be achieved through designing CBIR systems that behave with respect to the human understanding of images. In this thesis, we address this challenge by shedding light on a paradigm that has already imposed itself in many fields, that is the adaptation paradigm. Indeed, there is a need to inject a flexibility in the designed CBIR systems, so that they behave depending on some criterion, mainly the input data. We particularly integrate the adaptation into images characterization phase so as to reduce the semantic gap. This adaptation is carried out by selecting the characterization algorithm or tuning its parameters in a training phase, in order to increase its performance with respect to the target task. First, we start with the selection paradigm, where we apply the algorithm selection based on RICE model to select the best performing CBIR-algorithm for each image. In this work, the CBIR-algorithm was decomposed to many variants, where the feature variant was selected based on the input image. In the second contribution, we propose to use a Convolutional Neural Network (CNN) in the feature extraction stage. This latter is first finetuned on the target images dataset in order to adapt its parameters. The resulting network is then used to extract the class probability vectors from input images to use them as representations. Last, our main contribution consists of using an ensemble of CNNs that collaborate to extract relevant features from images. Herein, the class probability vectors are extracted from images using each ensemble member. They are then combined to make a powerful image representation. Finally, it is noteworthy that all our contributions have led to a significant improvement in the performance of the developed CBIR systems. This latter is a relevant indicator of narrowing the semantic gap within these systems, which is the ultimate goal of this thesisItem Advanced Methods for Establishing Similarity between Time Series: Study and Applications(University of Skikda - 20 Août 1955, 2022) Lahrechen, Abdelmadjid; Mazouzi, SmaineLes séries temporelles (ST) sont des séquences de données à valeur réelle enregistrées régulièrement dans le temps. Elles peuvent être trouvées dans pratiquement toutes les applications du monde réel, telles que la médecine, la finance, l’économie, l’industrie et bien d’autres. Dans cette thèse, nous abordons la problématique de l’établissement de similarité entre séries temporelles. La mesure de similarité des séries temporelles est un élément clé de plusieurs tâches d’exploration/fouille de ces séries y compris, mais sans s’y limiter, la classification, la recherche par similarité, le clustering et la détection d’anomalies dans ce type de données. En raison de son importance considérable, la tâche de mesure de similarité des séries temporelles a reçu une attention grandissante et est devenue un domaine de recherche très actif dans la fouille de séries temporelles. D’une manière générale, la problématique d’établissement de similarité des séries temporelles consiste à définir une méthode permettant de comparer/aligner deux séries temporelles données, en déterminant le degré d’accord/discordance entre ces ST. Cependant, mesurer la similarité entre séries temporelles a toujours été une problématique difficile. La difficulté de cette problématique réside dans le fait que les séries temporelles sont intrinsèquement de grande dimension et portent de grandes quantités de données. De plus, diverses distorsions, souvent rencontrées dans les séries temporelles, compliquent davantage l’établissement de similarité (par exemple, le bruit, les valeurs aberrantes, le changement d’échelle du temps/amplitude et le décalage dans le temps/amplitude). Par conséquent, la mesure de similitude doit être soigneusement établie afin de saisir correctement la vraie similitude entre deux séries temporelles. D’autre part, la classification des séries temporelles (CST) est une tâche de plus en plus importante dans le cadre de la fouille de séries temporelles. La CST est, brièvement, la tâche dédiée à la prédiction de l’étiquette (classe) d’une série temporelle requête à partir d’un ensemble de données d’apprentissage étiqueté. Au cours des deux dernières décennies, il y a eu un intérêt croissant pour la CST et, par conséquent, de nombreuses approches ont été publiées dans la littérature. Étonnamment, des études approfondies, dans ce domaine de recherche, ont rapporté que l’approche basée sur distance où le classificateur 1-Nearest Neighbor (1-NN) combiné avec une mesure de distance/similarité appropriée est plus précise que la plupart des approches existantes. De toute évidence, dans ce contexte, la mesure de similarité est un ingrédient crucial et joue un rôle essentiel dans la précision du classificateur 1-NN. Par conséquent, la grande majorité de recherches dans le cadre de la CST s’est concentrée sur le développement de nouvelles mesures de distance/similarité. L’objectif principal de cette thèse concerne, alors, la problématique de mesure de similarité entre séries temporelles avec un focus particulier sur la classification comme domaine d’application très motivant. Nous visons donc à étudier et à développer des mesures de similarité dans le contexte de la CST qui soient compétitives (robustes, précises et efficaces) par rapport aux méthodes existantes dans la littérature. À cette fin, diverses contributions ont été proposées au cours de l’élaboration de ce travail de thèse. Dans la première contribution, nous avons effectué une large comparaison expérimentale entre la célèbre mesure de similarité des ST “Dynamic Time Warping” (DTW) et ses variantes les plus populaires dans le cadre de la CST. Dans cette étude, nous avons évalué empiriquement les méthodes en termes de précision de classification en utilisant 85 ensembles de données de l’archive publique des ST ’Université de Californie-Riverside’ (UCR). Les résultats expérimentaux montrent que pratiquement toutes les variantes sont statistiquement équivalentes. Dans la deuxième contribution, nous avons abordé le problème de la classification des longues séries temporelles en introduisant une nouvelle mesure de similarité appelée “Local Extrema Dynamic Time Warping” (LE-DTW). LE-DTW transforme d’abord les séries temporelles originelles en un espace de faible dimension en extrayant des caractéristiques locales extrêmes. Ensuite, elle compare les séries temporelles transformées ainsi obtenues en utilisant une version adaptée de DTW. Afin d’évaluer la performance de LE-DTW, nous avons effectué des expérimentations approfondies sur une grande variété d’ensembles de données provenant de l’archive UCR. Les résultats ont montré la précision et l’efficacité de notre nouvelle proposition LE-DTW par rapport à certaines méthodes de l’état de l’art, en particulier sur les longues séries temporelles. Dans la troisième contribution, une version accélérée de la méthode Shape Exchange Algorithm (Boucheham, 2008) est proposée pour l’alignement des Séries Temporelles Quasi-Périodiques (STQP). FastSEA est basé sur un algorithme de tri plus efficace mais simple qui est ‘Counting Sort Algorithm’. Le but de FastSEA est d’accélérer le processus d’alignement de la méthode SEA sans affecter sa qualité. La dernière contribution est consacrée à l’extension de la pertinence de la méthode SEA à la classification des séries temporelles générales. Dans ce contexte, nous avons proposé la mesure “Local Matching and Distance Selection SEA” (LMDS-SEA), qui est principalement basée sur un nouveau paradigme de sélection de distance proposé dans (Kotsifakos et al., 2016; Mori et al., 2016; Mosbah and Boucheham, 2017). Les résultats expérimentaux ont montré que la méthode LMDS-SEA proposée est plus performante que SEA. et rivalise avec DTW en termes de précision de classification.Item Applications des nanomatériaux,cas du graphène(Université 20 aout 1955-skikda, 2019-02-05) Boulahneche, samia; Medjram,mohamed salahL'objectif de la thèse est,d'une part la mise en place d'une nouvelle méthode électrochimique,à base de nanoparticules de graphène,pour une détection précoce et plus efficace des agrégations de protéines, et d'autre part, l'intégration de ces memes nanoparticules dans les thérapies biomédicales afin de remplacer les méthodes classiques à risque.Item Applications of the fixed point technique to problems generated by nonlinear functional differential equations(university of Skikda 20 August 1955, 2023) Chouaf, Safa; Guesmia, AmarIterative functional di¤erential equations have a long history-more than a century, during which numerous instances have demonstrated the promising applications of these equations in multiple …elds such as medicine, biology, epidemiology, and classical electrodynamics, etc. The main aim of this dissertation is to contribute to the emerging literature of this type of equations via the study of three classes of second order iterative functional di¤erential equations in Banach spaces. We establish some existence and uniqueness results and the continuous dependence on parameters of the unique solution by virtue of a powerful technique that combines the …xed point theory and the Green’s function method. More precisely, it is based on the transformation of the considered problem into a …xed point problem by converting it into an equivalent integral equation whose kernel is a Green’s function before applying the Banach and Schauder …xed point theoremsItem Apport de la texture à la caractérisation d'images(Université 20 Août 1955 -Skikda, 2017-05-18) Salah ,Bougueroua; Bachir, BOUCHEHAMDans ce travail, nous nous intéressons à la recherche d’images par le contenu. Cette intéressante approche, plus connue par son acronyme anglais CBIR (Content Based Image Retrieval), a vu le jour afin de remédier aux problèmes engendrés par son prédécesseur, basé sur le texte (TBIR : Text based image retrieval). Principalement, le TBIR souffre de deux inconvénients. Le premier consiste dans la difficulté de la tâche d’attribution des mots clés aux images, due à son aspect manuel. En outre, le deuxième inconvénient réside dans la subjectivité de la tâche. Afin de parer à ces inconvénients, l’approche alternative CBIR utilise les caractéristiques visuelles de l’image, telles que la couleur, la texture, la forme… etc. Cependant, le fait de se baser sur de telles caractéristiques de bas niveau pour représenter et exprimer le contenu d’une image, généralement très complexe, engendre un écart significativement important avec les sémantiques et les significations de celle-ci. Cet écart est communément connu par le fossé sémantique. Particulièrement, l’attribut texture est très répandu et très utilisé, vu que les êtres humains sont capables de distinguer entre différentes manifestations de cet attribut. Néanmoins, sur le plan computationnel, la texture demeure un attribut difficile à caractériser. Dans le présent travail, la texture représente le point de focalisation. Par conséquent, un ensemble de méthodes basées textures seront abordées ainsi que la proposition de plusieurs contributions. Principalement, notre première contribution est une amélioration de la célèbre méthode LBP (Local Binary Pattern, motif binaire local), où nous proposons d’intégrer graduellement l’information locale véhiculée par les motifs binaires locaux. Ceci est obtenu à travers un nouveau schéma de délimitation des régions, qui diffère de celui basé sur les blocs (régions rectangulaires classiques). Par conséquent, notre méthode est baptisée GLIBP (Gradual Locality Integration of binary patterns). Le succès de cette instance du Framework proposé GLI (Gradual Locality Integration) nous a poussés à investiguer la faisabilité de l’approche pour l’extraction des caractéristiques de la couleur. Dans ce contexte, la méthode GLI-Color a été proposée ainsi que deux de ses variantes. La première opère sur l’espace de couleur HSV, d’où son nom : GLI-Color(HSV). Quant à la deuxième variante, elle utilise les moments d’où son nom M-GLI-Color. Dans la seconde contribution, nous nous intéressons aux ondelettes dans le contexte de la caractérisation du contenu textural de l’image. Dans cette optique, la littérature existante montre que des auteurs affirment que la moyenne des sous-bandes d’ondelettes est égale à (ou proche de) zéro. Cette affirmation nous a paru digne d’intérêt, vu que les mesures calculées des différentes sous-bandes sont généralement les moments statistiques ; or la moyenne est utilisée lors du calcul de ces derniers. Donc, comme première étape, nous avons vérifié expérimentalement la différence entre la distribution des moyennes des sous-bandes d’ondelettes et celle des énergies des sous-bandes. Les résultats obtenus montrent une différence intéressante entre les deux distributions. Effectivement, par opposition aux valeurs des moyennes qui se concentrent autour de l’axe de zéro, celles des énergies sont plusdispersées. En se basant sur ces résultats, le calcul des moments statistiques autour de l'énergie au lieu de la moyenne, semble une modification efficace afin d'améliorer les capacités discriminatives de ces mesures. Cette hypothèse a fait l'objet de la deuxième étape où nous avons montré l’apport de la considération de l’énergie dans les formules des moments statistiques sur la performance. Notre troisième contribution principale agit quant à elle au niveau de l’étape de comparaison des systèmes CBIR. Elle repose sur une stratégie gloutonne basée sur une mesure d’homogénéité importée du domaine du biclustering des Expressions de Gènes, appelée Mean Squared Residue (MSR). Notre méthode est distinguée par le fait qu’elle profite de toutes les images déjà jugées pertinentes par le système CBIR, pour la sélection de l’image suivante. Ceci est complètement différent de l’approche classique des systèmes CBIR, où seulement la requête est utilisée lors de la recherche des images, puisque le résultat de la requête est alors traité comme un cluster homogène dont la croissance est réalisée de façon incrémentale. L’ensemble des résultats obtenus par les différents algorithmes et techniques proposés ont montré des performances intéressantes, voire supérieures, par rapport à plusieurs travaux publiés. En particulier, la méthode GLIBP a montré des performances supérieures à celles des méthodes : LBP de Ojala et al. (1996), DLEP de Murala et al. (2012a), ‘Block-based LBP’ de Takala et al. (2005), entre autres. D’un autre côté, les résultats obtenus nous encouragent à continuer sur cet axe de recherche et aussi nous inspirent des perspectives à explorer dans le futur, particulièrement, l’exploitation d’autres techniques de biclustering des expressions génétiques dans le domaine de la recherche d’images par le contenuItem Approche individu-centrée basée Multi-Agents pour la modélisation de la dynamique des populations(université 20 aout skikda, 2020-06-15) LAROUM, TOUFIK; Tighiouart, BorniaL’objectif de ce travail de thèse est de proposer un système Multi-Agent pour modéliser la dynamique de populations. Le système biologique que nous avons étudié est l’infection par le virus de l’immunodéficience humaine VIH. La dynamique des populations est la science qui étudie l’évolutions dans le temps des individus d’une population donnée (particulièrement en biologie et écologie) pour des raisons descriptives et prédictives. Depuis la découverte du premier cas du SIDA et l’isolation de VIH comme cause de cette maladie en 1984, plusieurs études et modèles, généralement populationscentrés basés sur l’approche mathématique, ont été mis en œuvre pour comprendre la dynamique de ce phénomène. Cependant, la complexité de ce phénomène biologique et la diversité des cellules et acteurs qui affecte sa dynamique requièrent l’utilisation des approches individu-centrées comme l’approche Multi-Agent. Cette approche consiste à modéliser le comportement de chaque individu de la population (et les interactions entre les individus) au lieu de considérer la population comme une seule entité, et ce afin de produire le comportement global du système étudié. Les résultats obtenus sont encourageants et sont conformes et en cohérence avec les constats biologiques.Item Approches collectives basées datamining et machine-learning pour l’interprétation d’images et reconnaissance d’objets(Université 20Aout 1955-Skikda, 2023) Nadjet, BOUCHAOUR; Smaine, MAZOUZIEn imagerie médicale, comme pour la quasi-totalité de domaines traitant de l’image numérique, la segmentation occupe une place critique, et dont dépend fortement la qualité des résultats d’interprétation. Cependant, la segmentation d’image a été et demeure encore un problème mal-posé, du fait de l’incertitude et de l’imprécision des données lors de l’acquisition des images, mais aussi de la difficulté de modéliser ses données afin que les traitements puissent produire les résultats escomptés par les utilisateurs. Les images à résonance magnétique, (IRM) et en plus du lot de problèmes communs en traitement d’images tels que le bruit et les déformations, elles sont entachées d’artéfacts spécifiques qui compliquent leur segmentation, il s’agit du problème de la non uniformité des intensités (INU : Intensity Non Uniformity) et le problème de l’effet du volume partiel. Afin de contribuer à la résolution du problème de segmentation d’IRM, structurelles et pathologique, nous nous sommes penchés le long de cette thèse à proposer des modèles de données et des modèles de classification, permettant de bien étiqueter les voxels d’une IRM en fonction des tissus auxquels ils appartiennent. Pour ce faire, nous avons démarré d’une hypothèse, postulant que des patterns qui peuvent exister au sein des données IRM permettent de bien classifier ces dernières. Aussi, des attributs qui représentent à la fois les intensités des voxels, mais aussi les interactions qui existent entre eux, devraient renforcer le pourvoir discriminatoire des classifieurs utilisés. Et enfin, et à cause des tailles importantes des volumes IRM, nous avons supposé que les méta-classifieurs ensemblistes tels que l’Adaboost sont bien appropriés aux données traitées. Ces hypothèse et ces réflexions nous ont conduit à mener deux travaux dans le cadre de cette thèse. Le premier travail consiste à concevoir un modèle de représentation des données IRM, basé sur la notion d’entropie spatiale au sein des voxels dans un voisinage local. Les attributs basés entropie obtenus, et l’intensité du voxel lui même sont utilisé en entrée de l’algorithme Adaboost, en testant deux classifieurs faibles, à savoir le Naif bayesien, et le vSVM. Au second travail, et en utilisant l’Adaboost avec un classifieur CNN léger, nous avons considéré un ensemble d’attributs pour classifier un voxel donné. Cet ensemble consiste en une sous image 2D de coupe IRM autour du voxel à étiqueter. Pour les deux modèles, des expérimentations ont été menées et les résultats obtenus ont été comparés avec ceux de travaux récents de la littérature. Les résultats expérimentaux obtenus ont montré le fort potentiel des modèles proposées, soit de représentation, soit de classification pour une segmentation efficace des IRM, et ce dans les deux cas : IRM structurelle et IRM tumorale. Ces résultats nous ont conféré de confirmer notre hypothèse, à savoir que l’utilisation d’attributs représentant des patterns, tels que l’entropie spatiale ou les sous-images, ainsi que le recours à des méta-classifieurs d’ensemble, tel que Adaboost pourra être considéré comme un Framework général pour une segmentation efficace d’IRM.Item Approches Collectives et Coopératives en Sécurité des Systèmes Informatiq(Université 20 Août 1955- Skikda, 2016) Belaoued, Mohamed; Mazouzi, SmaineLes malwares (logiciels malveillants) représentent une réelle menace pour la sécurité de nos systèmes informatiques, et avec la constante prolifération et l'évolution des techniques d’anti-détection de ces derniers, il est devenu primordial d’avoir une protection efficace contre ce genre de menaces. Malheureusement, les antivirus commerciaux sont incapables de fournir le degré requis de protection. Ceci est d^u principalement au fait que ces derniers utilisent des méthodes de détection basées sur les signatures. Ces techniques sont connues pour leurs limites dans la détection des malwares inconnus, ainsi que les variantes de malwares existants. Durant ces vingt dernières années, les chercheurs en sécurité informatique ont propos´e une multitude d’approches afin de remédier aux faiblesses des systèmes `a base de signatures. Cependant, la majorité de ces approches focalisent sur l’amélioration du degré de précision et ignorent un facteur primordial qui est le temps de détection. En effet, être en mesure de détecter et de neutraliser une menace dans un temps court peut s'avérer vital pour la sécurité du système informatique. En plus, connaitre la nature de la menace (dans notre cas le type de malware) est également un facteur important qui va conditionner le choix des mesures `a prendre. Par ailleurs, nous pensons que quelque soit son degré de précision, un outil détection local agissant d’une manière isolée sera rapidement submergé, et cela `a cause du nombre colossal de malwares circulant sur le reséau internet. Dans cette thèse, nous proposons en premier lieu un système temps réel pour la détection des malwares PE (Portable Excuse -table), en cherchant un bon compromis entre précision de détection et temps de traitement. Deuxièmement, nous proposons une nouvelle approche basée sur la méthode d’analyse des correspondances multiples (ACM) qui permet d’extraire les associations d’ APIs (Application Programming Interface) utilisées par les différents types de malwares. Ces associations seront d’une grande importance pour l’identification des différents types de malwares. Enfin, nous proposons une nouvelle approche pour la détection collaborative des malwares, en utilisant les systèmes multi-agents (SMA). Notre approche offre un mécanisme de distribution et de collaboration `a l’aide d’agents autonomes, permettant de faire collaborer différents outils de détection de nature hétérogènes et ayant des performances variables. Il sera également question d’envisager une méthode d’identification universelle de fichiers exécutables en utilisant une signature `a base de code-opérations (Opcodes). Ainsi, la décision collective qui en résulte permet d’améliorer significativement la précision de détection.Item Approches collectives et distribuées pour l’interprétation d’images et la reconnaissance des formes(université 20 Aout 1955 skikda, 2022) Azzouz, Daouia; Smaine, MazouziDepuis l’avènement de la radiologie, l’imagerie médicale n’a cessé de gagner du terrain comme premier moyen pour l’établissement de diagnostics médicaux. Cependant, le volume de données enregistrées dans une image médicale, ainsi que les différents artéfacts auxquels elle est sujette rendent son traitement manuel, par des praticiens de santé, problématique et consomme énormément de temps et d’effort, avec la possibilité accru de commettre des erreurs d’interprétation, conduisant à de faux diagnostics. Dans ce travail de thèse, nous nous sommes penchés sur deux problématiques co-récurrentes dans la littérature du traitement d’images médicales. D’une part, la segmentation d’images à grands volumes en adoptant des approches ne nécessitant pas de données d’apprentissage massives, et produisant des résultats satisfaisants en un temps raisonnable pour les utilisateurs. D’autre part, le traitement de certains artéfacts spécifiques aux images médicales, tels que la non uniformité d’intensité (INU : Intensity Non Uniformity), notamment dans les images à résonance magnétique (IRM). Pour la première problématique, nous avons proposé une nouvelle méthode de segmentation d’IRM, consistant en un nouveau schéma de combinaison de deux méthodes de base, une par clustering et l’autre par accroissement de région. Les deux méthodes sont intrinsèquement faibles en computation mais aussi et en performance de classification. Par contre, le schéma de combinaison proposé, qui se base sur des volumes de probabilités selon différentes distributions statistiques des données IRM nous a permis d’améliorer considérablement la performance de la segmentation. Pour la seconde problématique, nous avons proposé une nouvelle méthode de modélisation et de correction du champ de biais, responsable de la non uniformité des intensités (INU) dans les IRM. Tout d’abord le volume global de l’IRM est subdivisé aléatoirement en sousvolumes de faibles tailles qui se chevauchent, et dont chacun est affecté à un agent pour le segmenter en ses trois tissus qui composent la matière cérébrale. Dans de tels sous volumes, l’effet du champ de biais est pratiquement négligeable, et la non uniformité d’intensité résiduelle ne fausse pas l’étiquetage des voxels. Ainsi, la première segmentation qui en résulte est utilisée pour estimer le champ de biais global dans l’IRM en l’approximant par une hypersurface de variation d’intensité, ajusté par interpolation Lagrangienne et en utilisant les voxels fiablement étiquetés. Au reste de l’IRM, le champ de biais est estimé par interpolation en utilisant l’hyper surface obtenu. Les résultats expérimentaux obtenus pour les deux méthodes, de segmentation par combinaison probabiliste et de correction de l’INU par interpolation Lagrangienne, ont montré l’intérêt des deux méthodes et leur potentiel pour une correction de l’INU et une segmentation fiable et rapide des IRMs. Selon les deux contributions réalisées, nous avons pu confirmer que la combinaison de méthodes de base de segmentation, de complexité computationnelle faible et de performances intrinsèques moyennes, permet de mettre en œuvre des méthodes avec des performances boostées, mais de complexité de calcul raisonnable, compatible avec l’utilisation de telles méthodes sur un terrain réel d’exploitation.Item Approches Formelles et Opérationnelles pour la Modélisation des Echanges et de la Coopération dans les Systèmes Distribués(Université20Aout 1955- Skikda, 2018-12-19) SLIMANI, Amira; Redjimi, MohammedAu cours de ces dernières décennies, les développements spectaculaires dans le domaine de l’informatique, de la micro-électronique et des média de communication ont permis des évolutions considérables dans les systèmes répartis. Ces systèmes distribués ont reçu une attention considérable de la part des universitaires et de l'industrie et sont devenus un domaine de recherche très important. La motivation principale des systèmes distribués est le partage des ressources et l'accès distant aux informations et aux services indépendamment de leurs localisations. Plusieurs architecture des systèmes distribués se sont développées afin d'améliorer leurs performances et de répondre aux besoins des utilisateurs. Les réseaux sans fil sans ont vu naître, au cours de leur évolution, diverses architectures dérivées, telles que les réseaux cellulaires, les réseaux locaux sans fil, les réseaux WiMax, etc. Durant la dernière décennie, de nouveaux types de réseaux sans fil ont suscité un grand intérêt auprès de la communauté scientifique et des industriels, il s'agit des réseaux ad hoc et des réseaux de capteurs sans fil (WSN). Ces dernières années, les réseaux de capteurs sans fil se sont introduits à tous les niveaux de la société : les entreprises, les gares, les hôpitaux, les usines, les domiciles, les téléphones et autres équipements domestiques, militaire, de santé, environnement. Dans cette thèse, nous nous sommes intéressés au problème de l'énergie dans les réseaux de capteurs sans fil. Nous avons abordé cette problématique en investiguant deux axes de recherche, à savoir les protocoles de routage hiérarchique et les stratégies de gestion de l'énergie. Notre première contribution consiste à proposer un protocole de clustering nommé WDC-LEACH-C pour établir une architecture hiérarchique clustérisée avec une meilleure sélection des clusters heads (CHs) afin de minimiser la consommation d'énergie dans les clusters. La seconde contribution consiste dans la proposition d’un autre protocole de routage nommé Improved-ACORP qui intègre une stratégie de gestion d'énergie des CHs nommée CHMS afin de conserver le maximum l'énergie aux CHs et prolonger, ainsi, la durée de vie du réseau. Plusieurs simulations ont été effectuées pour démontrer la faisabilité et l’efficacité de ces solutionsItem Approches Numériques par des Volumes Finis de l’équation de Bürgers Stochastique.(université 20aout55-skikda, 2020) DIB ,Nidal; GUESMIA, AmarOn s’ intéress à l’équation aux dérivées p artiell es sto chastiques non linéaires unidimensionnelles: l’équation de Burgers généralisée avec des conditions aux limites de Dirichlet homogènes, p erturb ées p ar un bruit blanc additif du typ e espace-temp s. On présente un résultat d’existence et d ’unicité d’une solution à l’ équation avec viscosité en utilisant l’argument du p oint fixe. On donne auss i un résultat d’existence et d’unicité de la s olu tion entropi qu e à l’équation non visqueuse en utilisant le concept de la solutions à valeurs mesures et la formulation d’entropie de Kruzhkov. Ensuite, nous étudions la métho de de volumes finis p our la di scréti sati on de l’équation de Burgers sto chastique généralisée non visqueuse définie sur un domaine b orné D de R avec des conditions aux limites de Dirichlet et une donnée initiale dans L∞ (D). On montre que la solution numérique converge vers la solution entropique stochastique unique du problème continu sous une condition de stabilitée. Ceci donne une nouvelle preuve d’existence d’une solution faible entropique. Finallement, on termine par quelques simulations numériques de la solution approchée stochastique et deterministe, pour une conditions initiales particulièreréalisées sous le logiciel MatlabItem Big Data Paradigm: Methods, Tools and Applications, Case of the Internet of Things(UNIVERSITY 20 AUGUST 1955 - SKIKDA, 2024) Mohamed Lamine, BOUGHOUAS; Smaine ,MAZOUZIBig data’s distinguishing features include its substantial volume, swift velocity, and wide-ranging variety of data types, which present obstacles for traditional data processing software. The proliferation of big data is propelled by the Internet of Things (IoT), which produces massive data volumes via interconnected devices. The collaboration between IoT and big data is revolutionary, facilitating the development of intelligent applications across various fields, such as healthcare and higher education. This thesis discusses the challenges and opportunities in managing and extracting insights from Big Data, mainly focusing on IoT-generated Big Data in sectors like higher education and environmental perception and management. It highlights the potential benefits of utilizing Big Data in these sectors and emphasizes the importance of advanced technologies for improving monitoring, analysis, and response mechanisms. In higher education, the study introduces the concept of Big Data Analytics (BDA) for improving student performance and decision-making, presenting a model for educational supply chain management and predictive analytics for student outcomes. In environmental management, a multi-layered architecture leveraging IoT and fog computing is proposed for forest fire management, emphasizing the importance of fog computing in handling data volume and improving system response time to fire incidents. Implementing advanced technologies like BDA and fog computing can significantly enhance efficiency and decision-making processes in various fields, revolutionizing how data is managed and utilized.Item Biofilms phototrophes des milieux anthropisés : dynamique des communautés diatomiques et intérêt de leur utilisation en bioindication(université 20 aout 1955 skikda, 2024-10-09) NOUNE. Faïza; CHAIB ,NadjlaLes perturbations dans les eaux douces jouent un rôle clé dans l'état de santé des communautés de diatomées benthiques qui, à leur tour, pourraient être utilisées comme de bons indicateurs de pollution. Notre étude s’inscrit dans le cadre d’approfondissement de nos connaissances sur un des plus grands et importants écosystème lotique Algérien : Le bassin versant Kébir-Rhumel, soumis à un accroissement continu de pollution d’origine anthropique. Les eaux de rejets bruts et épurés dans Kébir-Rhumel ont été explorées des points de vue physico-chimique et floristique à partir de l’étude de la distribution des communautés benthiques de diatomées. Dans ce contexte, un suivi saisonnier de printemps 2017 à l’été 2018 sur les 30 points d’échantillonnage, nous a permis d'obtenir des données sur la qualité de l'eau dans l’objectif d'étudier et évaluer la réponse et la dynamique des communautés de diatomées y compris le développement de formes aberrantes de leur frustules. Cette étude in situ sur le Kébir-Rhumel a été complétée par deux expérimentations contrôlée à l’échelle du laboratoire, une première, consiste en une translocation de substrat, pour évaluer l’effet des niveaux élevés de conductivité sur les communautés de diatomées et une seconde expérience, analysant l’effet de gradient ascendant de conductivité, comme proxy de la salinité sur la morphologie des valves de diatomées. L’analyse in situ des données physicochimiques a mis en évidence une variabilité spatiale et temporelle des concentrations des différents paramètres mesurés dans les eaux de rejets du bassin versant. Kébir-Rhumel a été caractérisé par une diversité diatomique élevée, cette diversité augmente le long du gradient descendant de pollution. Les analyses multivariées ont montré les principales variables physico-chimiques qui ont contribué à la distribution des communautés de diatomées dans le bassin versant Kébir-Rhumel à savoir la conductivité, les phosphates, la vitesse du courant, les nitrates et la température. La composition taxonomique a également montré des espèces de diatomées avec des anomalies morphologiques de frustules, avec une typologie variable des malformations. Les deux expériences originales développées et qui constituent un bon outil méthodologique pour aider à la réduction et à l'interprétation des processus complexes qui déterminent le milieu naturel ont permis d'aboutir à des conclusions très pertinentes concernant l’apparition et le développement de formes tératologiques de diatoméesItem Caractérisation de couches minces de ZnO élaborées par évaporation thermique pour des applications photovoltaïques(Université 20 août 1955 - SKIKDA, 2017) Abdelhakim, ZAIER; A., MEFTAHDans ce travail, nous avons élaboré des couches minces d’oxyde de Zinc (ZnO) pur, dopé en aluminium ou en cuivre sur des substrats en verre par évaporation thermique à partir d’une poudre d’oxyde de zinc (ZnO) dans le but d’améliorer les propriétés physiques des couches pour des applications photovoltaïques. Les couches déposées ont été analysées par la Diffraction des Rayons X (DRX), le profilomètre de surface, la spectrométrie UV-Visible et le dispositif des quatre pointes. La DRX confirme que les couches minces se cristallisent dans la structure hexagonale de type wurtzite. La caractérisation optique sur une gamme de 200 à 900 nm montre que les films sont transparents à 90 % dans la région visible. La valeur minimale de la résistivité électrique dans les couches minces de ZnO dopé en aluminium est de 0.043 Ω.cm.Item Caractérisation des séries temporelles pour la recherche et la classification(Université 20 Août 1955-Skikda, 2021-02-14) Imen, Boulnemour; Redjimi, MohamedL’objet de cette thèse concerne principalement : (a) La problématique de caractérisation des séries temporelles (ST) et (b) L’investigation du domaine obligatoirement lié à cette problématique : Les mesures de distances et les mesures de similarité entre ST, ainsi que les techniques d’appariement (ou alignement) des ST. Ces dernières techniques sont beaucoup plus robustes que les mesures de distance/similarité, mais, elles sont peu nombreuses et difficiles à inventer. La caractérisation des ST a pour but de décrire de façon compacte, mais pertinentes ce type de données (les ST). Compacte au sens de la réduction autant que possible de la redondance des données dans les ST, en n’extrayant que les caractéristiques effectivement discriminantes. Cela nécessite le plus souvent de faire muter les ST du domaine temporel à un domaine beaucoup plus expressif en termes de pouvoir de discrimination. Dans ce contexte, nous allons établir un état de l’art et une catégorisation des techniques de caractérisation des ST. Grossièrement parlant, nous pouvons déjà avancer que ces techniques peuvent être classées en quatre domaines: (1) Le domaine temporel tels que les histogrammes, les motifs et l’approche PLA (Piecewise Linear Approximation), (2) Le domaine fréquentiel, tel que la Transformée de Fourier Discrète (DFT), (3) Le domaine temps-fréquences, tel que la Transformée des Ondelettes Discrètes (DWT : Discrete Wavelet Transform) et (4) La transformée par décomposition en valeurs singulières (SVD : Singular Value Decomposition), qui relève du domaine de l’algèbre linéaire. Pour le point d’intérêt (b), notre étude montre l’existence de quatre familles de techniques de comparaison des ST. Il y a d’abord (1) Les techniques de comparaison utilisant les données directes des ST combinées à des mesures de distance/similarité, telle que la distance Euclidienne, (2) Les techniques de comparaison basées caractéristiques combinées aussi à une mesure de distance / similarité, telle que la DFT et (3) Les technique d’alignement, telle que la célèbre et très pertinente méthode : DTW (Dynamic Time Warping). Enfin, (4) une autre classe de techniques d’alignement des ST basées signatures (caractéristiques globales) a été récemment proposée par Boucheham: la méthode SEA (Shape Exchange Algorithm). Son auteur la présente comme la rivale de la DTW ; mais, plus précise et plus pertinente. Comme contributions personnelles dans le cadre de cette thèse, nous avons proposé quatre travaux dont deux ont été publiés au niveau international : (1) L’élaboration d’une technique d’alignement pour l’alignement des ST quasi-périodiques (STQP), telles que les tracés ECG (Electrocardiogramme) et les ST du Capnogram (Qualité de la respiration). Notre méthode, intitulée QPDTW (Quasi-Periodic Dynamic Time Warping), est une fusion entre la méthode DTW et la méthode SEA. L’intérêt de ce travail est que, selon les travaux de Boucheham, l’alignement des STQP serait le cas le plus complexe à résoudre. Brièvement, notre méthode QPDTW permet d’aligner de manière effective les STQP même lorsqu'elles sont déphasées et bruitées de manières significatives. (2) Développement d'un classifieur binaire basé QPDTW pour la détection d'anomalies dans les tracés ECG. Ce travail en particulier a eu un écho remarquable sur Researchgate. (3) Développement d’une méthode accélérée à base de la transformation en ondelettes de Haar et de la méthode QP-DTW pour la recherche de similarité dans l’ECG. (4) Développement d’un classifieur de type KNN basé QPDTW pour la classification des ST générales. La base utilisée dans ce cas étant l'UCR (University of California at Riverside) utilisée mondialement comme benchmark pour évaluation des techniques de classification et de clustering des TS. Les résultats sont prometteurs, que se soit pour la détection d'anomalies, la recherche ou pour la classification des séries temporelles.Item Caractérisation phytochimique de Tribulus terrestris et le pouvoir anti-détoxifiant de ses substances actives en cas d'une toxicité par Spirotetramat chez les pigeons domestiques (Columba livia domestica)(université 20 aout skikda, 2023) BOUZEKRI ,Ali; Slimani, SouheilaCette étude vise à évaluer les éventuelles propriétés protectrices de l'extrait hydrométhanolique de Tribulus terrestris (TT) contre la toxicité induite par l’insecticide Spirotetramat (SPT) chez les pigeons domestiques mâles (Columba livia domestica). Une analyse phytochimique a été réalisée en premier temps. Cette dernière a révélé une quantité significative de polyphénols et de flavonoïdes ainsi l’identification de neuf composés par l’analyse HPLC, suggérant la présence de composés antioxydants. Ensuite, l'étude examine les effets cytotoxiques et génotoxiques de SPT et TT sur deux modèles de plantes l’Allium cepa et le Vicia faba, en analysant la croissance, la morphologie, et la couleur des racines, ainsi que l'indice mitotique (IM), et les aberrations chromosomiques (ACs) comme marqueurs précis de la génotoxicité. Enfin, nous avons abordés le pouvoir détoxifiant de la plante. A cet égard une étude in vivo a été réalisée sur un modèle biologique ; les pigeons domestiques (Columba livia domestica), et le SPT comme facteur de la toxicité. Plusieurs fonctions vitales ont été explorées (reproduction, hépatique, rénales …etc.). Pour cela, trente (30) pigeons mâles soumis à un régime photopériodique long de (19L :5D) ont été divisés en six groupes et traités par voie orale de la manière suivante : Le contrôle a reçu de l'eau distillée, le groupe SPT a reçu 15 mg/kg. PC de SPT, les groupes TT100 et TT50 ont reçu 100 et 50 mg/kg. PC de TT, respectivement, en plus les groupes (SPT+ TT100) et (SPT+ TT50). Le volume testiculaire et le poids corporel ont été mesurés une fois tous les 15 jours pendant dix semaines consécutives. Les testicules, le foie et les reins ont été pesés et examinés après le sacrifice des pigeons. Une évaluation des taux d'hormones sexuelles (Testostérone, FSH, LH) et des paramètres lipidiques (Cholestérol Total, HDL-C, LDL-C, Triglycérides) a été réalisée après la collecte d'échantillons sanguins. Les biomarqueurs hépatiques et néphrotiques (ALAT, ASAT, GGT, glucose, protéines totales, créatinine, acide urique) ont été également examiné dans le plasma. Les résultats de cette étude ont montré que le SPT et le TT entrainent des effets cytotoxiques et génotoxiques significatifs sur les racines de l’A. cepa et le V. faba se manifestent par une diminution de la longueur moyenne des racines et de l’IM, ainsi qu'une augmentation des ACs. Ces effets étaient proportionnels à la concentration et la durée d'exposition. Nos résultats in vivo ont montré que l'administration des deux doses de TT a entraîné une augmentation significative du volume testiculaire chez les pigeons dès la deuxième semaine. En revanche, l'exposition au SPT a provoqué une diminution significative du volume testiculaire. Les groupes ayant reçu SPT ainsi que les deux doses de TT ont présenté une augmentation significative des taux de FSH et de LH. Toutefois, une diminution significative du taux de testostérone (T) a été observé chez lespigeons exposés au SPT, tandis qu'il a augmenté chez ceux traités par TT. Par ailleurs, une augmentation notable des taux de cholestérol total (CT), HDL-C et LDL-C a été observée dans le groupe SPT. La supplémentation par TT chez les pigeons exposés à SPT a réduit les effets négatifs de SPT sur le volume, le poids testiculaires, les taux de T, et les paramètres lipidiques. SPT a induit des changements significatifs dans le poids relatif des organes, les activités enzymatiques et les paramètres biochimiques examinés, mais la supplémentation par TT a inversé ces changements. L'analyse histopathologique a montré des altérations dans les tissus des organes ciblés par SPT, mais le traitement combiné avec TT a permis de réduire ces lésions. Les résultats de cette étude ont mis en évidence que TT possède des propriétés protectrices contre les effets toxiques induits par SPT sur les fonctions reproductive, hépatique et rénale, réduisant significativement les altérations causées par SPT, tout en stimulant fortement la production d'hormones sexuelles masculines. Cette étude a également démontré l'ampleur des effets génotoxiques que SPT pourrait causer en induisant des changements dans le génome des organismes non ciblés. Elle souligne également la nécessité d'utiliser TT rationnellement et de manière appropriée, en fonction des besoins thérapeutiques fondamentauxItem Comportement Asymptotique du Problème de Stokes dans un milieu poreux avec des Conditions de type Robin Non Homogènes(université 20aout55-skikda, 2019-10-10) Chafia, KAREK; Amar, Ould-hammoudaNous considérons dans cette th´ese le Probléme de Stokes dans un domaine perforé avec des petits trous périodiquement distribués de p´eriode r(ε). Sur le bord des trous, nous imposons une condition de type Robin dépendant d’ un paramétre γ . Notre objectif est d étudier le comportement asymptotique de la vitesse d’ écoulement et de la pression du fluide quand ε tend vers zéro par la méthode de l’éclatement périodique. Nous obtenons plusieurs cas différents (loi de Darcy, Brinkmann et Stokes). Par ailleurs, dans cette thése, nous avons également abord homogéen´eisation de probléme hyperboliqueparabolique. Ce probléme modélise de nombreux types de phénoménes apparaissant dans l’´electricité et magnétisme, en théorie de l ’élasticit´e, en hydrodynamique et en théorie de la vibration. Nous étudions le comportement asymptotique du probléme hyperboliqueparabolique dans un domaines perforé avec des tropes ε-périodiquement distribuée on pose une condition de Neumann homogéne d´ependent ´a paramétre γ sur les tropes Sεδ 1 . Sous les valeurs de γ Nous présentons trois types de contributions dans les systémes de limites.Item Contribution à l’étude du transfert de chaleur et de masse dans un écoulement externe avec injection ou aspiration(Université 20 Août 1955-Skikda, 2017-01-30) LAOUER, ABDELGHANI; E. ,MEZAACHEUne ´etude de l’influence du transfert pari´etal de masse par injection et aspiration sur la stabilit´e hydrodynamique ainsi que sur le comportement dynamique et thermique d’un ´ecoulement externe laminaire et turbulent le long d’une paroi plane isotherme est pr´esent´ee. Le travail est organis´e en trois parties. Dans la premi`ere, les principes g´en´eraux des ´ecoulements externes, les ph´enom`enes d’instabilit´es, de d´ecollement et les m´ecanismes de contrˆole des ´ecoulements sont rappel´es. Dans la deuxi`eme partie, une ´etude de la stabilit´e lin´eaire de l’´ecoulement externe sur une plaque plane soumise `a un transfert pari´etal de masse par injection et aspiration est pr´esent´ee. L’´ecoulement est suppos´e de couche limite similaire, laminaire et bidimensionnel. Les profils de vitesse de l’´ecoulement de base sont obtenus num´eriquement. La formulation du probl`eme de stabilit´e conduit `a l’´equation d’Orr-Sommerfeld, r´esolue en utilisant la m´ethode spectrale de collocation de Chebyshev. Les diagrammes de stabilit´e d´eterminant les seuils des param`etres conduisant `a l’instabilit´e hydrodynamique ont ´et´e obtenus et analys´es pour le cas d’injection et d’aspiration. Dans la derni`ere partie, une extension de l’´etude pr´ec´edente au cas laminaire et turbulentest r´ealis´ee.L’´ecoulement est d´ecrit par les ´equations de la couche limite bidimensionnelle et permanente. La turbulence est prise en consid´eration `a l’aide du mod`ele de turbulence de longueur de m´elange bas´e sur la formulation alg´ebrique de la viscosit´e apparente de Cebeci. L’´etude num´erique est bas´ee sur la m´ethode implicite aux diff´erences finies centr´ees. Cette ´etude nous a permis de mettre en ´evidence l’influence des conditions pari´etales d’injection et d’aspiration sur les grandeurs dynamiques et thermiques de l’´ecoulement.Item Contribution au Clustering de données : Adéquation d’approches et défis de domaines d’application(Université 20 août 1955 Skikda, 2024-04-30) Ibrahim, Zebiri; Mohammed ,RedjimiWe are swamped in our daily lives by an ever-growing torrent of information, handled by intricate systems with insatiable demands for speed and efficiency. Gleaning knowledge and insights from this deluge requires adaptable techniques that flex with the harsh, ever-shifting realities of data processing. Data clustering, though classified as NP-Hard problem, shines as one such technique. To tackle these computationally prohibitive problems, we turn to metaheuristics, inspired by the marvels in the living world. These approximate solutions allow us to stay ahead of the curve, continually proposing new approaches and optimizing and combining existing ones to achieve high-performance, quality clustering. This thesis offers a short comprehensive exploration of data clustering, delving into its fundamental concepts, motivations, and diverse applications across scientific fields. It provides an in-depth analysis of the state-of-the-art in data clustering, encompassing its objectives, applications, techniques, and the various measures used to evaluate clustering results. Furthermore, the thesis introduces optimization methods inspired by real-world phenomena like genetic algorithms, rat swarm optimizer, and grey wolf optimizer, and explores their potential for effective data clustering. This work makes two notable contributions: the Rat Swarm Optimizer for Data Clustering (RSOC) and the Enhanced Grey Wolf Optimizer for Data Clustering (EGWAC). Both aim to address the limitations of some existing clustering techniques and enhance their performance. RSOC adapts the swarm intelligence metaheuristic RSO to data clustering challenges. It leverages its ability to escape local optima and premature convergence while exploring a broad solution space to find optimal cluster centers. The discussion section showcases RSOC’s performance on diverse datasets using various measures, including homogeneity, completeness, v-measure, purity, and error rate. Comparisons with state-of-the-art and recent algorithms demonstrate RSOC’s adaptability and superior performance in most cases. The second contribution (EGWAC) addresses an identifies the issue in the position updation mechanism of the original Grey Wolf Algorithm-based Clustering technique (GWAC). This issue arises from treating the order of cluster centers as significant for finding clusters, when in reality it only affects wolf position updates and can lead to inaccurate solutions. EGWAC optimizes this key element. Experiments on various data clustering benchmarksviii comparing EGWAC against GWAC and other well-known algorithms, using measures like precision, recall, g-measure, purity, and entropy, demonstrate its overall capability to identify optimal clusters.Item Contribution au développement d'un indice diatomique adapté à l'évaluation de la qualité des cours d'eau algériens(université 20 aout 1955 skikda, 2024-05-25) Kaddeche, hadjer; Chaib, nadjlaLa présente étude est la première tentative pour créer un indice basé sur les diatomées adapté à nos conditions environnementales spécifiques dans le but d’évaluer la qualité de l’eau en Algérie. Les diatomées et les échantillons d’eau pour les analyses physico-chimiques ont été prélevés dans 26 sites d’échantillonnage le long du bassin Côtier Constantinois Centre nordest de l’Algérie. Le BDIAR est créé en combinant les abondances des taxons de diatomées, les profils écologiques avec la conductivité de l’eau comme principale variable indiquant les conditions environnementales. Nous avons appliqué l’approche de la moyenne pondérée pour déterminer les valeurs autoécologiques (optimum et tolérance) pour 157 taxons de diatomées afin de développer le BDIAR. La grande majorité des espèces de diatomées étaient cosmopolites. La famille des Naviculaceae était la plus abondante (47,87 %). Nos résultats ont révélé les principales variables environnementales influençant la distribution des diatomées dans les trois bassins hydrographiques, y compris la conductivité et les gradients de pollution déterminés par les Analyses Canoniques des Correspondances (ACC). La permutation de la diversité a révélé une disparité significative entre les saisons étudiées (p=0,0001). L'été a été la saison la plus variée, avec une valeur de Fisher alpha de 20,07 et 152 taxons par rapport aux autres saisons. Il y avait une corrélation fortement positive entre les valeurs de conductivité observées et inférées (r2 = 0,64, p = 0,0001). L’analyse de régression a démontré un lien significatif entre BDIAR et la conductivité (corrélation de Pearson p =0,0001). Bien qu’efficaces pour inférer les niveaux de conductivité, deux approches similaires (l’indice pour les lacs de Soude (Soda Pans) DISP et l’indice de Carayon) étaient moins fiables (p = 0,08 et 0,03 respectivement). Les statistiques de Chicarrés et de Kappa ont indiqué que l’application de notre métrique conduit à une classification correcte des sites dans les classes de conductivité de l’eau. Le BDIAR pourrait être largement utilisé dans les programmes de surveillance et de gestion de tous les systèmes d’eau douce présentant des conditions environnementales similaires