Browsing by Author "Mazouzi, Smaine"
Now showing 1 - 5 of 5
Results Per Page
Sort Options
Item Advanced Methods for Establishing Similarity between Time Series: Study and Applications(University of Skikda - 20 Août 1955, 2022) Lahrechen, Abdelmadjid; Mazouzi, SmaineLes séries temporelles (ST) sont des séquences de données à valeur réelle enregistrées régulièrement dans le temps. Elles peuvent être trouvées dans pratiquement toutes les applications du monde réel, telles que la médecine, la finance, l’économie, l’industrie et bien d’autres. Dans cette thèse, nous abordons la problématique de l’établissement de similarité entre séries temporelles. La mesure de similarité des séries temporelles est un élément clé de plusieurs tâches d’exploration/fouille de ces séries y compris, mais sans s’y limiter, la classification, la recherche par similarité, le clustering et la détection d’anomalies dans ce type de données. En raison de son importance considérable, la tâche de mesure de similarité des séries temporelles a reçu une attention grandissante et est devenue un domaine de recherche très actif dans la fouille de séries temporelles. D’une manière générale, la problématique d’établissement de similarité des séries temporelles consiste à définir une méthode permettant de comparer/aligner deux séries temporelles données, en déterminant le degré d’accord/discordance entre ces ST. Cependant, mesurer la similarité entre séries temporelles a toujours été une problématique difficile. La difficulté de cette problématique réside dans le fait que les séries temporelles sont intrinsèquement de grande dimension et portent de grandes quantités de données. De plus, diverses distorsions, souvent rencontrées dans les séries temporelles, compliquent davantage l’établissement de similarité (par exemple, le bruit, les valeurs aberrantes, le changement d’échelle du temps/amplitude et le décalage dans le temps/amplitude). Par conséquent, la mesure de similitude doit être soigneusement établie afin de saisir correctement la vraie similitude entre deux séries temporelles. D’autre part, la classification des séries temporelles (CST) est une tâche de plus en plus importante dans le cadre de la fouille de séries temporelles. La CST est, brièvement, la tâche dédiée à la prédiction de l’étiquette (classe) d’une série temporelle requête à partir d’un ensemble de données d’apprentissage étiqueté. Au cours des deux dernières décennies, il y a eu un intérêt croissant pour la CST et, par conséquent, de nombreuses approches ont été publiées dans la littérature. Étonnamment, des études approfondies, dans ce domaine de recherche, ont rapporté que l’approche basée sur distance où le classificateur 1-Nearest Neighbor (1-NN) combiné avec une mesure de distance/similarité appropriée est plus précise que la plupart des approches existantes. De toute évidence, dans ce contexte, la mesure de similarité est un ingrédient crucial et joue un rôle essentiel dans la précision du classificateur 1-NN. Par conséquent, la grande majorité de recherches dans le cadre de la CST s’est concentrée sur le développement de nouvelles mesures de distance/similarité. L’objectif principal de cette thèse concerne, alors, la problématique de mesure de similarité entre séries temporelles avec un focus particulier sur la classification comme domaine d’application très motivant. Nous visons donc à étudier et à développer des mesures de similarité dans le contexte de la CST qui soient compétitives (robustes, précises et efficaces) par rapport aux méthodes existantes dans la littérature. À cette fin, diverses contributions ont été proposées au cours de l’élaboration de ce travail de thèse. Dans la première contribution, nous avons effectué une large comparaison expérimentale entre la célèbre mesure de similarité des ST “Dynamic Time Warping” (DTW) et ses variantes les plus populaires dans le cadre de la CST. Dans cette étude, nous avons évalué empiriquement les méthodes en termes de précision de classification en utilisant 85 ensembles de données de l’archive publique des ST ’Université de Californie-Riverside’ (UCR). Les résultats expérimentaux montrent que pratiquement toutes les variantes sont statistiquement équivalentes. Dans la deuxième contribution, nous avons abordé le problème de la classification des longues séries temporelles en introduisant une nouvelle mesure de similarité appelée “Local Extrema Dynamic Time Warping” (LE-DTW). LE-DTW transforme d’abord les séries temporelles originelles en un espace de faible dimension en extrayant des caractéristiques locales extrêmes. Ensuite, elle compare les séries temporelles transformées ainsi obtenues en utilisant une version adaptée de DTW. Afin d’évaluer la performance de LE-DTW, nous avons effectué des expérimentations approfondies sur une grande variété d’ensembles de données provenant de l’archive UCR. Les résultats ont montré la précision et l’efficacité de notre nouvelle proposition LE-DTW par rapport à certaines méthodes de l’état de l’art, en particulier sur les longues séries temporelles. Dans la troisième contribution, une version accélérée de la méthode Shape Exchange Algorithm (Boucheham, 2008) est proposée pour l’alignement des Séries Temporelles Quasi-Périodiques (STQP). FastSEA est basé sur un algorithme de tri plus efficace mais simple qui est ‘Counting Sort Algorithm’. Le but de FastSEA est d’accélérer le processus d’alignement de la méthode SEA sans affecter sa qualité. La dernière contribution est consacrée à l’extension de la pertinence de la méthode SEA à la classification des séries temporelles générales. Dans ce contexte, nous avons proposé la mesure “Local Matching and Distance Selection SEA” (LMDS-SEA), qui est principalement basée sur un nouveau paradigme de sélection de distance proposé dans (Kotsifakos et al., 2016; Mori et al., 2016; Mosbah and Boucheham, 2017). Les résultats expérimentaux ont montré que la méthode LMDS-SEA proposée est plus performante que SEA. et rivalise avec DTW en termes de précision de classification.Item Approches Collectives et Coopératives en Sécurité des Systèmes Informatiq(Université 20 Août 1955- Skikda, 2016) Belaoued, Mohamed; Mazouzi, SmaineLes malwares (logiciels malveillants) représentent une réelle menace pour la sécurité de nos systèmes informatiques, et avec la constante prolifération et l'évolution des techniques d’anti-détection de ces derniers, il est devenu primordial d’avoir une protection efficace contre ce genre de menaces. Malheureusement, les antivirus commerciaux sont incapables de fournir le degré requis de protection. Ceci est d^u principalement au fait que ces derniers utilisent des méthodes de détection basées sur les signatures. Ces techniques sont connues pour leurs limites dans la détection des malwares inconnus, ainsi que les variantes de malwares existants. Durant ces vingt dernières années, les chercheurs en sécurité informatique ont propos´e une multitude d’approches afin de remédier aux faiblesses des systèmes `a base de signatures. Cependant, la majorité de ces approches focalisent sur l’amélioration du degré de précision et ignorent un facteur primordial qui est le temps de détection. En effet, être en mesure de détecter et de neutraliser une menace dans un temps court peut s'avérer vital pour la sécurité du système informatique. En plus, connaitre la nature de la menace (dans notre cas le type de malware) est également un facteur important qui va conditionner le choix des mesures `a prendre. Par ailleurs, nous pensons que quelque soit son degré de précision, un outil détection local agissant d’une manière isolée sera rapidement submergé, et cela `a cause du nombre colossal de malwares circulant sur le reséau internet. Dans cette thèse, nous proposons en premier lieu un système temps réel pour la détection des malwares PE (Portable Excuse -table), en cherchant un bon compromis entre précision de détection et temps de traitement. Deuxièmement, nous proposons une nouvelle approche basée sur la méthode d’analyse des correspondances multiples (ACM) qui permet d’extraire les associations d’ APIs (Application Programming Interface) utilisées par les différents types de malwares. Ces associations seront d’une grande importance pour l’identification des différents types de malwares. Enfin, nous proposons une nouvelle approche pour la détection collaborative des malwares, en utilisant les systèmes multi-agents (SMA). Notre approche offre un mécanisme de distribution et de collaboration `a l’aide d’agents autonomes, permettant de faire collaborer différents outils de détection de nature hétérogènes et ayant des performances variables. Il sera également question d’envisager une méthode d’identification universelle de fichiers exécutables en utilisant une signature `a base de code-opérations (Opcodes). Ainsi, la décision collective qui en résulte permet d’améliorer significativement la précision de détection.Item Extraction des règles d’association à partir d’une base de données en utilisant l’algorithme Apriori(Faculté des sciences, 2023) Benmerabet, Sihem; Boughiout ,Hakima; Mazouzi, SmaineLes règles d’association extraites de larges ensembles de données permettent diverses applications telles que la recommandation dans les applications de ventes, ainsi que plein d’autres applications. Il s’agit d’un des traitements les plus importants relevant du domaine data mining, dont le but et d’extraire des modèles enfouillés dans les données ainsi que les relations qui peuvent y exister. Dans ce mémoire de master en Systèmes d’information avancés et applications, nous avons étudié le data mining et plus particulièrement le problème d’extraction de règles d’association au sein d’une base de données. Après une courte présentation du domaine du data mining, nous avons étudié et présenté les règles d’association et les principaux algorithmes permettant leur extraction. Au terme de cette étude, nous avons opté pour l’algorithme Apriori, sur lequel nous avons modélisé et implémenter un système d’extraction de règles d’association pour l’application du panier de la ménagère. Pour l’implémentation et le test du système, nous avons utilisé le langage Python sous l’environnement de développement Google Colab, qui nous a été d’une grande utilité pour sa convivialité et sa sécuritéItem Nouvelles approches pour l'optimisation de la consommation énergétique, l'efficacité du routage et pour l'agrégation des données dans les réseaux de capteurs sans fil(Université 20 Août 1955- Skikda, 2022) Redjimi, Kenza; Mazouzi, SmaineLes avancées scientifiques et technologiques dans les domaines de l’électronique, de l’informatique, des télécommunications et du génie-logiciel associées aux progrès consentis dans la miniaturisation des machines permettent de mettre à disposition des appareils très performants de taille réduite tels que les Smartphones et autres systèmes pouvant être embarqués. La distribution des taches, leur coordination et parallélisassions apportent plusieurs types de solutions parmi lesquelles la parcellisation de traitements globaux en des ensembles de traitements locaux. Dans ce type de cas ; la solution globale émerge des solutions locales. Dans cet ordre d’idées, les réseaux de capteurs sans fil sont constitués d’un grand nombre d’unités de captages dits nœuds capteurs disposant de faibles potentialités d’’énergie et de traitement qui ont pour rôle d’extraire l’information brute, de la transformer et de l’envoyer vers des centres de traitement lointains grâce à des communications radio. Le travail entrepris ici, entre dans ce cadre et propose un ensemble d’idées permettant d’assurer le transfert sans perte des données recueillies par les nœuds capteurs depuis le lieu où ces informations sont recueillies vers les stations de base. Un algorithme original qui a été simulé et implémenté propose un protocole de routage géographique (IEGGR) qui permet de garantir la délivrance des données même dans le cas de l’existence de minima locaux (vide).Item Segmentation des images de profondeur(Faculté des Sciences, 2023) Azzouz ,Mohamed Sami; Bouchache ,Faycal; Mazouzi, SmaineDans notre mémoire de Master, nous avons exploré la problématique de la segmentation des images de profondeur des objets polyédriques. Nous avons réalisé des travaux de recherche sur les prétraitements nécessaires pour améliorer la qualité des images de profondeur et nous avons proposé deux approches spécifiques pour la segmentation de ces images. Notre étude décrit deux systèmes différents de segmentation d'images de profondeur. Le premier système utilise une approche simple avec une segmentation adaptative basée sur les données brutes de profondeur et la courbure de la surface avec un lissage des valeurs de profondeur. Le deuxième système se concentre sur une segmentation automatique en utilisant une représentation en image de relief avec calcul du gradient des vecteurs normaux aux surfaces. Dans notre travail, des tests ont été réalisés avec des images réelles de la base de données ABW, et les résultats montrent que ces approches peuvent être efficaces et fiables pour interpréter les images de profondeur. Les résultats expérimentaux ont montré que la deuxième approche proposée pour la segmentation d'images de profondeur est plus efficace et plus précise, bien que la tâche reste complexe et non résolue définitivement. Il est justifié et ambitieux d'élargir cette approche pour traiter des surfaces plus complexes et aborder des problèmes plus avancés en vision par ordinateur, afin d'améliorer l'efficacité et la performance de la segmentation et d'ouvrir la voie à des applications plus avancées dans différents domaines.