Thèses de doctorat
Permanent URI for this community
Browse
Browsing Thèses de doctorat by Title
Now showing 1 - 20 of 392
Results Per Page
Sort Options
Item 2تقييم الأداء المالي في شركات التأمين الجزائرية في ظل الملاءة(جامعة 20اوت 1955 سكيكدة, 2024) صيد ,مريم; زيرق, سوسنتهدف هذه الدراسة إلى تسليط الضوء على واقع تقييم الأداء المالي في شركات التأمين الجزائرية في ظل تطبيق متطلبات نظام الملاءة 2، من خلال إبراز مدى معرفة شركات التأمين العاملة بالجزائر بمتطلبات الملاءة 2، وتقييم مستوى مواكبتها واستجابتها لتطبيق متطلبات هذا النظام، باعتباره أهم مستجدات النظم والقواعد الاحترازية المعمول بها دوليا. ولتحقيق ذلك تم تصميم استبانة وجهت إلى كافة شركات التأمين العاملة بسوق التأمين الج ازئري والبالغ عددها 26 شركة، وتحليلها باستخدام برنامج الرزمة الإحصائية للعلوم .)SPSS. V26( ةيعامتجلا كذلك تم من خلال تقييم وقياس الأداء المالي في شركة أليانس للتأمينات ، خلال الفترة )2017- 2021( في ظل متطلبات الملاءة 2 لما له من أهمية كبيرة، خاصة في ظل إدراجها في بورصة الجزائر، وما له من أثر على الاستقرار المالي بشكل عام، وذلك بالاعتماد على مجموعة من المؤشرات الكمية للإنذار المبكر التي تتوافق وطبيعة قطاع التأمين الجزائر ي للوقوف على أداء الشركة خلال هذه الفترة، ومن ثم دراسة و تقييم ملاءتها المالية بعد تطبيقها للمؤشرات الاحترازية الرئيسية للملاءة 2 )SCR، MCR(. وقد خلصت الدراسة في الأخير إلى مجموعة من النتائج، أهمها أن إدراك شركات التأمين الجزائرية لمتطلبات تطبيق الملاءة 2 لا يرقى إلى المستوى المطلوب، مع وجود تفاوت في درجة استجابتها للملاءة 2 من حيث متطلباتها الثلاث ، حيث ينعدم تبنيها للمتطلبات الكمية، في حين يوجد تبني مقبول للبعض من المتطلبات النوعية واستجابة جيدة لمتطلبات الافصاح والشفافية، كما بينت النسب والمؤشرات المالية التي تم اعتمادها أن الأداء المالي لشركة أليانس للتأمينات يتسم بالاستقرار والثبات نسبيا، وذلك لامتلاكها السيولة الكافية للوفاء بالتزاماتها المالية وكفاءتها الكبيرة في استغلال أصولها والأموال المتوفرة لديها لتوليد الأرباح ، وأن الشركة استوفت كذلك الشروط المتعلقة بوضعية الملاءة المالية وفقا لمتطلبات الملاءة 2، حيث حققت نسب رأس مال الملاءة المطلوب ورأس مال الملاءة الأدنى أكثر من 100 ، خلال الفترة )2017- 2021(، وهو ما يعكس صحة وصلابة مركزها المالي وقدرتها على الوفاء بالتزاماتها تجاه المؤمن لهمItem Adaptive Techniques for Content Based Image Retrieval (CBIR): Study and Applications(University of Skikda - 20 Août 1955, 2021-04-04) Safa, Hamreras; Smaine ,MazouziThe significant growth of images repositories in terms of content and usage has increased the need of conceiving powerful image retrieval systems. In this regard, CBIR is the process of searching images given a query based on their visual aspects. One of the most serious challenges that is facing CBIR systems is “the semantic gap”. This gap occurs between images representation given by a CBIR system and the true semantics included within these images. The semantic gap should be bridged or at least reduced in order to bring closer the low level vision of the CBIR system and the high level vision of the Human Visual System (HVS). This could be achieved through designing CBIR systems that behave with respect to the human understanding of images. In this thesis, we address this challenge by shedding light on a paradigm that has already imposed itself in many fields, that is the adaptation paradigm. Indeed, there is a need to inject a flexibility in the designed CBIR systems, so that they behave depending on some criterion, mainly the input data. We particularly integrate the adaptation into images characterization phase so as to reduce the semantic gap. This adaptation is carried out by selecting the characterization algorithm or tuning its parameters in a training phase, in order to increase its performance with respect to the target task. First, we start with the selection paradigm, where we apply the algorithm selection based on RICE model to select the best performing CBIR-algorithm for each image. In this work, the CBIR-algorithm was decomposed to many variants, where the feature variant was selected based on the input image. In the second contribution, we propose to use a Convolutional Neural Network (CNN) in the feature extraction stage. This latter is first finetuned on the target images dataset in order to adapt its parameters. The resulting network is then used to extract the class probability vectors from input images to use them as representations. Last, our main contribution consists of using an ensemble of CNNs that collaborate to extract relevant features from images. Herein, the class probability vectors are extracted from images using each ensemble member. They are then combined to make a powerful image representation. Finally, it is noteworthy that all our contributions have led to a significant improvement in the performance of the developed CBIR systems. This latter is a relevant indicator of narrowing the semantic gap within these systems, which is the ultimate goal of this thesisItem Advanced Methods for Establishing Similarity between Time Series: Study and Applications(University of Skikda - 20 Août 1955, 2022) Lahrechen, Abdelmadjid; Mazouzi, SmaineLes séries temporelles (ST) sont des séquences de données à valeur réelle enregistrées régulièrement dans le temps. Elles peuvent être trouvées dans pratiquement toutes les applications du monde réel, telles que la médecine, la finance, l’économie, l’industrie et bien d’autres. Dans cette thèse, nous abordons la problématique de l’établissement de similarité entre séries temporelles. La mesure de similarité des séries temporelles est un élément clé de plusieurs tâches d’exploration/fouille de ces séries y compris, mais sans s’y limiter, la classification, la recherche par similarité, le clustering et la détection d’anomalies dans ce type de données. En raison de son importance considérable, la tâche de mesure de similarité des séries temporelles a reçu une attention grandissante et est devenue un domaine de recherche très actif dans la fouille de séries temporelles. D’une manière générale, la problématique d’établissement de similarité des séries temporelles consiste à définir une méthode permettant de comparer/aligner deux séries temporelles données, en déterminant le degré d’accord/discordance entre ces ST. Cependant, mesurer la similarité entre séries temporelles a toujours été une problématique difficile. La difficulté de cette problématique réside dans le fait que les séries temporelles sont intrinsèquement de grande dimension et portent de grandes quantités de données. De plus, diverses distorsions, souvent rencontrées dans les séries temporelles, compliquent davantage l’établissement de similarité (par exemple, le bruit, les valeurs aberrantes, le changement d’échelle du temps/amplitude et le décalage dans le temps/amplitude). Par conséquent, la mesure de similitude doit être soigneusement établie afin de saisir correctement la vraie similitude entre deux séries temporelles. D’autre part, la classification des séries temporelles (CST) est une tâche de plus en plus importante dans le cadre de la fouille de séries temporelles. La CST est, brièvement, la tâche dédiée à la prédiction de l’étiquette (classe) d’une série temporelle requête à partir d’un ensemble de données d’apprentissage étiqueté. Au cours des deux dernières décennies, il y a eu un intérêt croissant pour la CST et, par conséquent, de nombreuses approches ont été publiées dans la littérature. Étonnamment, des études approfondies, dans ce domaine de recherche, ont rapporté que l’approche basée sur distance où le classificateur 1-Nearest Neighbor (1-NN) combiné avec une mesure de distance/similarité appropriée est plus précise que la plupart des approches existantes. De toute évidence, dans ce contexte, la mesure de similarité est un ingrédient crucial et joue un rôle essentiel dans la précision du classificateur 1-NN. Par conséquent, la grande majorité de recherches dans le cadre de la CST s’est concentrée sur le développement de nouvelles mesures de distance/similarité. L’objectif principal de cette thèse concerne, alors, la problématique de mesure de similarité entre séries temporelles avec un focus particulier sur la classification comme domaine d’application très motivant. Nous visons donc à étudier et à développer des mesures de similarité dans le contexte de la CST qui soient compétitives (robustes, précises et efficaces) par rapport aux méthodes existantes dans la littérature. À cette fin, diverses contributions ont été proposées au cours de l’élaboration de ce travail de thèse. Dans la première contribution, nous avons effectué une large comparaison expérimentale entre la célèbre mesure de similarité des ST “Dynamic Time Warping” (DTW) et ses variantes les plus populaires dans le cadre de la CST. Dans cette étude, nous avons évalué empiriquement les méthodes en termes de précision de classification en utilisant 85 ensembles de données de l’archive publique des ST ’Université de Californie-Riverside’ (UCR). Les résultats expérimentaux montrent que pratiquement toutes les variantes sont statistiquement équivalentes. Dans la deuxième contribution, nous avons abordé le problème de la classification des longues séries temporelles en introduisant une nouvelle mesure de similarité appelée “Local Extrema Dynamic Time Warping” (LE-DTW). LE-DTW transforme d’abord les séries temporelles originelles en un espace de faible dimension en extrayant des caractéristiques locales extrêmes. Ensuite, elle compare les séries temporelles transformées ainsi obtenues en utilisant une version adaptée de DTW. Afin d’évaluer la performance de LE-DTW, nous avons effectué des expérimentations approfondies sur une grande variété d’ensembles de données provenant de l’archive UCR. Les résultats ont montré la précision et l’efficacité de notre nouvelle proposition LE-DTW par rapport à certaines méthodes de l’état de l’art, en particulier sur les longues séries temporelles. Dans la troisième contribution, une version accélérée de la méthode Shape Exchange Algorithm (Boucheham, 2008) est proposée pour l’alignement des Séries Temporelles Quasi-Périodiques (STQP). FastSEA est basé sur un algorithme de tri plus efficace mais simple qui est ‘Counting Sort Algorithm’. Le but de FastSEA est d’accélérer le processus d’alignement de la méthode SEA sans affecter sa qualité. La dernière contribution est consacrée à l’extension de la pertinence de la méthode SEA à la classification des séries temporelles générales. Dans ce contexte, nous avons proposé la mesure “Local Matching and Distance Selection SEA” (LMDS-SEA), qui est principalement basée sur un nouveau paradigme de sélection de distance proposé dans (Kotsifakos et al., 2016; Mori et al., 2016; Mosbah and Boucheham, 2017). Les résultats expérimentaux ont montré que la méthode LMDS-SEA proposée est plus performante que SEA. et rivalise avec DTW en termes de précision de classification.Item Amélioration de la Qualité de l’Energie dans les Réseaux Electriques par le Biais d’un Filtre Actif Mixte Permettant la Réduction des Harmoniques(Université 20 Août 1955-Skikda, 2015-06-15) Zoubir, ZAHZOUH; Khochmane, LakhdarLa propagation de la pollution harmonique sur un réseau électrique de distribution comme les creux, les fluctuations de tension, les harmoniques, la puissance réactive et les déséquilibres de courant et de tension, émanant des charges non-linéaires, conduisent à un défaut sérieux qui dégrade la qualité de l’énergie électrique et qui ont des conséquences catastrophiques sur les performances de tous les récepteurs connectés aux réseaux électriques. Il est donc nécessaire de chercher une solution bien adéquate permettant d'éliminer cette pollution harmonique ou du moins les atténuées au plus bas niveau. Alors il a fallu installer un système de filtrage connecté le plus près possible de la source perturbatrice pour rendre le courant et la tension sous forme purement sinusoïdale et en phase. Dans cette thèse, nous avons élaboré différentes structures de filtres actifs à cinq niveaux parallèles (classiques et de phases autonomes), séries et mixtes pour compenser tous les types de perturbations et pollutions harmoniques susceptibles d’apparaître dans le réseau électrique de distribution. Dans ce cadre, nous avons été amenés à développer et à appliquer les techniques intelligentes des méthodes d’asservissement avancées telque le réseau de neurone et la logique floue, en les remettants conformes leurs contraintes normatives, afin d’améliorer tous les paramètres de la qualité de l’énergie électrique. Finalement, l’opportunité de notre approche de conception dans l’élaboration du filtre actif mixte (parallèle et série) montre de bons résultats de simulation sous matlab/simulink, qui ont confirmé l’application de ce type de filtrage, à travers une bonne compensation simultanée des perturbations en courant et en tension d’où nous confirmons l’intérêt de cette nouvelle topologie dans la réduction du dimensionnement des éléments de stockage d’énergie. Les formes d’ondes du courant et de la tension sont de forme sinusoïdale avec un déphasage insignifiant, caractérisant un facteur de puissance proche de l'unitéItem Analyse dynamique de l'interaction sol-structure : cas d'un sol à comportement non-linéaire(université 20aout skikda, 2023) Hamoudi, Belkhir; Badreddine, SbartaLe problème de l’interaction sol-structure est très important dans la conception des structures dans le domaine de l’ingénierie de génie civil. Dans la mesure où cette interaction est façonnée par plusieurs paramètres, surtout le comportement du sol parce que tous les ouvrages sont supposés être encastrés dans le sol. Partant de cette complexité, nous étudions, dans cette thèse, l’influence du comportement non linéaire du sol sur la réponse d’une fondation rigide superficielle sollicitée par des ondes sismiques harmoniques (onde : P, S et Rayleigh). L’objectif principal de ce travail est d’implémenter une loi de comportement non linéaire du sol dans le code de calcul numérique tridimensionnel Fonvibwave. Le développement de ce code permet de modéliser le comportement non linéaire du système solfondation par la méthode de sous-structure en se basant sur le couplage de la méthode des éléments de frontière et la méthode des couches minces (BEM-TLM) dans le domaine fréquentiel. Les grandes amplitudes de tremblement de terre rendent le comportement du sol non linéaire, qui se traduit par la variation des propriétés dynamiques du sol en fonction du niveau de déformation du sol, c’est-à-dire les courbes de dégradation du module cisaillement normalisé (G/Gmax) et l’augmentation du pourcentage d’amortissement critique normalisé (ξ/ξmax). Le comportement non linéaire du sol est obtenu dans cette étude par la méthode linéaire équivalente implantée dans le code de calcul Caldynasoil. Cette méthode est une procédure itérative, où l’on évalue, à chaque itération pour chaque couche, les variations des propriétés dynamiques du sol pour différents niveaux d’excitation sismique. Une simulation unidimensionnelle (1D) par le code de calcul Caldynasoil basé sur la méthode linéaire équivalente avec le modèle hyperbolique de Masing (1926) a été utilisée pour analyser le comportement non linéaire du sol pour différents niveaux de déformations (faible, moyen et grand). Le nouveau code de calcul Fonvibwave-équivalent a été développé pour trouver les déplacements du système sol-fondation dans le cas non linéaire. Les résultats obtenus représentent une comparaison entre les réponses linéaire et non linéaire du système solfondation en fonction des différents types et angles d’incidence des ondes (P, SV, SH et R), la fréquence d’excitation adimensionnelle et les évolutions des propriétés dynamiques du sol. En dernier, nos résultats ont montré que la présence des fortes excitations sismiques peut modifier ou influencer le comportement du sol, d’un comportement linéaire à un RÉSUME comportement non linéaire ; ce qui entraîne une modification des propriétés dynamiques du sol causant une augmentation des déplacements de la fondation.Item Analyse et diagnostic robuste d'un système Mécatronique par l'approche Bond Graph(Université 20 Aout 1955 Skikda, 2018-06-24) Ramdane AdleneDurant ces dernières années, le diagnostic des défauts affectant les systèmes éoliens a été largement étudié. Un grand nombre des méthodes est disponible visant à améliorer la conception du système, à augmenter la qualité et la production d’énergie électrique et d’en diminuer les coûts. Malgré les résultats de la recherche, ces systèmes multi-complexes restent encore les sièges de réflexions de plusieurs laboratoires tant qu’industriels qu’académiques. L’objectif du travail est de montrer comment la méthodologie bond graph peut contribuer efficacement à la modélisation, l’analyse et le diagnostic des systèmes de production d’énergie électrique. Ce mémoire regroupe des modèles bond graphs des principaux composants de système éolien, L’intérêt de l’utilisation de la méthodologie bond graph pour résoudre ces problèmes réside essentiellement d’une part dans l’approche énergétique unifiée de tous les domaines de la physique et dans la mise en évidence graphique de la causalité. Ce rapport de thèse présente une nouvelle méthodologie de diagnostic de défauts au niveau d’engrenage utilisant la méthodologie Bond Graph. L’objectif est de générer des données en fonctionnement sain et en fonctionnement défaillant de ses variables. Les deux méthodes sont implémentées sous 20-sim et Matlab/ Simulink. Les données de système acquises sont traitées et analysées par la méthode FDI. La détection et la localisation de défauts de la machine sont obtenues par l’analyse des résidus. Les résidus sont des indicateurs de défaillance ou non du système étudié. L’analyse et la classification des résidus de modèle étudiée dans ce rapport de thèse par l’analyse spectrale de plusieurs résultats de simulation montrent l’efficacité de la méthode Choisi pour l’analyse et le diagnostic des défauts.Item Analyse et diagnostic robuste d’un système Mécatronique Par l’approche Bond Graph(Université 20 aout 1955 skikda, 2018-06-24) RAMDANE ,ADLENE; LACHOURI, ABDERRAZAKDurant ces dernières années, le diagnostic des défauts affectant les systèmes éoliens a été largement étudié. Un grand nombre des méthodes est disponible visant à améliorer la conception du système, à augmenter la qualité et la production d’énergie électrique et d’en diminuer les coûts. Malgré les résultats de la recherche, ces systèmes multi-complexes restent encore les sièges de réflexions de plusieurs laboratoires tant qu’industriels qu’académiques. L’objectif du travail est de montrer comment la méthodologie bond graph peut contribuer efficacement à la modélisation, l’analyse et le diagnostic des systèmes de production d’énergie électrique. Ce mémoire regroupe des modèles bond graphs des principaux composants de système éolien, L’intérêt de l’utilisation de la méthodologie bond graph pour résoudre ces problèmes réside essentiellement d’une part dans l’approche énergétique unifiée de tous les domaines de la physique et dans la mise en évidence graphique de la causalité. Ce rapport de thèse présente une nouvelle méthodologie de diagnostic de défauts au niveau d’engrenage utilisant la méthodologie Bond Graph. L’objectif est de générer des données en fonctionnement sain et en fonctionnement défaillant de ses variables. Les deux méthodes sont implémentées sous 20-sim et Matlab/ Simulink. Les données de système acquises sont traitées et analysées par la méthode FDI. La détection et la localisation de défauts de la machine sont obtenues par l’analyse des résidus. Les résidus sont des indicateurs de défaillance ou non du système étudié. L’analyse et la classification des résidus de modèle étudiée dans ce rapport de thèse par l’analyse spectrale de plusieurs résultats de simulation montrent l’efficacité de la méthode Choisi pour l’analyse et le diagnostic des défautsItem Analyse et prévention des risques Incendie/Explosion dans les sites industriels. Cas du complexe pétrochimique de SKIKDA(Université 20 Août 1955 - Skikda, 2020) BEKHOUCHE, Saloua; ZIGHED, LiliaLes risques d’incendie et d’explosion sont omniprésents dans tout site industriel et peuvent impliquer des accidents majeurs. C’est notamment le cas dans les complexes de traitement des produits pétroliers. Les accidents résultant des incendies ou des explosions peuvent en effet engendrer des conséquences graves non seulement pour l’homme mais également pour l’environnement et pour les installations du site lui-même. Les exemples d’accidents majeurs induits par ces phénomènes dangereux sont là pour illustrer les degrés de leur gravité mais aussi l’importance que revêt la bonne prise en charge des risques qui peuvent les initier. Et avec les systèmes industriels de plus en plus complexes le besoin devient encore plus pressant de développer des nouvelles approches d’analyse et de préventions des risques d’incendie et d’explosion. Ces approches doivent prendre en compte tous les aspects matériels et humains impliquant les risques et permettre également des exploitations de systèmes industriels plus sûres et plus économiques. L’objectif de cette thèse s’inscrit dans le cadre défini ci-dessus et vise la mise en place d’une stratégie globale visant l’analyse et la prévention des risques incendie et explosion dans les sites industriels. Cette analyse est appliquée aux complexes pétrochimiques GL1K et RTE situés au niveau de la zone pétrochimique de Skikda. Notre travail sera basé sur la combinaison de plusieurs outils (méthodes et logiciels) pour la mise en place d’une approche globale et complète d’analyse et d’évaluation des risques d’incendie et d’explosion en prenant pour sites cibles les deux complexes cités précédemment. Nous commencerons par l’exploitation de la méthode HAZID pour identifier les sources, les causes et les conséquences des dangers dans les différents composants des unités étudiées. Par la suite, l’exploitation de l’indice DOW F&EI permettra la prédiction, l’estimation et la quantification des dommages des accidents considérés. Pour illustrer la sévérité des risques d’incendie et d’explosion dans les complexes pétrochimiques GL1K et RTE, le logiciel PHAST nous permettra de modéliser et simuler les scénarios des accidents d’incendie et d’explosion au niveau des complexes considérés, ce qui donnera une indication sur la gravité des dangers et ainsi l’optimisation de l’évaluation et la prévention des risques considérés. Notre travail est complété par l’intégration d’une analyse des résultats de l’estimation et de la classification des risques Incendie/Explosion par la logique floue outil avancé qui permettra l’élimination de l’imprécision et de l’incertitude lors de l’estimation et la classification des risques considérés.Item Applications des nanomatériaux,cas du graphène(Université 20 aout 1955-skikda, 2019-02-05) Boulahneche, samia; Medjram,mohamed salahL'objectif de la thèse est,d'une part la mise en place d'une nouvelle méthode électrochimique,à base de nanoparticules de graphène,pour une détection précoce et plus efficace des agrégations de protéines, et d'autre part, l'intégration de ces memes nanoparticules dans les thérapies biomédicales afin de remplacer les méthodes classiques à risque.Item Applications of the fixed point technique to problems generated by nonlinear functional differential equations(university of Skikda 20 August 1955, 2023) Chouaf, Safa; Guesmia, AmarIterative functional di¤erential equations have a long history-more than a century, during which numerous instances have demonstrated the promising applications of these equations in multiple …elds such as medicine, biology, epidemiology, and classical electrodynamics, etc. The main aim of this dissertation is to contribute to the emerging literature of this type of equations via the study of three classes of second order iterative functional di¤erential equations in Banach spaces. We establish some existence and uniqueness results and the continuous dependence on parameters of the unique solution by virtue of a powerful technique that combines the …xed point theory and the Green’s function method. More precisely, it is based on the transformation of the considered problem into a …xed point problem by converting it into an equivalent integral equation whose kernel is a Green’s function before applying the Banach and Schauder …xed point theoremsItem Apport de la texture à la caractérisation d'images(Université 20 Août 1955 -Skikda, 2017-05-18) Salah ,Bougueroua; Bachir, BOUCHEHAMDans ce travail, nous nous intéressons à la recherche d’images par le contenu. Cette intéressante approche, plus connue par son acronyme anglais CBIR (Content Based Image Retrieval), a vu le jour afin de remédier aux problèmes engendrés par son prédécesseur, basé sur le texte (TBIR : Text based image retrieval). Principalement, le TBIR souffre de deux inconvénients. Le premier consiste dans la difficulté de la tâche d’attribution des mots clés aux images, due à son aspect manuel. En outre, le deuxième inconvénient réside dans la subjectivité de la tâche. Afin de parer à ces inconvénients, l’approche alternative CBIR utilise les caractéristiques visuelles de l’image, telles que la couleur, la texture, la forme… etc. Cependant, le fait de se baser sur de telles caractéristiques de bas niveau pour représenter et exprimer le contenu d’une image, généralement très complexe, engendre un écart significativement important avec les sémantiques et les significations de celle-ci. Cet écart est communément connu par le fossé sémantique. Particulièrement, l’attribut texture est très répandu et très utilisé, vu que les êtres humains sont capables de distinguer entre différentes manifestations de cet attribut. Néanmoins, sur le plan computationnel, la texture demeure un attribut difficile à caractériser. Dans le présent travail, la texture représente le point de focalisation. Par conséquent, un ensemble de méthodes basées textures seront abordées ainsi que la proposition de plusieurs contributions. Principalement, notre première contribution est une amélioration de la célèbre méthode LBP (Local Binary Pattern, motif binaire local), où nous proposons d’intégrer graduellement l’information locale véhiculée par les motifs binaires locaux. Ceci est obtenu à travers un nouveau schéma de délimitation des régions, qui diffère de celui basé sur les blocs (régions rectangulaires classiques). Par conséquent, notre méthode est baptisée GLIBP (Gradual Locality Integration of binary patterns). Le succès de cette instance du Framework proposé GLI (Gradual Locality Integration) nous a poussés à investiguer la faisabilité de l’approche pour l’extraction des caractéristiques de la couleur. Dans ce contexte, la méthode GLI-Color a été proposée ainsi que deux de ses variantes. La première opère sur l’espace de couleur HSV, d’où son nom : GLI-Color(HSV). Quant à la deuxième variante, elle utilise les moments d’où son nom M-GLI-Color. Dans la seconde contribution, nous nous intéressons aux ondelettes dans le contexte de la caractérisation du contenu textural de l’image. Dans cette optique, la littérature existante montre que des auteurs affirment que la moyenne des sous-bandes d’ondelettes est égale à (ou proche de) zéro. Cette affirmation nous a paru digne d’intérêt, vu que les mesures calculées des différentes sous-bandes sont généralement les moments statistiques ; or la moyenne est utilisée lors du calcul de ces derniers. Donc, comme première étape, nous avons vérifié expérimentalement la différence entre la distribution des moyennes des sous-bandes d’ondelettes et celle des énergies des sous-bandes. Les résultats obtenus montrent une différence intéressante entre les deux distributions. Effectivement, par opposition aux valeurs des moyennes qui se concentrent autour de l’axe de zéro, celles des énergies sont plusdispersées. En se basant sur ces résultats, le calcul des moments statistiques autour de l'énergie au lieu de la moyenne, semble une modification efficace afin d'améliorer les capacités discriminatives de ces mesures. Cette hypothèse a fait l'objet de la deuxième étape où nous avons montré l’apport de la considération de l’énergie dans les formules des moments statistiques sur la performance. Notre troisième contribution principale agit quant à elle au niveau de l’étape de comparaison des systèmes CBIR. Elle repose sur une stratégie gloutonne basée sur une mesure d’homogénéité importée du domaine du biclustering des Expressions de Gènes, appelée Mean Squared Residue (MSR). Notre méthode est distinguée par le fait qu’elle profite de toutes les images déjà jugées pertinentes par le système CBIR, pour la sélection de l’image suivante. Ceci est complètement différent de l’approche classique des systèmes CBIR, où seulement la requête est utilisée lors de la recherche des images, puisque le résultat de la requête est alors traité comme un cluster homogène dont la croissance est réalisée de façon incrémentale. L’ensemble des résultats obtenus par les différents algorithmes et techniques proposés ont montré des performances intéressantes, voire supérieures, par rapport à plusieurs travaux publiés. En particulier, la méthode GLIBP a montré des performances supérieures à celles des méthodes : LBP de Ojala et al. (1996), DLEP de Murala et al. (2012a), ‘Block-based LBP’ de Takala et al. (2005), entre autres. D’un autre côté, les résultats obtenus nous encouragent à continuer sur cet axe de recherche et aussi nous inspirent des perspectives à explorer dans le futur, particulièrement, l’exploitation d’autres techniques de biclustering des expressions génétiques dans le domaine de la recherche d’images par le contenuItem Approche individu-centrée basée Multi-Agents pour la modélisation de la dynamique des populations(université 20 aout skikda, 2020-06-15) LAROUM, TOUFIK; Tighiouart, BorniaL’objectif de ce travail de thèse est de proposer un système Multi-Agent pour modéliser la dynamique de populations. Le système biologique que nous avons étudié est l’infection par le virus de l’immunodéficience humaine VIH. La dynamique des populations est la science qui étudie l’évolutions dans le temps des individus d’une population donnée (particulièrement en biologie et écologie) pour des raisons descriptives et prédictives. Depuis la découverte du premier cas du SIDA et l’isolation de VIH comme cause de cette maladie en 1984, plusieurs études et modèles, généralement populationscentrés basés sur l’approche mathématique, ont été mis en œuvre pour comprendre la dynamique de ce phénomène. Cependant, la complexité de ce phénomène biologique et la diversité des cellules et acteurs qui affecte sa dynamique requièrent l’utilisation des approches individu-centrées comme l’approche Multi-Agent. Cette approche consiste à modéliser le comportement de chaque individu de la population (et les interactions entre les individus) au lieu de considérer la population comme une seule entité, et ce afin de produire le comportement global du système étudié. Les résultats obtenus sont encourageants et sont conformes et en cohérence avec les constats biologiques.Item Approches collectives basées datamining et machine-learning pour l’interprétation d’images et reconnaissance d’objets(Université 20Aout 1955-Skikda, 2023) Nadjet, BOUCHAOUR; Smaine, MAZOUZIEn imagerie médicale, comme pour la quasi-totalité de domaines traitant de l’image numérique, la segmentation occupe une place critique, et dont dépend fortement la qualité des résultats d’interprétation. Cependant, la segmentation d’image a été et demeure encore un problème mal-posé, du fait de l’incertitude et de l’imprécision des données lors de l’acquisition des images, mais aussi de la difficulté de modéliser ses données afin que les traitements puissent produire les résultats escomptés par les utilisateurs. Les images à résonance magnétique, (IRM) et en plus du lot de problèmes communs en traitement d’images tels que le bruit et les déformations, elles sont entachées d’artéfacts spécifiques qui compliquent leur segmentation, il s’agit du problème de la non uniformité des intensités (INU : Intensity Non Uniformity) et le problème de l’effet du volume partiel. Afin de contribuer à la résolution du problème de segmentation d’IRM, structurelles et pathologique, nous nous sommes penchés le long de cette thèse à proposer des modèles de données et des modèles de classification, permettant de bien étiqueter les voxels d’une IRM en fonction des tissus auxquels ils appartiennent. Pour ce faire, nous avons démarré d’une hypothèse, postulant que des patterns qui peuvent exister au sein des données IRM permettent de bien classifier ces dernières. Aussi, des attributs qui représentent à la fois les intensités des voxels, mais aussi les interactions qui existent entre eux, devraient renforcer le pourvoir discriminatoire des classifieurs utilisés. Et enfin, et à cause des tailles importantes des volumes IRM, nous avons supposé que les méta-classifieurs ensemblistes tels que l’Adaboost sont bien appropriés aux données traitées. Ces hypothèse et ces réflexions nous ont conduit à mener deux travaux dans le cadre de cette thèse. Le premier travail consiste à concevoir un modèle de représentation des données IRM, basé sur la notion d’entropie spatiale au sein des voxels dans un voisinage local. Les attributs basés entropie obtenus, et l’intensité du voxel lui même sont utilisé en entrée de l’algorithme Adaboost, en testant deux classifieurs faibles, à savoir le Naif bayesien, et le vSVM. Au second travail, et en utilisant l’Adaboost avec un classifieur CNN léger, nous avons considéré un ensemble d’attributs pour classifier un voxel donné. Cet ensemble consiste en une sous image 2D de coupe IRM autour du voxel à étiqueter. Pour les deux modèles, des expérimentations ont été menées et les résultats obtenus ont été comparés avec ceux de travaux récents de la littérature. Les résultats expérimentaux obtenus ont montré le fort potentiel des modèles proposées, soit de représentation, soit de classification pour une segmentation efficace des IRM, et ce dans les deux cas : IRM structurelle et IRM tumorale. Ces résultats nous ont conféré de confirmer notre hypothèse, à savoir que l’utilisation d’attributs représentant des patterns, tels que l’entropie spatiale ou les sous-images, ainsi que le recours à des méta-classifieurs d’ensemble, tel que Adaboost pourra être considéré comme un Framework général pour une segmentation efficace d’IRM.Item Approches Collectives et Coopératives en Sécurité des Systèmes Informatiq(Université 20 Août 1955- Skikda, 2016) Belaoued, Mohamed; Mazouzi, SmaineLes malwares (logiciels malveillants) représentent une réelle menace pour la sécurité de nos systèmes informatiques, et avec la constante prolifération et l'évolution des techniques d’anti-détection de ces derniers, il est devenu primordial d’avoir une protection efficace contre ce genre de menaces. Malheureusement, les antivirus commerciaux sont incapables de fournir le degré requis de protection. Ceci est d^u principalement au fait que ces derniers utilisent des méthodes de détection basées sur les signatures. Ces techniques sont connues pour leurs limites dans la détection des malwares inconnus, ainsi que les variantes de malwares existants. Durant ces vingt dernières années, les chercheurs en sécurité informatique ont propos´e une multitude d’approches afin de remédier aux faiblesses des systèmes `a base de signatures. Cependant, la majorité de ces approches focalisent sur l’amélioration du degré de précision et ignorent un facteur primordial qui est le temps de détection. En effet, être en mesure de détecter et de neutraliser une menace dans un temps court peut s'avérer vital pour la sécurité du système informatique. En plus, connaitre la nature de la menace (dans notre cas le type de malware) est également un facteur important qui va conditionner le choix des mesures `a prendre. Par ailleurs, nous pensons que quelque soit son degré de précision, un outil détection local agissant d’une manière isolée sera rapidement submergé, et cela `a cause du nombre colossal de malwares circulant sur le reséau internet. Dans cette thèse, nous proposons en premier lieu un système temps réel pour la détection des malwares PE (Portable Excuse -table), en cherchant un bon compromis entre précision de détection et temps de traitement. Deuxièmement, nous proposons une nouvelle approche basée sur la méthode d’analyse des correspondances multiples (ACM) qui permet d’extraire les associations d’ APIs (Application Programming Interface) utilisées par les différents types de malwares. Ces associations seront d’une grande importance pour l’identification des différents types de malwares. Enfin, nous proposons une nouvelle approche pour la détection collaborative des malwares, en utilisant les systèmes multi-agents (SMA). Notre approche offre un mécanisme de distribution et de collaboration `a l’aide d’agents autonomes, permettant de faire collaborer différents outils de détection de nature hétérogènes et ayant des performances variables. Il sera également question d’envisager une méthode d’identification universelle de fichiers exécutables en utilisant une signature `a base de code-opérations (Opcodes). Ainsi, la décision collective qui en résulte permet d’améliorer significativement la précision de détection.Item Approches collectives et distribuées pour l’interprétation d’images et la reconnaissance des formes(université 20 Aout 1955 skikda, 2022) Azzouz, Daouia; Smaine, MazouziDepuis l’avènement de la radiologie, l’imagerie médicale n’a cessé de gagner du terrain comme premier moyen pour l’établissement de diagnostics médicaux. Cependant, le volume de données enregistrées dans une image médicale, ainsi que les différents artéfacts auxquels elle est sujette rendent son traitement manuel, par des praticiens de santé, problématique et consomme énormément de temps et d’effort, avec la possibilité accru de commettre des erreurs d’interprétation, conduisant à de faux diagnostics. Dans ce travail de thèse, nous nous sommes penchés sur deux problématiques co-récurrentes dans la littérature du traitement d’images médicales. D’une part, la segmentation d’images à grands volumes en adoptant des approches ne nécessitant pas de données d’apprentissage massives, et produisant des résultats satisfaisants en un temps raisonnable pour les utilisateurs. D’autre part, le traitement de certains artéfacts spécifiques aux images médicales, tels que la non uniformité d’intensité (INU : Intensity Non Uniformity), notamment dans les images à résonance magnétique (IRM). Pour la première problématique, nous avons proposé une nouvelle méthode de segmentation d’IRM, consistant en un nouveau schéma de combinaison de deux méthodes de base, une par clustering et l’autre par accroissement de région. Les deux méthodes sont intrinsèquement faibles en computation mais aussi et en performance de classification. Par contre, le schéma de combinaison proposé, qui se base sur des volumes de probabilités selon différentes distributions statistiques des données IRM nous a permis d’améliorer considérablement la performance de la segmentation. Pour la seconde problématique, nous avons proposé une nouvelle méthode de modélisation et de correction du champ de biais, responsable de la non uniformité des intensités (INU) dans les IRM. Tout d’abord le volume global de l’IRM est subdivisé aléatoirement en sousvolumes de faibles tailles qui se chevauchent, et dont chacun est affecté à un agent pour le segmenter en ses trois tissus qui composent la matière cérébrale. Dans de tels sous volumes, l’effet du champ de biais est pratiquement négligeable, et la non uniformité d’intensité résiduelle ne fausse pas l’étiquetage des voxels. Ainsi, la première segmentation qui en résulte est utilisée pour estimer le champ de biais global dans l’IRM en l’approximant par une hypersurface de variation d’intensité, ajusté par interpolation Lagrangienne et en utilisant les voxels fiablement étiquetés. Au reste de l’IRM, le champ de biais est estimé par interpolation en utilisant l’hyper surface obtenu. Les résultats expérimentaux obtenus pour les deux méthodes, de segmentation par combinaison probabiliste et de correction de l’INU par interpolation Lagrangienne, ont montré l’intérêt des deux méthodes et leur potentiel pour une correction de l’INU et une segmentation fiable et rapide des IRMs. Selon les deux contributions réalisées, nous avons pu confirmer que la combinaison de méthodes de base de segmentation, de complexité computationnelle faible et de performances intrinsèques moyennes, permet de mettre en œuvre des méthodes avec des performances boostées, mais de complexité de calcul raisonnable, compatible avec l’utilisation de telles méthodes sur un terrain réel d’exploitation.Item Approches Formelles et Opérationnelles pour la Modélisation des Echanges et de la Coopération dans les Systèmes Distribués(Université20Aout 1955- Skikda, 2018-12-19) SLIMANI, Amira; Redjimi, MohammedAu cours de ces dernières décennies, les développements spectaculaires dans le domaine de l’informatique, de la micro-électronique et des média de communication ont permis des évolutions considérables dans les systèmes répartis. Ces systèmes distribués ont reçu une attention considérable de la part des universitaires et de l'industrie et sont devenus un domaine de recherche très important. La motivation principale des systèmes distribués est le partage des ressources et l'accès distant aux informations et aux services indépendamment de leurs localisations. Plusieurs architecture des systèmes distribués se sont développées afin d'améliorer leurs performances et de répondre aux besoins des utilisateurs. Les réseaux sans fil sans ont vu naître, au cours de leur évolution, diverses architectures dérivées, telles que les réseaux cellulaires, les réseaux locaux sans fil, les réseaux WiMax, etc. Durant la dernière décennie, de nouveaux types de réseaux sans fil ont suscité un grand intérêt auprès de la communauté scientifique et des industriels, il s'agit des réseaux ad hoc et des réseaux de capteurs sans fil (WSN). Ces dernières années, les réseaux de capteurs sans fil se sont introduits à tous les niveaux de la société : les entreprises, les gares, les hôpitaux, les usines, les domiciles, les téléphones et autres équipements domestiques, militaire, de santé, environnement. Dans cette thèse, nous nous sommes intéressés au problème de l'énergie dans les réseaux de capteurs sans fil. Nous avons abordé cette problématique en investiguant deux axes de recherche, à savoir les protocoles de routage hiérarchique et les stratégies de gestion de l'énergie. Notre première contribution consiste à proposer un protocole de clustering nommé WDC-LEACH-C pour établir une architecture hiérarchique clustérisée avec une meilleure sélection des clusters heads (CHs) afin de minimiser la consommation d'énergie dans les clusters. La seconde contribution consiste dans la proposition d’un autre protocole de routage nommé Improved-ACORP qui intègre une stratégie de gestion d'énergie des CHs nommée CHMS afin de conserver le maximum l'énergie aux CHs et prolonger, ainsi, la durée de vie du réseau. Plusieurs simulations ont été effectuées pour démontrer la faisabilité et l’efficacité de ces solutionsItem Approches Numériques par des Volumes Finis de l’équation de Bürgers Stochastique.(université 20aout55-skikda, 2020) DIB ,Nidal; GUESMIA, AmarOn s’ intéress à l’équation aux dérivées p artiell es sto chastiques non linéaires unidimensionnelles: l’équation de Burgers généralisée avec des conditions aux limites de Dirichlet homogènes, p erturb ées p ar un bruit blanc additif du typ e espace-temp s. On présente un résultat d’existence et d ’unicité d’une solution à l’ équation avec viscosité en utilisant l’argument du p oint fixe. On donne auss i un résultat d’existence et d’unicité de la s olu tion entropi qu e à l’équation non visqueuse en utilisant le concept de la solutions à valeurs mesures et la formulation d’entropie de Kruzhkov. Ensuite, nous étudions la métho de de volumes finis p our la di scréti sati on de l’équation de Burgers sto chastique généralisée non visqueuse définie sur un domaine b orné D de R avec des conditions aux limites de Dirichlet et une donnée initiale dans L∞ (D). On montre que la solution numérique converge vers la solution entropique stochastique unique du problème continu sous une condition de stabilitée. Ceci donne une nouvelle preuve d’existence d’une solution faible entropique. Finallement, on termine par quelques simulations numériques de la solution approchée stochastique et deterministe, pour une conditions initiales particulièreréalisées sous le logiciel MatlabItem ATTENUATION DE L’EFFET GEOTECHNIQUE (GONFLEMENT) POUR UNE DURABILITE DES OUVRAGES(Université 20Aout 1955-Skikda, 2019-04-22) DJOUIMAA, Sarah; Mr SID, Madanigonflement et aux sols craintifs ont commencé à susciter plus d’attention, une qualité significative de recherche a commencé à se concentrer sur les sols expansifs). L’Algérie est pleinement concernée par le problème des argiles gonflantes qui sont présentes dans les différentes régions du pays. Le phénomène de gonflement affecte chaque année divers types de structures (Bâtiments légers, chaussées, etc.…) causant des désordres considérables qui imposent des réparations très coûteuses et dont la réalisation n’est souvent pas maîtrisée. L’intérêt de notre contribution réside dans la valorisation des matériaux locaux, par une approche expérimentale de stabilisation vis à vis de gonflement. Il s’agit de mettre en évidence l’apport du ciment et de la chaux dans le domaine Les résultats obtenus sur les échantillons provenant de M’daourouch ont permis de constater que la stabilisation par l’ajout de ciment et de chaux modifie les caractéristiques physiques du sol et la résistance à la compression, aussi au cisaillement et donne des résultats tout à fait satisfaisants en réduisant considérablement le phénomène de gonflementItem Caractérisation de couches minces de ZnO élaborées par évaporation thermique pour des applications photovoltaïques(Université 20 août 1955 - SKIKDA, 2017) Abdelhakim, ZAIER; A., MEFTAHDans ce travail, nous avons élaboré des couches minces d’oxyde de Zinc (ZnO) pur, dopé en aluminium ou en cuivre sur des substrats en verre par évaporation thermique à partir d’une poudre d’oxyde de zinc (ZnO) dans le but d’améliorer les propriétés physiques des couches pour des applications photovoltaïques. Les couches déposées ont été analysées par la Diffraction des Rayons X (DRX), le profilomètre de surface, la spectrométrie UV-Visible et le dispositif des quatre pointes. La DRX confirme que les couches minces se cristallisent dans la structure hexagonale de type wurtzite. La caractérisation optique sur une gamme de 200 à 900 nm montre que les films sont transparents à 90 % dans la région visible. La valeur minimale de la résistivité électrique dans les couches minces de ZnO dopé en aluminium est de 0.043 Ω.cm.Item Caractérisation des séries temporelles pour la recherche et la classification(Université 20 Août 1955-Skikda, 2021-02-14) Imen, Boulnemour; Redjimi, MohamedL’objet de cette thèse concerne principalement : (a) La problématique de caractérisation des séries temporelles (ST) et (b) L’investigation du domaine obligatoirement lié à cette problématique : Les mesures de distances et les mesures de similarité entre ST, ainsi que les techniques d’appariement (ou alignement) des ST. Ces dernières techniques sont beaucoup plus robustes que les mesures de distance/similarité, mais, elles sont peu nombreuses et difficiles à inventer. La caractérisation des ST a pour but de décrire de façon compacte, mais pertinentes ce type de données (les ST). Compacte au sens de la réduction autant que possible de la redondance des données dans les ST, en n’extrayant que les caractéristiques effectivement discriminantes. Cela nécessite le plus souvent de faire muter les ST du domaine temporel à un domaine beaucoup plus expressif en termes de pouvoir de discrimination. Dans ce contexte, nous allons établir un état de l’art et une catégorisation des techniques de caractérisation des ST. Grossièrement parlant, nous pouvons déjà avancer que ces techniques peuvent être classées en quatre domaines: (1) Le domaine temporel tels que les histogrammes, les motifs et l’approche PLA (Piecewise Linear Approximation), (2) Le domaine fréquentiel, tel que la Transformée de Fourier Discrète (DFT), (3) Le domaine temps-fréquences, tel que la Transformée des Ondelettes Discrètes (DWT : Discrete Wavelet Transform) et (4) La transformée par décomposition en valeurs singulières (SVD : Singular Value Decomposition), qui relève du domaine de l’algèbre linéaire. Pour le point d’intérêt (b), notre étude montre l’existence de quatre familles de techniques de comparaison des ST. Il y a d’abord (1) Les techniques de comparaison utilisant les données directes des ST combinées à des mesures de distance/similarité, telle que la distance Euclidienne, (2) Les techniques de comparaison basées caractéristiques combinées aussi à une mesure de distance / similarité, telle que la DFT et (3) Les technique d’alignement, telle que la célèbre et très pertinente méthode : DTW (Dynamic Time Warping). Enfin, (4) une autre classe de techniques d’alignement des ST basées signatures (caractéristiques globales) a été récemment proposée par Boucheham: la méthode SEA (Shape Exchange Algorithm). Son auteur la présente comme la rivale de la DTW ; mais, plus précise et plus pertinente. Comme contributions personnelles dans le cadre de cette thèse, nous avons proposé quatre travaux dont deux ont été publiés au niveau international : (1) L’élaboration d’une technique d’alignement pour l’alignement des ST quasi-périodiques (STQP), telles que les tracés ECG (Electrocardiogramme) et les ST du Capnogram (Qualité de la respiration). Notre méthode, intitulée QPDTW (Quasi-Periodic Dynamic Time Warping), est une fusion entre la méthode DTW et la méthode SEA. L’intérêt de ce travail est que, selon les travaux de Boucheham, l’alignement des STQP serait le cas le plus complexe à résoudre. Brièvement, notre méthode QPDTW permet d’aligner de manière effective les STQP même lorsqu'elles sont déphasées et bruitées de manières significatives. (2) Développement d'un classifieur binaire basé QPDTW pour la détection d'anomalies dans les tracés ECG. Ce travail en particulier a eu un écho remarquable sur Researchgate. (3) Développement d’une méthode accélérée à base de la transformation en ondelettes de Haar et de la méthode QP-DTW pour la recherche de similarité dans l’ECG. (4) Développement d’un classifieur de type KNN basé QPDTW pour la classification des ST générales. La base utilisée dans ce cas étant l'UCR (University of California at Riverside) utilisée mondialement comme benchmark pour évaluation des techniques de classification et de clustering des TS. Les résultats sont prometteurs, que se soit pour la détection d'anomalies, la recherche ou pour la classification des séries temporelles.