Thèses de doctorat
Permanent URI for this community
Browse
Browsing Thèses de doctorat by Title
Now showing 1 - 20 of 462
Results Per Page
Sort Options
Item 2تقييم الأداء المالي في شركات التأمين الجزائرية في ظل الملاءة(جامعة 20اوت 1955 سكيكدة, 2024) صيد ,مريم; زيرق, سوسنتهدف هذه الدراسة إلى تسليط الضوء على واقع تقييم الأداء المالي في شركات التأمين الجزائرية في ظل تطبيق متطلبات نظام الملاءة 2، من خلال إبراز مدى معرفة شركات التأمين العاملة بالجزائر بمتطلبات الملاءة 2، وتقييم مستوى مواكبتها واستجابتها لتطبيق متطلبات هذا النظام، باعتباره أهم مستجدات النظم والقواعد الاحترازية المعمول بها دوليا. ولتحقيق ذلك تم تصميم استبانة وجهت إلى كافة شركات التأمين العاملة بسوق التأمين الج ازئري والبالغ عددها 26 شركة، وتحليلها باستخدام برنامج الرزمة الإحصائية للعلوم .)SPSS. V26( ةيعامتجلا كذلك تم من خلال تقييم وقياس الأداء المالي في شركة أليانس للتأمينات ، خلال الفترة )2017- 2021( في ظل متطلبات الملاءة 2 لما له من أهمية كبيرة، خاصة في ظل إدراجها في بورصة الجزائر، وما له من أثر على الاستقرار المالي بشكل عام، وذلك بالاعتماد على مجموعة من المؤشرات الكمية للإنذار المبكر التي تتوافق وطبيعة قطاع التأمين الجزائر ي للوقوف على أداء الشركة خلال هذه الفترة، ومن ثم دراسة و تقييم ملاءتها المالية بعد تطبيقها للمؤشرات الاحترازية الرئيسية للملاءة 2 )SCR، MCR(. وقد خلصت الدراسة في الأخير إلى مجموعة من النتائج، أهمها أن إدراك شركات التأمين الجزائرية لمتطلبات تطبيق الملاءة 2 لا يرقى إلى المستوى المطلوب، مع وجود تفاوت في درجة استجابتها للملاءة 2 من حيث متطلباتها الثلاث ، حيث ينعدم تبنيها للمتطلبات الكمية، في حين يوجد تبني مقبول للبعض من المتطلبات النوعية واستجابة جيدة لمتطلبات الافصاح والشفافية، كما بينت النسب والمؤشرات المالية التي تم اعتمادها أن الأداء المالي لشركة أليانس للتأمينات يتسم بالاستقرار والثبات نسبيا، وذلك لامتلاكها السيولة الكافية للوفاء بالتزاماتها المالية وكفاءتها الكبيرة في استغلال أصولها والأموال المتوفرة لديها لتوليد الأرباح ، وأن الشركة استوفت كذلك الشروط المتعلقة بوضعية الملاءة المالية وفقا لمتطلبات الملاءة 2، حيث حققت نسب رأس مال الملاءة المطلوب ورأس مال الملاءة الأدنى أكثر من 100 ، خلال الفترة )2017- 2021(، وهو ما يعكس صحة وصلابة مركزها المالي وقدرتها على الوفاء بالتزاماتها تجاه المؤمن لهمItem Adaptive Techniques for Content Based Image Retrieval (CBIR): Study and Applications(University of Skikda - 20 Août 1955, 2021-04-04) Safa, Hamreras; Smaine ,MazouziThe significant growth of images repositories in terms of content and usage has increased the need of conceiving powerful image retrieval systems. In this regard, CBIR is the process of searching images given a query based on their visual aspects. One of the most serious challenges that is facing CBIR systems is “the semantic gap”. This gap occurs between images representation given by a CBIR system and the true semantics included within these images. The semantic gap should be bridged or at least reduced in order to bring closer the low level vision of the CBIR system and the high level vision of the Human Visual System (HVS). This could be achieved through designing CBIR systems that behave with respect to the human understanding of images. In this thesis, we address this challenge by shedding light on a paradigm that has already imposed itself in many fields, that is the adaptation paradigm. Indeed, there is a need to inject a flexibility in the designed CBIR systems, so that they behave depending on some criterion, mainly the input data. We particularly integrate the adaptation into images characterization phase so as to reduce the semantic gap. This adaptation is carried out by selecting the characterization algorithm or tuning its parameters in a training phase, in order to increase its performance with respect to the target task. First, we start with the selection paradigm, where we apply the algorithm selection based on RICE model to select the best performing CBIR-algorithm for each image. In this work, the CBIR-algorithm was decomposed to many variants, where the feature variant was selected based on the input image. In the second contribution, we propose to use a Convolutional Neural Network (CNN) in the feature extraction stage. This latter is first finetuned on the target images dataset in order to adapt its parameters. The resulting network is then used to extract the class probability vectors from input images to use them as representations. Last, our main contribution consists of using an ensemble of CNNs that collaborate to extract relevant features from images. Herein, the class probability vectors are extracted from images using each ensemble member. They are then combined to make a powerful image representation. Finally, it is noteworthy that all our contributions have led to a significant improvement in the performance of the developed CBIR systems. This latter is a relevant indicator of narrowing the semantic gap within these systems, which is the ultimate goal of this thesisItem Advanced Methods for Establishing Similarity between Time Series: Study and Applications(University of Skikda - 20 Août 1955, 2022) Lahrechen, Abdelmadjid; Mazouzi, SmaineLes séries temporelles (ST) sont des séquences de données à valeur réelle enregistrées régulièrement dans le temps. Elles peuvent être trouvées dans pratiquement toutes les applications du monde réel, telles que la médecine, la finance, l’économie, l’industrie et bien d’autres. Dans cette thèse, nous abordons la problématique de l’établissement de similarité entre séries temporelles. La mesure de similarité des séries temporelles est un élément clé de plusieurs tâches d’exploration/fouille de ces séries y compris, mais sans s’y limiter, la classification, la recherche par similarité, le clustering et la détection d’anomalies dans ce type de données. En raison de son importance considérable, la tâche de mesure de similarité des séries temporelles a reçu une attention grandissante et est devenue un domaine de recherche très actif dans la fouille de séries temporelles. D’une manière générale, la problématique d’établissement de similarité des séries temporelles consiste à définir une méthode permettant de comparer/aligner deux séries temporelles données, en déterminant le degré d’accord/discordance entre ces ST. Cependant, mesurer la similarité entre séries temporelles a toujours été une problématique difficile. La difficulté de cette problématique réside dans le fait que les séries temporelles sont intrinsèquement de grande dimension et portent de grandes quantités de données. De plus, diverses distorsions, souvent rencontrées dans les séries temporelles, compliquent davantage l’établissement de similarité (par exemple, le bruit, les valeurs aberrantes, le changement d’échelle du temps/amplitude et le décalage dans le temps/amplitude). Par conséquent, la mesure de similitude doit être soigneusement établie afin de saisir correctement la vraie similitude entre deux séries temporelles. D’autre part, la classification des séries temporelles (CST) est une tâche de plus en plus importante dans le cadre de la fouille de séries temporelles. La CST est, brièvement, la tâche dédiée à la prédiction de l’étiquette (classe) d’une série temporelle requête à partir d’un ensemble de données d’apprentissage étiqueté. Au cours des deux dernières décennies, il y a eu un intérêt croissant pour la CST et, par conséquent, de nombreuses approches ont été publiées dans la littérature. Étonnamment, des études approfondies, dans ce domaine de recherche, ont rapporté que l’approche basée sur distance où le classificateur 1-Nearest Neighbor (1-NN) combiné avec une mesure de distance/similarité appropriée est plus précise que la plupart des approches existantes. De toute évidence, dans ce contexte, la mesure de similarité est un ingrédient crucial et joue un rôle essentiel dans la précision du classificateur 1-NN. Par conséquent, la grande majorité de recherches dans le cadre de la CST s’est concentrée sur le développement de nouvelles mesures de distance/similarité. L’objectif principal de cette thèse concerne, alors, la problématique de mesure de similarité entre séries temporelles avec un focus particulier sur la classification comme domaine d’application très motivant. Nous visons donc à étudier et à développer des mesures de similarité dans le contexte de la CST qui soient compétitives (robustes, précises et efficaces) par rapport aux méthodes existantes dans la littérature. À cette fin, diverses contributions ont été proposées au cours de l’élaboration de ce travail de thèse. Dans la première contribution, nous avons effectué une large comparaison expérimentale entre la célèbre mesure de similarité des ST “Dynamic Time Warping” (DTW) et ses variantes les plus populaires dans le cadre de la CST. Dans cette étude, nous avons évalué empiriquement les méthodes en termes de précision de classification en utilisant 85 ensembles de données de l’archive publique des ST ’Université de Californie-Riverside’ (UCR). Les résultats expérimentaux montrent que pratiquement toutes les variantes sont statistiquement équivalentes. Dans la deuxième contribution, nous avons abordé le problème de la classification des longues séries temporelles en introduisant une nouvelle mesure de similarité appelée “Local Extrema Dynamic Time Warping” (LE-DTW). LE-DTW transforme d’abord les séries temporelles originelles en un espace de faible dimension en extrayant des caractéristiques locales extrêmes. Ensuite, elle compare les séries temporelles transformées ainsi obtenues en utilisant une version adaptée de DTW. Afin d’évaluer la performance de LE-DTW, nous avons effectué des expérimentations approfondies sur une grande variété d’ensembles de données provenant de l’archive UCR. Les résultats ont montré la précision et l’efficacité de notre nouvelle proposition LE-DTW par rapport à certaines méthodes de l’état de l’art, en particulier sur les longues séries temporelles. Dans la troisième contribution, une version accélérée de la méthode Shape Exchange Algorithm (Boucheham, 2008) est proposée pour l’alignement des Séries Temporelles Quasi-Périodiques (STQP). FastSEA est basé sur un algorithme de tri plus efficace mais simple qui est ‘Counting Sort Algorithm’. Le but de FastSEA est d’accélérer le processus d’alignement de la méthode SEA sans affecter sa qualité. La dernière contribution est consacrée à l’extension de la pertinence de la méthode SEA à la classification des séries temporelles générales. Dans ce contexte, nous avons proposé la mesure “Local Matching and Distance Selection SEA” (LMDS-SEA), qui est principalement basée sur un nouveau paradigme de sélection de distance proposé dans (Kotsifakos et al., 2016; Mori et al., 2016; Mosbah and Boucheham, 2017). Les résultats expérimentaux ont montré que la méthode LMDS-SEA proposée est plus performante que SEA. et rivalise avec DTW en termes de précision de classification.Item Amélioration de la Qualité de l’Energie dans les Réseaux Electriques par le Biais d’un Filtre Actif Mixte Permettant la Réduction des Harmoniques(Université 20 Août 1955-Skikda, 2015-06-15) Zoubir, ZAHZOUH; Khochmane, LakhdarLa propagation de la pollution harmonique sur un réseau électrique de distribution comme les creux, les fluctuations de tension, les harmoniques, la puissance réactive et les déséquilibres de courant et de tension, émanant des charges non-linéaires, conduisent à un défaut sérieux qui dégrade la qualité de l’énergie électrique et qui ont des conséquences catastrophiques sur les performances de tous les récepteurs connectés aux réseaux électriques. Il est donc nécessaire de chercher une solution bien adéquate permettant d'éliminer cette pollution harmonique ou du moins les atténuées au plus bas niveau. Alors il a fallu installer un système de filtrage connecté le plus près possible de la source perturbatrice pour rendre le courant et la tension sous forme purement sinusoïdale et en phase. Dans cette thèse, nous avons élaboré différentes structures de filtres actifs à cinq niveaux parallèles (classiques et de phases autonomes), séries et mixtes pour compenser tous les types de perturbations et pollutions harmoniques susceptibles d’apparaître dans le réseau électrique de distribution. Dans ce cadre, nous avons été amenés à développer et à appliquer les techniques intelligentes des méthodes d’asservissement avancées telque le réseau de neurone et la logique floue, en les remettants conformes leurs contraintes normatives, afin d’améliorer tous les paramètres de la qualité de l’énergie électrique. Finalement, l’opportunité de notre approche de conception dans l’élaboration du filtre actif mixte (parallèle et série) montre de bons résultats de simulation sous matlab/simulink, qui ont confirmé l’application de ce type de filtrage, à travers une bonne compensation simultanée des perturbations en courant et en tension d’où nous confirmons l’intérêt de cette nouvelle topologie dans la réduction du dimensionnement des éléments de stockage d’énergie. Les formes d’ondes du courant et de la tension sont de forme sinusoïdale avec un déphasage insignifiant, caractérisant un facteur de puissance proche de l'unitéItem Amélioration du rendement d’un marteau perforateur(Université du 20 Août 1955 Skikda, 2024) NEMOUCHI, SAMIA; HADJADJ, AOUL ElaisDans notre travail on a étudié le mode de forage percutant avec différentes méthodes en se basant sur les propriétés physicomécanique de la roche, paramètres de réglage de la machine, paramètres géométriques de l’outil Le but de recherche présenté consiste à élaborer les méthodes de la détermination des paramètres du régime rationnel de fonctionnement de la machine de forage percutant lors de son exploitation dans les conditions géologiques et minières définies. Il est nécessaire d'analyser les méthodes existantes des calculs des paramètres de fonctionnement du régime de forage percutant et déterminer les valeurs numériques des propriétés mécaniques des roches nécessaires pour faire le calcul correspondant et d'appliquer les méthodes de calcul énumérées afin de déterminer les valeurs de la vitesse de forage. Faire les recherches expérimentales dans le but de vérifier les méthodes de calcul afin de les comparer et les analyser puis proposer une méthode de la détermination des paramètres rationnels du forage percutant ayant les meilleurs résultats et déterminé les valeurs optimales de réglage de la machine de forage percutant. Après avoir comparé les résultats des méthodes théoriques avec les résultats expérimentaux, constaté que la théorie de KARBATCHV est la meilleure Par conséquent, nous recommandons d'appliquer ce dernier lors de l'utilisation de forets à percussion pour les mêmes conditions dans la carrière de calcaire Hdjar-SoudItem Amélioration et augmentation de la productivité dans la construction(Université 20 Août 1955-Skikda, 2024-06-01) DEHCHAR ,Chemseddine; BOUABAZ, MohamedL'amélioration de la productivité dans le secteur de la construction a été un défi depuis longtemps, suscitant d'importants efforts de recherche. Cette étude cible spécifiquement l'amélioration de la productivité dans les projets de construction. Pour y parvenir, une enquête impliquant 150 questionnaires avec 16 facteurs groupés en Trois groupes notamment : groupe 01 : Management, groupe 02 : Facteurs liés aux travailleurs, groupe 03 : Facteurs externes, basés sur l'échelle de Likert de 5 points, a été mené afin d’identifier les facteurs influençant la productivité. Ces facteurs, sélectionnés en fonction de leur Indice d'Importance Relative (RII), étaient essentiels pour comprendre la dynamique de la productivité. Dans l'étape qui suit, un ensemble de données comprenant 101 points de données provenant de différents chantiers de construction est utilisé pour construire et développer deux modèles d’apprentissage automatique, à savoir : un modèle de Réseau de Neurones Artificiels (RNA) et un modèle d’approche paramétrique basé sur la régression linéaire multiple, dans le but d’estimer et de prédire les taux de la productivité sous l’influence des facteurs définis en première phase. Dans le cas du modèle de RNA, 70 % de l'ensemble des données ont été alloués à l'entraînement, tandis que les 30 % restants ont été réservés pour les tests. L'évaluation de la performance du modèle a utilisé les métriques de l'Erreur Quadratique Moyenne (MSE) et de l'Erreur Moyenne Absolue en Pourcentage (MAPE). Lors de la phase de test, le modèle de RNA a démontré une précision remarquable, avec une valeur de MSE de 0,000906 et une valeur du MAPE de 1,224%. En revanche, le modèle paramétrique a donné une précision comparativement plus faible, avec un MSE de 0,031 et un MAPE de 6,64%. Ces résultats soulignent la supériorité du modèle de Réseau de Neurones Artificiels (RNA) par rapport à l'approche paramétrique pour prédire et gérer les taux de productivité dans les projets de construction locaux. Les capacités prédictives robustes du modèle de RNA, basées sur sa capacité à capturer des relations de données complexes, en font un outil fiable pour les parties prenantes des projets et les gestionnaires de la construction. En exploitant ce modèle développé, basé sur les facteurs influents identifiés, les projets de construction peuvent prendre des décisions éclairées, rationaliser leurs opérations et, en fin de compte, accroître leur productivité. Cette étude contribue de manière significative aux efforts continus de l'industrie de la construction pour améliorer la productivité. Ses conclusions soulignent le potentiel des techniques avancées d'apprentissage automatique telles que le RNA pour relever les défis complexes de la construction, conduisant finalement à des résultats de projet améliorés, à une meilleure efficacité des coûts et à une meilleure gestion des ressourcesItem Analyse du problème de coudage des fissures (kinking cracks) dans les matériaux anisotropes(Université du 20 Août 1955 Skikda, 2024) Derouiche ,Sami; BOUZIANE, SalahLa fissuration des matériaux engendrant la rupture et la fragilité de ces derniers, a causé à l’humain des pertes et des destructions allant jusqu’à la catastrophe. C’est là que la mécanique de la rupture s’est imposé pour étudier les causes et la manière du développement de la fissure dans les différents matériaux entourant la vie de l’être humain et les différentes natures des matériaux qui évoquent des comportements distincts et particuliers. Dans la littérature il y a un grand penchant à étudier la nature dite Isotrope qui est représentée par un état et des propriétés physiques simplifiées afin de faciliter les calculs des théories de la fissuration. Ainsi, la nature dite « Anisotrope » des matériaux seras la mieux placés pour présenter toutes les diverses possibilités des matériaux en nature car elle prend en compte les différentes caractéristiques physiques et mécanique. Dans ce travail, L’intérêt est porté, dans un premier temps, à ces matériaux puis en deuxième temps à l’extension hors plan de la fissure au sein des matériaux anisotropes. Les deux cas de figure sont traités par une approche numérique s’articulant sur un élément fini mixte nommé RMQ7 développé pour l’investigation des discontinuités dans un solide. Le recours à des implémentations, tel que la fermeture virtuelle de fissure et la procédure dérivative de la rigidité, ont aidé à raffiner le calcul d’un paramètre de fissure appelé taux de restitution d’énergie, les résultats sont comparés à ceux de la littérature avec lesquels ils montrent des bons résultats et un excellent accord pour les deux cas de figure.Item Analyse dynamique de l'interaction sol-structure : cas d'un sol à comportement non-linéaire(université 20aout skikda, 2023) Hamoudi, Belkhir; Badreddine, SbartaLe problème de l’interaction sol-structure est très important dans la conception des structures dans le domaine de l’ingénierie de génie civil. Dans la mesure où cette interaction est façonnée par plusieurs paramètres, surtout le comportement du sol parce que tous les ouvrages sont supposés être encastrés dans le sol. Partant de cette complexité, nous étudions, dans cette thèse, l’influence du comportement non linéaire du sol sur la réponse d’une fondation rigide superficielle sollicitée par des ondes sismiques harmoniques (onde : P, S et Rayleigh). L’objectif principal de ce travail est d’implémenter une loi de comportement non linéaire du sol dans le code de calcul numérique tridimensionnel Fonvibwave. Le développement de ce code permet de modéliser le comportement non linéaire du système solfondation par la méthode de sous-structure en se basant sur le couplage de la méthode des éléments de frontière et la méthode des couches minces (BEM-TLM) dans le domaine fréquentiel. Les grandes amplitudes de tremblement de terre rendent le comportement du sol non linéaire, qui se traduit par la variation des propriétés dynamiques du sol en fonction du niveau de déformation du sol, c’est-à-dire les courbes de dégradation du module cisaillement normalisé (G/Gmax) et l’augmentation du pourcentage d’amortissement critique normalisé (ξ/ξmax). Le comportement non linéaire du sol est obtenu dans cette étude par la méthode linéaire équivalente implantée dans le code de calcul Caldynasoil. Cette méthode est une procédure itérative, où l’on évalue, à chaque itération pour chaque couche, les variations des propriétés dynamiques du sol pour différents niveaux d’excitation sismique. Une simulation unidimensionnelle (1D) par le code de calcul Caldynasoil basé sur la méthode linéaire équivalente avec le modèle hyperbolique de Masing (1926) a été utilisée pour analyser le comportement non linéaire du sol pour différents niveaux de déformations (faible, moyen et grand). Le nouveau code de calcul Fonvibwave-équivalent a été développé pour trouver les déplacements du système sol-fondation dans le cas non linéaire. Les résultats obtenus représentent une comparaison entre les réponses linéaire et non linéaire du système solfondation en fonction des différents types et angles d’incidence des ondes (P, SV, SH et R), la fréquence d’excitation adimensionnelle et les évolutions des propriétés dynamiques du sol. En dernier, nos résultats ont montré que la présence des fortes excitations sismiques peut modifier ou influencer le comportement du sol, d’un comportement linéaire à un RÉSUME comportement non linéaire ; ce qui entraîne une modification des propriétés dynamiques du sol causant une augmentation des déplacements de la fondation.Item Analyse et diagnostic robuste d'un système Mécatronique par l'approche Bond Graph(Université 20 Aout 1955 Skikda, 2018-06-24) Ramdane AdleneDurant ces dernières années, le diagnostic des défauts affectant les systèmes éoliens a été largement étudié. Un grand nombre des méthodes est disponible visant à améliorer la conception du système, à augmenter la qualité et la production d’énergie électrique et d’en diminuer les coûts. Malgré les résultats de la recherche, ces systèmes multi-complexes restent encore les sièges de réflexions de plusieurs laboratoires tant qu’industriels qu’académiques. L’objectif du travail est de montrer comment la méthodologie bond graph peut contribuer efficacement à la modélisation, l’analyse et le diagnostic des systèmes de production d’énergie électrique. Ce mémoire regroupe des modèles bond graphs des principaux composants de système éolien, L’intérêt de l’utilisation de la méthodologie bond graph pour résoudre ces problèmes réside essentiellement d’une part dans l’approche énergétique unifiée de tous les domaines de la physique et dans la mise en évidence graphique de la causalité. Ce rapport de thèse présente une nouvelle méthodologie de diagnostic de défauts au niveau d’engrenage utilisant la méthodologie Bond Graph. L’objectif est de générer des données en fonctionnement sain et en fonctionnement défaillant de ses variables. Les deux méthodes sont implémentées sous 20-sim et Matlab/ Simulink. Les données de système acquises sont traitées et analysées par la méthode FDI. La détection et la localisation de défauts de la machine sont obtenues par l’analyse des résidus. Les résidus sont des indicateurs de défaillance ou non du système étudié. L’analyse et la classification des résidus de modèle étudiée dans ce rapport de thèse par l’analyse spectrale de plusieurs résultats de simulation montrent l’efficacité de la méthode Choisi pour l’analyse et le diagnostic des défauts.Item Analyse et diagnostic robuste d’un système Mécatronique Par l’approche Bond Graph(Université 20 aout 1955 skikda, 2018-06-24) RAMDANE ,ADLENE; LACHOURI, ABDERRAZAKDurant ces dernières années, le diagnostic des défauts affectant les systèmes éoliens a été largement étudié. Un grand nombre des méthodes est disponible visant à améliorer la conception du système, à augmenter la qualité et la production d’énergie électrique et d’en diminuer les coûts. Malgré les résultats de la recherche, ces systèmes multi-complexes restent encore les sièges de réflexions de plusieurs laboratoires tant qu’industriels qu’académiques. L’objectif du travail est de montrer comment la méthodologie bond graph peut contribuer efficacement à la modélisation, l’analyse et le diagnostic des systèmes de production d’énergie électrique. Ce mémoire regroupe des modèles bond graphs des principaux composants de système éolien, L’intérêt de l’utilisation de la méthodologie bond graph pour résoudre ces problèmes réside essentiellement d’une part dans l’approche énergétique unifiée de tous les domaines de la physique et dans la mise en évidence graphique de la causalité. Ce rapport de thèse présente une nouvelle méthodologie de diagnostic de défauts au niveau d’engrenage utilisant la méthodologie Bond Graph. L’objectif est de générer des données en fonctionnement sain et en fonctionnement défaillant de ses variables. Les deux méthodes sont implémentées sous 20-sim et Matlab/ Simulink. Les données de système acquises sont traitées et analysées par la méthode FDI. La détection et la localisation de défauts de la machine sont obtenues par l’analyse des résidus. Les résidus sont des indicateurs de défaillance ou non du système étudié. L’analyse et la classification des résidus de modèle étudiée dans ce rapport de thèse par l’analyse spectrale de plusieurs résultats de simulation montrent l’efficacité de la méthode Choisi pour l’analyse et le diagnostic des défautsItem Analyse et prévention des risques Incendie/Explosion dans les sites industriels. Cas du complexe pétrochimique de SKIKDA(Université 20 Août 1955 - Skikda, 2020) BEKHOUCHE, Saloua; ZIGHED, LiliaLes risques d’incendie et d’explosion sont omniprésents dans tout site industriel et peuvent impliquer des accidents majeurs. C’est notamment le cas dans les complexes de traitement des produits pétroliers. Les accidents résultant des incendies ou des explosions peuvent en effet engendrer des conséquences graves non seulement pour l’homme mais également pour l’environnement et pour les installations du site lui-même. Les exemples d’accidents majeurs induits par ces phénomènes dangereux sont là pour illustrer les degrés de leur gravité mais aussi l’importance que revêt la bonne prise en charge des risques qui peuvent les initier. Et avec les systèmes industriels de plus en plus complexes le besoin devient encore plus pressant de développer des nouvelles approches d’analyse et de préventions des risques d’incendie et d’explosion. Ces approches doivent prendre en compte tous les aspects matériels et humains impliquant les risques et permettre également des exploitations de systèmes industriels plus sûres et plus économiques. L’objectif de cette thèse s’inscrit dans le cadre défini ci-dessus et vise la mise en place d’une stratégie globale visant l’analyse et la prévention des risques incendie et explosion dans les sites industriels. Cette analyse est appliquée aux complexes pétrochimiques GL1K et RTE situés au niveau de la zone pétrochimique de Skikda. Notre travail sera basé sur la combinaison de plusieurs outils (méthodes et logiciels) pour la mise en place d’une approche globale et complète d’analyse et d’évaluation des risques d’incendie et d’explosion en prenant pour sites cibles les deux complexes cités précédemment. Nous commencerons par l’exploitation de la méthode HAZID pour identifier les sources, les causes et les conséquences des dangers dans les différents composants des unités étudiées. Par la suite, l’exploitation de l’indice DOW F&EI permettra la prédiction, l’estimation et la quantification des dommages des accidents considérés. Pour illustrer la sévérité des risques d’incendie et d’explosion dans les complexes pétrochimiques GL1K et RTE, le logiciel PHAST nous permettra de modéliser et simuler les scénarios des accidents d’incendie et d’explosion au niveau des complexes considérés, ce qui donnera une indication sur la gravité des dangers et ainsi l’optimisation de l’évaluation et la prévention des risques considérés. Notre travail est complété par l’intégration d’une analyse des résultats de l’estimation et de la classification des risques Incendie/Explosion par la logique floue outil avancé qui permettra l’élimination de l’imprécision et de l’incertitude lors de l’estimation et la classification des risques considérés.Item Analysis and Control of Non-Classically Damped Structures(University of 20 August 1955-Skikda, 2024) Hisham, Suleiman; Hamid ,AfraThis thesis explores the dynamic analysis of complex civil engineering structures, focusing on accurately modelling their responses to external forces. Solving the equation of motion directly for these systems often demands extreme computational time. Another option is to decouple these systems into modal form by solving the quadratic eigenvalue problem for them. Forced diagonalization or lightly damping assumptions are often used for this purpose. However, this technique has limited applicability for lightly damping scenarios. These challenges need more adaptable solutions. The exact state-space method stands out for its analytical accuracy in decoupling. It addresses the quadratic eigenvalue problem without simplifying the physical phenomenon. However, this method doubles the problem size, increasing computational demands. In response to these limitations, this research advances the field by examining approximation decoupling techniques that maintain the system's physical meaning while minimizing computational efforts. These techniques aim to improve the modelling efficiency of complex civil engineering structures and ensure the clarity of their dynamic behaviour interpretations. Two innovative methods introduced in our published papers are central to the thesis. The first proposed method, "Exploring Decoupling Techniques for Linear Structures with Non-Classical Damping," looks at a system with four degrees of freedom (4-DOF) and shows that it works well in three different damping situations. This method evaluates the efficacy of lightly non-classical damping against Adhikari's method, underscoring the importance of choosing a method based on the damping matrix's characteristics. It also introduces a new subspace technique that merges the advantages of previous methods for enhanced results. The second proposed method, "An Extension to Adhikari Iterative Method," builds upon existing frameworks by incorporating spectral localization and the self-adjoint theorem. This improves stability and precision in identifying complex eigenvalues. This advancement facilitates a novel approach for calculating the frequency response function (FRF), showcasing significant progress in the field. By integrating these methods, this thesis addresses computational and applicability challenges in modelling complex civil engineering structures and paves the way for further developments in structural dynamics analysis.Item Applications des nanomatériaux,cas du graphène(Université 20 aout 1955-skikda, 2019-02-05) Boulahneche, samia; Medjram,mohamed salahL'objectif de la thèse est,d'une part la mise en place d'une nouvelle méthode électrochimique,à base de nanoparticules de graphène,pour une détection précoce et plus efficace des agrégations de protéines, et d'autre part, l'intégration de ces memes nanoparticules dans les thérapies biomédicales afin de remplacer les méthodes classiques à risque.Item Applications of the fixed point technique to problems generated by nonlinear functional differential equations(university of Skikda 20 August 1955, 2023) Chouaf, Safa; Guesmia, AmarIterative functional di¤erential equations have a long history-more than a century, during which numerous instances have demonstrated the promising applications of these equations in multiple …elds such as medicine, biology, epidemiology, and classical electrodynamics, etc. The main aim of this dissertation is to contribute to the emerging literature of this type of equations via the study of three classes of second order iterative functional di¤erential equations in Banach spaces. We establish some existence and uniqueness results and the continuous dependence on parameters of the unique solution by virtue of a powerful technique that combines the …xed point theory and the Green’s function method. More precisely, it is based on the transformation of the considered problem into a …xed point problem by converting it into an equivalent integral equation whose kernel is a Green’s function before applying the Banach and Schauder …xed point theoremsItem Apport de la texture à la caractérisation d'images(Université 20 Août 1955 -Skikda, 2017-05-18) Salah ,Bougueroua; Bachir, BOUCHEHAMDans ce travail, nous nous intéressons à la recherche d’images par le contenu. Cette intéressante approche, plus connue par son acronyme anglais CBIR (Content Based Image Retrieval), a vu le jour afin de remédier aux problèmes engendrés par son prédécesseur, basé sur le texte (TBIR : Text based image retrieval). Principalement, le TBIR souffre de deux inconvénients. Le premier consiste dans la difficulté de la tâche d’attribution des mots clés aux images, due à son aspect manuel. En outre, le deuxième inconvénient réside dans la subjectivité de la tâche. Afin de parer à ces inconvénients, l’approche alternative CBIR utilise les caractéristiques visuelles de l’image, telles que la couleur, la texture, la forme… etc. Cependant, le fait de se baser sur de telles caractéristiques de bas niveau pour représenter et exprimer le contenu d’une image, généralement très complexe, engendre un écart significativement important avec les sémantiques et les significations de celle-ci. Cet écart est communément connu par le fossé sémantique. Particulièrement, l’attribut texture est très répandu et très utilisé, vu que les êtres humains sont capables de distinguer entre différentes manifestations de cet attribut. Néanmoins, sur le plan computationnel, la texture demeure un attribut difficile à caractériser. Dans le présent travail, la texture représente le point de focalisation. Par conséquent, un ensemble de méthodes basées textures seront abordées ainsi que la proposition de plusieurs contributions. Principalement, notre première contribution est une amélioration de la célèbre méthode LBP (Local Binary Pattern, motif binaire local), où nous proposons d’intégrer graduellement l’information locale véhiculée par les motifs binaires locaux. Ceci est obtenu à travers un nouveau schéma de délimitation des régions, qui diffère de celui basé sur les blocs (régions rectangulaires classiques). Par conséquent, notre méthode est baptisée GLIBP (Gradual Locality Integration of binary patterns). Le succès de cette instance du Framework proposé GLI (Gradual Locality Integration) nous a poussés à investiguer la faisabilité de l’approche pour l’extraction des caractéristiques de la couleur. Dans ce contexte, la méthode GLI-Color a été proposée ainsi que deux de ses variantes. La première opère sur l’espace de couleur HSV, d’où son nom : GLI-Color(HSV). Quant à la deuxième variante, elle utilise les moments d’où son nom M-GLI-Color. Dans la seconde contribution, nous nous intéressons aux ondelettes dans le contexte de la caractérisation du contenu textural de l’image. Dans cette optique, la littérature existante montre que des auteurs affirment que la moyenne des sous-bandes d’ondelettes est égale à (ou proche de) zéro. Cette affirmation nous a paru digne d’intérêt, vu que les mesures calculées des différentes sous-bandes sont généralement les moments statistiques ; or la moyenne est utilisée lors du calcul de ces derniers. Donc, comme première étape, nous avons vérifié expérimentalement la différence entre la distribution des moyennes des sous-bandes d’ondelettes et celle des énergies des sous-bandes. Les résultats obtenus montrent une différence intéressante entre les deux distributions. Effectivement, par opposition aux valeurs des moyennes qui se concentrent autour de l’axe de zéro, celles des énergies sont plusdispersées. En se basant sur ces résultats, le calcul des moments statistiques autour de l'énergie au lieu de la moyenne, semble une modification efficace afin d'améliorer les capacités discriminatives de ces mesures. Cette hypothèse a fait l'objet de la deuxième étape où nous avons montré l’apport de la considération de l’énergie dans les formules des moments statistiques sur la performance. Notre troisième contribution principale agit quant à elle au niveau de l’étape de comparaison des systèmes CBIR. Elle repose sur une stratégie gloutonne basée sur une mesure d’homogénéité importée du domaine du biclustering des Expressions de Gènes, appelée Mean Squared Residue (MSR). Notre méthode est distinguée par le fait qu’elle profite de toutes les images déjà jugées pertinentes par le système CBIR, pour la sélection de l’image suivante. Ceci est complètement différent de l’approche classique des systèmes CBIR, où seulement la requête est utilisée lors de la recherche des images, puisque le résultat de la requête est alors traité comme un cluster homogène dont la croissance est réalisée de façon incrémentale. L’ensemble des résultats obtenus par les différents algorithmes et techniques proposés ont montré des performances intéressantes, voire supérieures, par rapport à plusieurs travaux publiés. En particulier, la méthode GLIBP a montré des performances supérieures à celles des méthodes : LBP de Ojala et al. (1996), DLEP de Murala et al. (2012a), ‘Block-based LBP’ de Takala et al. (2005), entre autres. D’un autre côté, les résultats obtenus nous encouragent à continuer sur cet axe de recherche et aussi nous inspirent des perspectives à explorer dans le futur, particulièrement, l’exploitation d’autres techniques de biclustering des expressions génétiques dans le domaine de la recherche d’images par le contenuItem Approche individu-centrée basée Multi-Agents pour la modélisation de la dynamique des populations(université 20 aout skikda, 2020-06-15) LAROUM, TOUFIK; Tighiouart, BorniaL’objectif de ce travail de thèse est de proposer un système Multi-Agent pour modéliser la dynamique de populations. Le système biologique que nous avons étudié est l’infection par le virus de l’immunodéficience humaine VIH. La dynamique des populations est la science qui étudie l’évolutions dans le temps des individus d’une population donnée (particulièrement en biologie et écologie) pour des raisons descriptives et prédictives. Depuis la découverte du premier cas du SIDA et l’isolation de VIH comme cause de cette maladie en 1984, plusieurs études et modèles, généralement populationscentrés basés sur l’approche mathématique, ont été mis en œuvre pour comprendre la dynamique de ce phénomène. Cependant, la complexité de ce phénomène biologique et la diversité des cellules et acteurs qui affecte sa dynamique requièrent l’utilisation des approches individu-centrées comme l’approche Multi-Agent. Cette approche consiste à modéliser le comportement de chaque individu de la population (et les interactions entre les individus) au lieu de considérer la population comme une seule entité, et ce afin de produire le comportement global du système étudié. Les résultats obtenus sont encourageants et sont conformes et en cohérence avec les constats biologiques.Item Approches collectives basées datamining et machine-learning pour l’interprétation d’images et reconnaissance d’objets(Université 20Aout 1955-Skikda, 2023) Nadjet, BOUCHAOUR; Smaine, MAZOUZIEn imagerie médicale, comme pour la quasi-totalité de domaines traitant de l’image numérique, la segmentation occupe une place critique, et dont dépend fortement la qualité des résultats d’interprétation. Cependant, la segmentation d’image a été et demeure encore un problème mal-posé, du fait de l’incertitude et de l’imprécision des données lors de l’acquisition des images, mais aussi de la difficulté de modéliser ses données afin que les traitements puissent produire les résultats escomptés par les utilisateurs. Les images à résonance magnétique, (IRM) et en plus du lot de problèmes communs en traitement d’images tels que le bruit et les déformations, elles sont entachées d’artéfacts spécifiques qui compliquent leur segmentation, il s’agit du problème de la non uniformité des intensités (INU : Intensity Non Uniformity) et le problème de l’effet du volume partiel. Afin de contribuer à la résolution du problème de segmentation d’IRM, structurelles et pathologique, nous nous sommes penchés le long de cette thèse à proposer des modèles de données et des modèles de classification, permettant de bien étiqueter les voxels d’une IRM en fonction des tissus auxquels ils appartiennent. Pour ce faire, nous avons démarré d’une hypothèse, postulant que des patterns qui peuvent exister au sein des données IRM permettent de bien classifier ces dernières. Aussi, des attributs qui représentent à la fois les intensités des voxels, mais aussi les interactions qui existent entre eux, devraient renforcer le pourvoir discriminatoire des classifieurs utilisés. Et enfin, et à cause des tailles importantes des volumes IRM, nous avons supposé que les méta-classifieurs ensemblistes tels que l’Adaboost sont bien appropriés aux données traitées. Ces hypothèse et ces réflexions nous ont conduit à mener deux travaux dans le cadre de cette thèse. Le premier travail consiste à concevoir un modèle de représentation des données IRM, basé sur la notion d’entropie spatiale au sein des voxels dans un voisinage local. Les attributs basés entropie obtenus, et l’intensité du voxel lui même sont utilisé en entrée de l’algorithme Adaboost, en testant deux classifieurs faibles, à savoir le Naif bayesien, et le vSVM. Au second travail, et en utilisant l’Adaboost avec un classifieur CNN léger, nous avons considéré un ensemble d’attributs pour classifier un voxel donné. Cet ensemble consiste en une sous image 2D de coupe IRM autour du voxel à étiqueter. Pour les deux modèles, des expérimentations ont été menées et les résultats obtenus ont été comparés avec ceux de travaux récents de la littérature. Les résultats expérimentaux obtenus ont montré le fort potentiel des modèles proposées, soit de représentation, soit de classification pour une segmentation efficace des IRM, et ce dans les deux cas : IRM structurelle et IRM tumorale. Ces résultats nous ont conféré de confirmer notre hypothèse, à savoir que l’utilisation d’attributs représentant des patterns, tels que l’entropie spatiale ou les sous-images, ainsi que le recours à des méta-classifieurs d’ensemble, tel que Adaboost pourra être considéré comme un Framework général pour une segmentation efficace d’IRM.Item Approches Collectives et Coopératives en Sécurité des Systèmes Informatiq(Université 20 Août 1955- Skikda, 2016) Belaoued, Mohamed; Mazouzi, SmaineLes malwares (logiciels malveillants) représentent une réelle menace pour la sécurité de nos systèmes informatiques, et avec la constante prolifération et l'évolution des techniques d’anti-détection de ces derniers, il est devenu primordial d’avoir une protection efficace contre ce genre de menaces. Malheureusement, les antivirus commerciaux sont incapables de fournir le degré requis de protection. Ceci est d^u principalement au fait que ces derniers utilisent des méthodes de détection basées sur les signatures. Ces techniques sont connues pour leurs limites dans la détection des malwares inconnus, ainsi que les variantes de malwares existants. Durant ces vingt dernières années, les chercheurs en sécurité informatique ont propos´e une multitude d’approches afin de remédier aux faiblesses des systèmes `a base de signatures. Cependant, la majorité de ces approches focalisent sur l’amélioration du degré de précision et ignorent un facteur primordial qui est le temps de détection. En effet, être en mesure de détecter et de neutraliser une menace dans un temps court peut s'avérer vital pour la sécurité du système informatique. En plus, connaitre la nature de la menace (dans notre cas le type de malware) est également un facteur important qui va conditionner le choix des mesures `a prendre. Par ailleurs, nous pensons que quelque soit son degré de précision, un outil détection local agissant d’une manière isolée sera rapidement submergé, et cela `a cause du nombre colossal de malwares circulant sur le reséau internet. Dans cette thèse, nous proposons en premier lieu un système temps réel pour la détection des malwares PE (Portable Excuse -table), en cherchant un bon compromis entre précision de détection et temps de traitement. Deuxièmement, nous proposons une nouvelle approche basée sur la méthode d’analyse des correspondances multiples (ACM) qui permet d’extraire les associations d’ APIs (Application Programming Interface) utilisées par les différents types de malwares. Ces associations seront d’une grande importance pour l’identification des différents types de malwares. Enfin, nous proposons une nouvelle approche pour la détection collaborative des malwares, en utilisant les systèmes multi-agents (SMA). Notre approche offre un mécanisme de distribution et de collaboration `a l’aide d’agents autonomes, permettant de faire collaborer différents outils de détection de nature hétérogènes et ayant des performances variables. Il sera également question d’envisager une méthode d’identification universelle de fichiers exécutables en utilisant une signature `a base de code-opérations (Opcodes). Ainsi, la décision collective qui en résulte permet d’améliorer significativement la précision de détection.Item Approches collectives et distribuées pour l’interprétation d’images et la reconnaissance des formes(université 20 Aout 1955 skikda, 2022) Azzouz, Daouia; Smaine, MazouziDepuis l’avènement de la radiologie, l’imagerie médicale n’a cessé de gagner du terrain comme premier moyen pour l’établissement de diagnostics médicaux. Cependant, le volume de données enregistrées dans une image médicale, ainsi que les différents artéfacts auxquels elle est sujette rendent son traitement manuel, par des praticiens de santé, problématique et consomme énormément de temps et d’effort, avec la possibilité accru de commettre des erreurs d’interprétation, conduisant à de faux diagnostics. Dans ce travail de thèse, nous nous sommes penchés sur deux problématiques co-récurrentes dans la littérature du traitement d’images médicales. D’une part, la segmentation d’images à grands volumes en adoptant des approches ne nécessitant pas de données d’apprentissage massives, et produisant des résultats satisfaisants en un temps raisonnable pour les utilisateurs. D’autre part, le traitement de certains artéfacts spécifiques aux images médicales, tels que la non uniformité d’intensité (INU : Intensity Non Uniformity), notamment dans les images à résonance magnétique (IRM). Pour la première problématique, nous avons proposé une nouvelle méthode de segmentation d’IRM, consistant en un nouveau schéma de combinaison de deux méthodes de base, une par clustering et l’autre par accroissement de région. Les deux méthodes sont intrinsèquement faibles en computation mais aussi et en performance de classification. Par contre, le schéma de combinaison proposé, qui se base sur des volumes de probabilités selon différentes distributions statistiques des données IRM nous a permis d’améliorer considérablement la performance de la segmentation. Pour la seconde problématique, nous avons proposé une nouvelle méthode de modélisation et de correction du champ de biais, responsable de la non uniformité des intensités (INU) dans les IRM. Tout d’abord le volume global de l’IRM est subdivisé aléatoirement en sousvolumes de faibles tailles qui se chevauchent, et dont chacun est affecté à un agent pour le segmenter en ses trois tissus qui composent la matière cérébrale. Dans de tels sous volumes, l’effet du champ de biais est pratiquement négligeable, et la non uniformité d’intensité résiduelle ne fausse pas l’étiquetage des voxels. Ainsi, la première segmentation qui en résulte est utilisée pour estimer le champ de biais global dans l’IRM en l’approximant par une hypersurface de variation d’intensité, ajusté par interpolation Lagrangienne et en utilisant les voxels fiablement étiquetés. Au reste de l’IRM, le champ de biais est estimé par interpolation en utilisant l’hyper surface obtenu. Les résultats expérimentaux obtenus pour les deux méthodes, de segmentation par combinaison probabiliste et de correction de l’INU par interpolation Lagrangienne, ont montré l’intérêt des deux méthodes et leur potentiel pour une correction de l’INU et une segmentation fiable et rapide des IRMs. Selon les deux contributions réalisées, nous avons pu confirmer que la combinaison de méthodes de base de segmentation, de complexité computationnelle faible et de performances intrinsèques moyennes, permet de mettre en œuvre des méthodes avec des performances boostées, mais de complexité de calcul raisonnable, compatible avec l’utilisation de telles méthodes sur un terrain réel d’exploitation.Item Approches Formelles et Opérationnelles pour la Modélisation des Echanges et de la Coopération dans les Systèmes Distribués(Université20Aout 1955- Skikda, 2018-12-19) SLIMANI, Amira; Redjimi, MohammedAu cours de ces dernières décennies, les développements spectaculaires dans le domaine de l’informatique, de la micro-électronique et des média de communication ont permis des évolutions considérables dans les systèmes répartis. Ces systèmes distribués ont reçu une attention considérable de la part des universitaires et de l'industrie et sont devenus un domaine de recherche très important. La motivation principale des systèmes distribués est le partage des ressources et l'accès distant aux informations et aux services indépendamment de leurs localisations. Plusieurs architecture des systèmes distribués se sont développées afin d'améliorer leurs performances et de répondre aux besoins des utilisateurs. Les réseaux sans fil sans ont vu naître, au cours de leur évolution, diverses architectures dérivées, telles que les réseaux cellulaires, les réseaux locaux sans fil, les réseaux WiMax, etc. Durant la dernière décennie, de nouveaux types de réseaux sans fil ont suscité un grand intérêt auprès de la communauté scientifique et des industriels, il s'agit des réseaux ad hoc et des réseaux de capteurs sans fil (WSN). Ces dernières années, les réseaux de capteurs sans fil se sont introduits à tous les niveaux de la société : les entreprises, les gares, les hôpitaux, les usines, les domiciles, les téléphones et autres équipements domestiques, militaire, de santé, environnement. Dans cette thèse, nous nous sommes intéressés au problème de l'énergie dans les réseaux de capteurs sans fil. Nous avons abordé cette problématique en investiguant deux axes de recherche, à savoir les protocoles de routage hiérarchique et les stratégies de gestion de l'énergie. Notre première contribution consiste à proposer un protocole de clustering nommé WDC-LEACH-C pour établir une architecture hiérarchique clustérisée avec une meilleure sélection des clusters heads (CHs) afin de minimiser la consommation d'énergie dans les clusters. La seconde contribution consiste dans la proposition d’un autre protocole de routage nommé Improved-ACORP qui intègre une stratégie de gestion d'énergie des CHs nommée CHMS afin de conserver le maximum l'énergie aux CHs et prolonger, ainsi, la durée de vie du réseau. Plusieurs simulations ont été effectuées pour démontrer la faisabilité et l’efficacité de ces solutions