Repository logo
  • English
  • Català
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Italiano
  • Latviešu
  • Magyar
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Tiếng Việt
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Yкраї́нська
  • Log In
    New user? Click here to register.Have you forgotten your password?
Repository logo
  • Communities & Collections
  • All of DSpace
  • English
  • Català
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Italiano
  • Latviešu
  • Magyar
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Tiếng Việt
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Yкраї́нська
  • Log In
    New user? Click here to register.Have you forgotten your password?
  1. Home
  2. Browse by Author

Browsing by Author "BOUGAMOUZA, Fateh"

Now showing 1 - 2 of 2
Results Per Page
Sort Options
  • Loading...
    Thumbnail Image
    Item
    Combinaison emojis-texte dans une architecture Transformer pour la classification des sentiments dans les tweets arabes
    (Faculté des sciences, 2023) HATEM, Rayane; MERABET, Nesrine; BOUGAMOUZA, Fateh
    Les médias sociaux, en particulier les plateformes de microblogging comme Twitter, offrent un moyen rapide et facile aux utilisateurs pour partager leurs opinions et leurs émotions. Ce mémoire aborde le problème de la classification des sentiments dans les tweets arabes en utilisant une combinaison de texte et d'émojis dans une architecture Transformer. Le problème d'étude est le manque de ressources et de systèmes adaptés à l'analyse de sentiment en arabe par rapport à d'autres langues. La solution proposée consiste à entraîner un modèle BERT Transformer sur des données annotées en utilisant à la fois le texte brut des tweets et les émojis associés. Les résultats obtenus montrent une amélioration significative par rapport aux modèles existants, démontrant l'efficacité de l'approche proposée pour la classification précise des sentiments dans les tweets arabes.
  • Loading...
    Thumbnail Image
    Item
    Multimodal Deception Detection Using Machine and Deep Learning : A Comparative Study on Audio and Visual Cues
    (Faculty of Sciences, 2025) CHAGUETMI, Ilhem; TADJINE, Meram; BOUGAMOUZA, Fateh
    This thesis explores the use of artificial intelligence for automated deception detection using multimodal data. Traditional lie detection methods—such as polygraph testing and behavioral observation—are limited by subjectivity and poor reliability. In response, this work investigates machine learning and deep learning models applied to audio and visual cues from the Real-Life Trial Deception Dataset (RLDD), which features authentic courtroom testimonies. The proposed pipeline covers feature extraction, model training, and system deployment. Audio features were extracted using the ComParE_2016 set, while visual features were generated through Vision Transformer (ViT) embeddings. Multiple models, including SVM, XGBoost, Conv1D, BiGRU, and CNN+LSTM, were tested across four configurations: audio-only, visual-only, early fusion, and late fusion. SVM and Conv1D performed best for audio inputs, while BiGRU and CNN+LSTM achieved the highest accuracy for visual inputs. The final system—LieBusters—uses SVM for audio and BiGRU for visual detection, integrated via decision-level late fusion. It features a real-time interface, recording tools, and LIME-based interpretability for ethical transparency. This work provides both a practical prototype and a benchmark for future AI-driven behavioral analysis tools.

DSpace software copyright © 2002-2025 LYRASIS

  • Cookie settings
  • Privacy policy
  • End User Agreement
  • Send Feedback