Repository logo
  • English
  • Català
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Italiano
  • Latviešu
  • Magyar
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Tiếng Việt
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Yкраї́нська
  • Log In
    New user? Click here to register.Have you forgotten your password?
Repository logo
  • Communities & Collections
  • All of DSpace
  • English
  • Català
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Italiano
  • Latviešu
  • Magyar
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Tiếng Việt
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Yкраї́нська
  • Log In
    New user? Click here to register.Have you forgotten your password?
  1. Home
  2. Browse by Author

Browsing by Author "Hazmoune, Samira"

Now showing 1 - 1 of 1
Results Per Page
Sort Options
  • Loading...
    Thumbnail Image
    Item
    Vision-Transformers pour la classification des images médicales
    (Faculté des Sciences, 2024) Fekrache, Ismahane; Hazmoune, Samira
    L’intelligence Artificielle (IA) se développe de plus en plus dans divers domaines, notamment celui de l’imagerie médicale, où elle devient un outil significatif dans la routine des radiologues. L’augmentation des données médicales a bouleversé la charge de travail des médecins, réduisant le temps passé avec les patients et augmentant le risque d’erreurs d’interprétation. L’IA, et en particulier les Vision Transformers (ViT), offrent une assistance au diagnostic en soulignant les anomalies pathologiques. Le Vision transformer est considéré comme une technologie de classification d’images de pointe. Ce projet présente un modèle de Transformer utilisant ViT pour la classification d’images médicales. Des expériences ont été réalisées sur deux jeux de données distincts, les tumeurs cérébrales et les radiographies pulmonaires, pour affiner la précision du modèle en sélectionnant les hyperparamètres les plus adaptés au ViT. Les taux de précision de classification atteints pour ces bases de données étaient respectivement de 98,40 % et 90,68%. Des analyses comparatives avec différentes architectures de réseaux neuronaux convolutifs (CNN) et des études antérieures sur les mêmes jeux de données ont mis en évidence les performances supérieures du ViT par rapport aux méthodes classiques d’apprentissage automatique et profond.

DSpace software copyright © 2002-2025 LYRASIS

  • Cookie settings
  • Privacy policy
  • End User Agreement
  • Send Feedback