Il a été démontré que le vaccin peut jouer un rôle très important dans le processus d’éradication de l’hépatite B. Lorsque la souche mutante apparait, elle modifie les stratégies de luttes. Le problème courant est celui de déterminer le seuil vaccinal capable de stimuler le système immunitaire pour éliminer le virus, ou de trouver les conditions pour lesquelles la souche mutante persistera en présence du vaccin. Dans ce travail, nous considérons un nouveau modèle d’hépatite B dans lequel nous prenons en compte une souche de virus sauvage et une souche mutante et leur interaction avec les cellules du système immunitaire. Nous calculons le taux de reproduction de base et montrons que la dynamique dépend de ce seuil. Une extension de ce modèle est faite afin d’inclure un schéma impulsionnel de vaccination et de déterminer les conditions pour éliminer la maladie. Nos résultats montrent que si le vaccin est suffisamment puissant, les deux souches pourront être éliminées.
La quantité des données produites par de nombreux domaines augmente constamment et rend leur traitement de plus en plus difficile à gérer. Parmi ces domaines nous nous intéressons à la biodiversité pour laquelle le GBIF (Global Biodiversity Information Facility) vise à fédérer et partager les données de biodiversité produites par de nombreux fournisseurs à l’échelle mondiale. Aujourd’hui, avec un nombre croissant d’utilisateurs caractérisés par un comportement versatile et une fréquence d’accès aux données très aléatoire, les solutions actuelles n’ont pas été conçues pour s’adapter dynamiquement à ce type de situation. Par ailleurs, avec un nombre croissant de fournisseurs de données et d’utilisateurs qui interrogent sa base, le GBIF est confronté à un problème d’efficacité difficile à résoudre. Nous visons, dans cet article, à résoudre les problèmes de performances du GBIF. Dans cette perspective, nous proposons une approche d’optimisation de requête d’analyse de données de biodiversité qui s’adapte dynamiquement au contexte des environnements répartis à large échelle pour garantir la disponibilité des données. L’implémentation de notre solution et les résultats des expériences sont satisfaisants pour la garantie de performance et du passage à l’échelle.
Nous proposons dans cet article une solution pour améliorer le système actuel de surveillance médicale en Unité de Soins Intensifs (USIs) cardiologique grâce à un système de reconnaissance automatique d'activités humaines. Une approche de vidéo surveillance multicaméras est proposée à cet effet et permet l'acquisition des données pour l'analyse et l'interprétation automatique de la scène. Cette dernière est basée sur le Modèle de Markov Caché (MMC) avec une durée d'état explicite et intégrant une gestion de la structure hiérarchique interne des scénarios. Plusieurs séries d'expérimentations sont effectuées sur le nouveau système de surveillance proposé en USIs et démontre ainsi la nécessité d'une surveillance assistée par ordinateur des patients afin d'aider les médecins surveillants et les cliniciens dans le processus de prise de décision. De plus, le MMC temporel offre une solution très adaptée pour la reconnaissance automatique des événements en USIs. Enfin, les résultats obtenus avec le modèle de MMC temporel et hiérarchique ont été comparés à ceux des MMC classiques.
Cet article décrit un nouvel algorithme non supervisé de classification des données multidimensionnelles. Il consiste à détecter les prototypes des classes présentes dans un échantillon et à appliquer l’algorithme KNN pour la classification de toutes les observations. La détection des prototypes des classes est basée sur les processus ponctuels marqués, c’est d’une part une adaptation de la méthode de Métropolis-Hasting-Green qui génère des mouvements manipulant les objets du processus (naissance, mort…) et d’autre part une modélisation de Gibbs qui introduit la fonction de potentiel matérialisant les interactions du processus en termes d’énergie. Plusieurs expérimentations ont été réalisées sur des données ponctuelles multidimensionnelles où les classes sont non linéairement séparables et des données réelles issues des puces à ADN. Une comparaison avec des méthodes de classification existantes a permis de montrer l’efficacité de ce nouvel algorithme.
Dans cet article, nous menons une étude complète visant à proposer trois stratégies de routage, intégrant différents niveau d’agrégation, afin d’acheminer les données collectées dans les Réseaux de Capteurs Sans Fil (RCSF) structurés en clusters auto-stabilisants. Ces trois scénarios sont : (i) le Routage Sans Agrégation (RSA), (ii) le Routage avec Agrégation Partielle (RAP) et (iii) le Routage avec agrégation Totale (RAT). Ces derniers se fondent sur un schéma de clustering autostabilisant où est intégré un système d’agents coopératifs. Nous validons ces trois scénarios par simulation sous OMNeT++ en évaluant et comparant leurs performances en termes de délai de bout en bout, de consommation énergétique et de durée de vie du réseau. Les résultats de simulation montrent que le RSA minimise les délais de communication, le RAP réduit la consommation énergétique et le RAT prolonge la durée de vie des cluster-heads