La théorie d’approximation des fonctions couvre de nombreuses branches en mathématiques appliquées, en informatique et en sciences de l’ingénieur, en particulier en analyse numérique, en théorie des éléments finis et plus récemment en sciences des données. Parmi les approximations fortement utilisées nous citons les approximations polynomiale de type Lagrange, Hermite ou au sens de Chebychev. Nous trouvons aussi l’approximation d’une fonction par une séries de Fourier, l’approximation rationnelle...Dans ce travail, nous établissons quelques résultats d’approximations d’une fonction continue par une série de fonctions de type activation. Nous traitons d’abord les cas d’une fonction à une seule puis à deux variables, puis nous généralisons l’approximation au cas multidimensionnel. Nous appliquons ces approximations pour l’interpolation et l’intégration numérique, en éléments finis et en réseau neuronal. Nous donnons pour chaque application quelques résultats numériques.
Cet article qui s'inscrit dans le cadre général des mathématiques appliquées à l'économie est un modèle de prise de décision dans l'ignorance totale. Un tel environnement est caractérisé par l'absence d'une loi de distribution des états de la nature permettant d'avoir des bonnes prévisions ou anticipations. Se basant principalement sur l'intégrale de Choquet, ce modèle permet d'agréger les différents états de la nature afin de prendre une meilleure décision. Cette intégrale de Choquet s'impose par rapport à la complexité de l'environnement et aussi par son caractère pertinent d'agrégation des critères interactifs ou conflictuels. Le présent modèle est une combinaison du modèle de Schmeidler et de l'algorithme de Brice Mayag pour la détermination de la capacité 2-additive de Choquet. Il s'inscrit dans le cadre des modèles subjectifs et apporte une réponse appropriée au paradoxe d'Ellsberg.
On propose un système d'équations différentielles ordinaires avec des termes non linéaires homogènes de degré un pour modéliser la transition démographique. Il y a deux classes d'âge et deux niveaux de fécondité. La fécondité faible s'étend par mimétisme aux adultes avec une fécondité élevée. Lorsque le coefficient de mimétisme augmente, la population traverse deux seuils. Entre ces deux seuils, la population croît ou décroît exponentiellement avec un mélange stable des deux fécondités. Cette transition démographique partielle s'observe dans certains pays d'Afrique subsaharienne.
L’objectif de ce travail est d’utiliser l’approche héirarchique d’extraction des informations dans le CV pour en extraire les compétences. L’approche d’extraction des compétences proposée s’effectue en deux grandes phases : une phase de segmentation du CV en sections classées suivant leurs contenus et à partir desquelles les termes représentant les compétences (compétences de bases) sont extraits; et une phase de prédiction qui consiste à partir des caractéristiques extraites précédemment, à prédire un ensemble de compétences qu’un expert aurait déduites, et que ces compétences ne seraient pas nécessairement mentionnées dans le CV (compétences implicites). Les principales contributions de ce travail sont : l’utilisation de l’approche hiérarchique de segmentation du CV en sections pour extraire les compétences dans le CV; l’amélioration de la l’approche de segmentation des CV; enfin, l’utilisation de l’approche binary relevance de classification multi-label pour prédire les compétences implicites du CV. Les expérimentations effectuées sur un jeu de CVs collectés sur Internet ont montré une amélioration de la précision de l’identification des blocs de plus de 10% comparé à un modèle de l’état de l’art. Aussi, le modèle de prédiction multi-label des compétences, permet de retrouver la liste des compétences avec une précision et un rappel respectivement de l’ordre de 90,5% et 92,3%.
Cet article présente une application de l’approche de modélisation multi-échelle à base d’agent en s’appuyant sur un modèle spécifique (NMDC) pour décrire et modéliser une classe de problèmes environnementaux. Le modèle NMDC permet à l’expert du domaine de décrire le domaine d’application sous-jacent en termes de concepts environnementaux et ne nécessite pas de compétences techniques spécifiques, ni de détails de mise en oeuvre. Nous montrons comment l’outil TiC (Tool-in-Context) associé développé à partir du modèle NMDC peut aider l’expert du domaine à décrire dans un langage naturel (spécifique) le problème environnemental. Cette description est la base pour l’outil TiC de générer un outil de simulation. A travers cet outil, nous transformons le langage spécifique en code multi-agents NetLogo, facilitant ainsi un premier prototype de l’application pouvant être utilisé par l’expert de domaine. Enfin, nous appliquons cette approche pour expliquer et analyser le processus de déforestation autour de la réserve forestière de Laf et discuter du prototype résultant de notre approche.
Ce papier porte sur l'analyse de sensibilité topologique pour un opérateur parabolique. On considère le problème de Stokes instationnaire comme un exemple de modèle et on donne une étude de sensibilité décrivant le comportement asymptotique de l'opérateur relativement à une petite perturbation géométrique du domaine. L'analyse présentée est basée sur une estimation du champ de vitesse calculée dans le domaine perturbé. Les résultats de cette étude ont servi de base pour développer un algorithme d'identification géométrique. Pour la validation de notre approche, on donne une étude numérique pour un problème d'optimisation d'emplacement des injecteurs dans un lac eutrophe. Des exemples numériques montrent l'efficacité de la méthode proposée
On s'intéresse à la probabilité d'extinction d'un processus linéaire de naissance et de mort avec plusieurs types dans un environnement périodique dans la limite d'une période très grande. Cette probabilité dépend de la saison et peut présenter à la limite une discontinuité en lien avec un canard dans un système dynamique lent-rapide. On détermine précisément le point de discontinuité dans un exemple avec deux types d'individus provenant d'un modèle de transmission d'une maladie à vecteurs.
L' article montre comment tirer parti de la présence de linéarité dans un problème d'optimisation et proposer une solution à faible complexité pour une optimisation robuste ainsi que la propagation rétrograde des incertitudes avec un faible coût calculatoire.
Graph algorithms have inherent characteristics, including data-driven computations and poor locality. These characteristics expose graph algorithms to several challenges, because most well studied (parallel) abstractions and implementation are not suitable for them. In our previous work [21, 22, 24], we show how to use some complex-network properties, including community structure and heterogeneity of node degree, to improve performance, by a proper memory management (Cn-order) and an appropriate thread scheduling (comm-deg-scheduling). In recent work [23], Besta et al. proposed log(graph), a graph representation that outperforms existing graph compression algorithms. In this paper, we show that our graph numbering heuristic and our scheduling heuristics can be improved when they are combined with log(graph) data structure. Experiments were made on multi-core machines. For example, on one node of a multi-core machine (Troll from Grid'5000), we showed that when combining our previously proposed heuristics with graph compression, with Pagerank being executing on Live Journal dataset, we can reduce with cn-order: cache-references from 29.94% (without compression) to 39.56% (with compression), cache-misses from 37.87% to 51.90% and hence time from 18.93% to 28.66%.