Volume 42 - Numéro spécial CRI 2023 - 2024/2025

Le Colloque de Recherche en Informatique est la plus importance conférence scientifique en Informatique au Cameroun depuis sa création en 2013. Il regroupe tous les deux ans plus de deux cents chercheurs, enseignants-chercheurs et professionnels de l’Informatique au Cameroun pour discuter des enjeux, défis, opportunités, risques et présenter les innovations et résultats scientifiques dans ce domaine. La sixième édition du Colloque de Recherche en Informatique CRI’2023 (http://cri-info.cm) s’est tenu les 12 et 13 décembre 2023 au Département d’Informatique de la Faculté des Sciences de l’Université de Yaoundé I en traitant les problématiques d’apprentissage artificielle, de fouille de données, d’optimisation combinatoire et du traitement automatique du langage naturel et de la parole.


1. Deux Schémas de Stéganographie Textuelles basés sur le codage des couleurs.

Juvet Karnel Sadie ; Leonel Moyou Metcheka ; René Ndoundam.
La stéganographie textuelle est un mécanisme permettant de cacher un message secret dans un texte. Dans ce papier, nous proposons un schéma stéganographique basé sur le codage de couleurs. Ce schéma comprend deux méthodes différentes : la première, basée sur les permutations et la seconde, basée sur les systèmes de numération. Etant donné un message secret et un texte de couverture, les méthodes proposées cachent le message secret dans le texte de couverture en le coloriant. Le stégo-texte est ensuite envoyé au destinataire par mail. Après expérimentations, les résultats obtenus montrent que nos modèles proposent un meilleure capacité d'embarquement par rapport au schéma d'Aruna Malik et al. sur laquelle repose notre idée.

2. Prise en compte du temps et des catégories d'item dans l'estimation des influences sociales implicites pour l'amélioration des systèmes de recommandation basés sur la confiance.

Armel Jacques Nzekon Nzeko'o ; Hamza Adamou ; Thomas Messi Nguele ; Bleriot Pagnaul Betndam Tchamba.
De nos jours, les plateformes d’e-commerce, de streaming et de réseaux sociaux jouent un rôle important dans notre quotidien. Cependant, l’ajout toujours croissant d’éléments sur ces plateformes (articles sur Amazon, vidéos sur Netflix et YouTube, publications sur Facebook et Instagram) rend difficile pour les utilisateurs de sélectionner les éléments qui les intéressent. L'intégration de systèmes de recommandation dans ces plateformes vise à proposer à chaque utilisateur une petite liste d'éléments correspondant à ses préférences. Pour améliorer les performances de ces systèmes de recommandation, certains travaux de la littérature intègrent une confiance explicite ou implicite entre les utilisateurs de la plateforme via des systèmes de recommandation basés sur la confiance. En effet, nombre de ces travaux reposent sur une confiance explicite, lorsque chaque utilisateur désigne ceux en qui il a confiance dans la plateforme. Mais ces informations sont rares sur la plupart des plateformes du monde réel. Ainsi, d'autres travaux proposent d'estimer la confiance implicite que chaque utilisateur peut accorder à un autre. Cependant, les travaux qui estiment la confiance implicite ne prennent pas en compte la dynamique temporelle des actions passées des utilisateurs et encore moins le fait qu'un utilisateur peut en influencer un autre sur une catégorie d'item et pas sur une autre. Dans cet article, nous proposons des […]

3. Un nouvel algorithme hybride basé sur l'optimisation des colonies de fourmis et les réseaux neuronaux récurrents avec un mécanisme d'attention pour résoudre le problème du voyageur de commerce

Mathurin Soh ; Anderson Nguetoum Likeufack.
Dans cet article, nous proposons une approche hybride pour résoudre le problème du voyageur de commerce symétrique. L'approche proposée combine l'algorithme des colonies de fourmis (ACO) avec des réseaux neuronaux basés sur le mécanisme d'attention. L'idée est d'utiliser la capacité prédictive des réseaux neuronaux pour guider le comportement des fourmis dans le choix des prochaines villes à visiter et d'utiliser les résultats de la prédiction de ces dernières pour mettre à jour la matrice de phéromones, améliorant ainsi la qualité des solutions obtenues. Concrètement, l'attention est portée sur les villes les plus prometteuses en tenant compte à la fois des informations de distance et de phéromone grâce au mécanisme d'attention qui permet d'attribuer des poids à chaque ville en fonction de son degré de pertinence. Ces poids sont ensuite utilisés pour prédire les prochaines villes à visiter pour chaque ville. Résultats expérimentaux sur des instancesTSP de la bibliothèque TSPLIB démontrent que cette approche hybride est meilleure que l'ACO classique.

4. Analyse des toux COVID-19 : De la forme la plus légère à la plus sévère, une classification réaliste par apprentissage profond

Fabien Moffo ; Auguste Noumsi Woguia ; Joseph Mvogo Ngono ; Samuel Bowong.
La toux est le symptôme le plus courant des maladies pulmonaires. Le COVID-19, une maladie respiratoire, a provoqué plus de 700 millions de cas positifs et 7 millions de décès dans le monde. Un outil de diagnostic efficace, abordable et largement disponible est essentiel pour lutter contre les maladies pulmonaires et la pandémie de COVID-19. Des algorithmes d'apprentissage profond et d'apprentissage automatique pourraient être utilisés pour analyser les bruits de toux des patients infectés et faire des prédictions. Notre laboratoire de recherche et le laboratoire de recherche COUGHVID fournissent les données sur la toux. Cette approche diagnostique peut distinguer les bruits de toux des patients atteints de COVID-19 et des personnes souffrant d'autres maladies ainsi que des personnes en bonne santé en utilisant l'apprentissage profond et l'extraction de caractéristiques à partir des spectrogrammes de Mel. Le modèle utilisé est une variante de ConvNet. Ce modèle ConvNet peut facilement capturer les caractéristiques des vecteurs MFCC et permettre le parallélisme de convolution, ce qui augmente la vitesse de traitement. ConvNet atteint l'invariance translationnelle des caractéristiques grâce au partage des poids entre les couches. Lors de l'acquisition des données pour l'entraînement du modèle, il est important de prendre en compte les environnements calmes pour réduire les erreurs de qualité audio. […]

5. Parallelization of Recurrent Neural Network training algorithm with implicit aggregation on multi-core architectures

Thomas Messi Nguelé ; Armel Jacques Nzekon Nzeko'o ; Damase Donald Onana.
Recent work has shown that deep learning algorithms are efficient for various tasks, whether in Natural Language Processing (NLP) or in Computer Vision (CV). One of the particularities of these algorithms is that they are so efficient as the amount of data used is large. However, sequential execution of these algorithms on large amounts of data can take a very long time. In this paper, we consider the problem of training Recurrent Neural Network (RNN) for hate (aggressive) messages detection task. We first compared the sequential execution of three variants of RNN, we have shown that Long Short Time Memory (LSTM) provides better metric performance, but implies more important execution time in comparison with Gated Recurrent Unit (GRU) and standard RNN. To have both good metric performance and reduced execution time, we proceeded to a parallel implementation of the training algorithms. We proposed a parallel algorithm based on an implicit aggregation strategy in comparison to the existing approach which is based on a strategy with an aggregation function. We have shown that the convergence of this proposed parallel algorithm is close to that of the sequential algorithm. The experimental results on an 32-core machine at 1.5 GHz and 62 Go of RAM show that better results are obtained with the parallelization strategy that we proposed. For example, with an LSTM on a dataset having more than 100k comments, we obtained an f-measure of 0.922 and a speedup of 7 with our approach, […]

6. Apprentissage auto-supervisé et multilingue appliqué au Wolof, au Swahili et au Fongbe

Prestilien Djionang Pindoh ; Paulin Melatagia Yonta.
Les langues sous-dotées rencontrent d'importants obstacles en reconnaissance vocale en raison du manque de ressources et de la disponibilité limitée des données, ce qui freine leur développement et leur adoption à grande échelle. Cet article présente un modèle d'apprentissage de représentations qui s'appuie sur des cadres existants basés sur des techniques d'apprentissage auto-supervisé — en particulier le Contrastive Predictive Coding (CPC), wav2vec, et une variante bidirectionnelle du CPC — en les intégrant à des approches d'apprentissage multilingue. Nous appliquons ce modèle à trois langues africaines : le wolof, le swahili et le fongbe. L'évaluation des représentations obtenues dans une tâche en aval, la reconnaissance automatique de la parole, en utilisant une architecture similaire à DeepSpeech, montre la capacité du modèle à discerner des caractéristiques linguistiques propres à chaque langue. Les résultats démontrent des performances prometteuses, avec des taux d'erreur de mots (WER) de 61 % pour le fongbe, 72 % pour le wolof et 88 % pour le swahili. Ces résultats soulignent le potentiel de notre approche pour faire progresser les capacités de reconnaissance vocale des langues sous-dotées, en particulier dans le contexte linguistique africain.

7. Application du modèle de représentation acoustique multilingue XLSR pour la transcription de l'Ewondo

Nzeuhang Yannick Yomie ; Yonta Paulin Melatagia ; Lecouteux Benjamin.
Les modèles auto-supervisés récemment popularisés apparaissent comme une solution au problème de la faible disponibilité des données grâce à un transfert d'apprentissage parcimonieux. Nous étudions l'efficacité de ces modèles acoustiques multilingues, en l'occurrence wav2vec 2.0 XLSR-53 et wav2vec 2.0 XLSR-128, pour la tâche de transcription de la langue Ewondo (parlée au Cameroun). Les expériences ont été menées sur 11 minutes de discours construits à partir de 103 phrases lues. Malgré une forte capacité de généralisation du modèle acoustique multilingue, les résultats préliminaires montrent que la distance entre les langues intégrées dans le XLSR (anglais, français, espagnol, allemand, mandarin, . . .) et l'ewondo a un impact important sur la performance du modèle de transcription. Les performances les plus élevées obtenues sont de l'ordre de 69% pour le WER et de 28.1% pour le CER. Une analyse de ces résultats préliminaires est effectuée et interprétée afin de proposer des pistes d'amélioration efficaces.