Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.

Les systèmes de détection d’intrusion (IDS), dans les réseaux véhiculaires sans fil (VANETs), sont chargés d’analyser les trafics de paquets entrants et sortants afin d’identifier des signatures malicieuses. Cependant, sans prise de décision, ils ne sont d’aucune utilité.

Le but de notre travail est de concevoir un protocole de routage d’informations de sécurité pour les VANETs. Notre étude se base sur deux approches d’IDS. Dans la première, les IDS sont installés sur les véhicules, alors que dans la seconde, ils sont installés sur les infrastructures routières (RSU). Dans les deux approches, les véhicules sont regroupés en fonction de leurs vitesses. Si un véhicule souhaite communiquer, il doit faire partie d’un cluster et doit connaître la tête du cluster. Dans le cas contraire, l’algorithme de clusterisation s’initialise et l’élection de la tête du cluster s’amorce. Ce dernier a la charge de transmettre les paquets à l’interne du cluster, vers les clusters voisins et vers le RSU. Quand un IDS détecte une attaque, l’information et le type d’attaque utilisé seront diffusés aux clusters voisins. Quand l'un de ces derniers reçoit l’information, il met en place une politique de sécurité (exemple: ajustement des valeurs de confiance des nouveaux véhicules dans le cluster). Le protocole s’amorce si l’attaque détectée est corroborée. La corroboration s'appuie sur un modèle probabiliste de calcul de ratio entre les véhicules ayant répondu à la signature de l'attaque.



Plus de 500 millions de messages sont publiés quotidiennement sur Twitter. Les entreprises et les consommateurs interagissent et sont connectés entre eux comme l’illustrent autant le marketing viral que les comportements moutonniers. Notre hypothèse est que les conversations sur les réseaux sociaux peuvent ajouter de l’information à l’information financière déjà disponible.

La recherche s’appuie sur des bases de données répertoriant l’évolution de la popularité sur Twitter de l’ensemble des compagnies du S&P500. De plus, tous les messages publiés avant l’ouverture des marchés ont été conservés afin d’en extraire les informations dans une seconde base de données. La méthodologie employée s’appuit sur des modèles économétriques (probit).

En termes de résultats, l’utilisation de données massives non structurées apporte un complément d’information pour obtenir une meilleure mesure du risque des actifs financiers. De plus, l’extraction, le filtrage et l’analyse des messages publiés sur Twitter avant l’ouverture des marchés offre un levier décisionnel supplémentaire aux investisseurs.

L’originalité de la recherche réside dans l’étendue des bases de données, étant la seule recherche à notre connaissance couvrant l’ensemble des compagnies du S&P500 et leur présence sur Twitter. De plus, l’application des modèles économétriques permet de traiter de manière robuste ces données massives générées en temps réel.

Fouiller manuellement la littérature biomédicale est une tâche incontournable pour analyser les études publiées sur un sujet donné. Les experts réalisant cette tâche doivent identifier, au sein de corpora très volumineux, les rares documents pertinents traitant d'une question de recherche précise. Pour aider les chercheurs dans cette tâche exigeante et chronophage, nous proposons une approche automatique basée sur des méthodes d'apprentissage supervisé. Le très faible nombre de documents pertinents présents dans les corpora de référence, ainsi que la spécificité de ces documents, constituent les principales difficultés associées à ce triage automatique. Notre système identifie automatiquement les documents pertinents parmi une liste extraite de PubMed, la base de données de référence pour la littérature biomédicale. En utilisant des méthodes d'échantillonnage de données et de sélection de caractéristiques, nous avons évalué plus de 100 modèles de classification automatique. Les meilleurs performances ont été obtenues par un classifieur à base d'arbres de décision entraîné sur un corpus équilibré. Nos résultats indiquent que le système identifie la plupart des documents pertinents. Très utile aux chercheurs pour trier rapidement un grand nombre de documents, notre approche est également très flexible et peut être aisément adaptée à d'autres thèmes d'étude. Pour faciliter son utilisation, notre système est un logiciel libre disponible sous licence MIT.


Les universités canadiennes forment plus de 1,5 million d’étudiants dont environ 8% proviennent des seize universités du Canada atlantique. Selon l’Association des Universités et Collèges du Canada (AUCC), les retombées économiques de l’activité de ce secteur sont considérables et se chiffrent à  30 milliards de dollars par année pour le Canada. Or, l’Association des Universités de l’Atlantique (AAU) a révélé une diminution des inscriptions étudiantes dans la plupart des universités de l’atlantique Canadien, et ce durant les deux dernières années. Ceci pourrait menacer le fonctionnement de certaines d’entre elles.Ce constat nous a amené à rechercher les causes d’une telle diminution en prenant comme exemple l’Université de Moncton. Même si les causes de la diminution sont multiples, nous nous sommes intéressés uniquement à celles reliées à l’utilisation des technologies de l’information dans les compagnes de recrutement étudiant. Ainsi, nous avons d’abord analysé l’existant en observant les moyens disponibles utilisés par l’Université de Moncton pour l’approche et le suivi des élèves dans les écoles secondaires de la province du Nouveau-Brunswick. Ce qui a permis de noter des insuffisances et des corrections susceptibles d’être apportées. Ensuite, nous avons mis en place un système intégré pour la gestion et le suivi des futures étudiantes et étudiants de l’Université. Le système est un ensemble d’outils dotés d’une banque de données et d’une capacité d’aide à la décision.

Ce projet de recherche propose une approche novatrice pour l'estimation de la direction d'arrivée (DoA) en utilisant une seule antenne se déplaçant le long d'une trajectoire curviligne pour créer un réseau d'antennes virtuelles (VAA). Contrairement aux méthodes traditionnelles comme l'algorithme MUSIC, qui repose généralement sur des réseaux d'antennes fixes, notre technique exploite le mouvement de l'antenne pour simuler l'effet d’un réseau multiélément. Cela permet une estimation précise de la DoA dans des scénarios où le déploiement de grands réseaux d'antennes est peu pratique. Les simulations valident la performance de cette méthode dans des mouvements uniformes et curvilignes, démontrant sa robustesse et son exactitude. Cette approche réduit considérablement les besoins en matériel tout en maintenant une grande précision, ce qui la rend adaptée à des environnements dynamiques et contraints en ressources.

La mesure objective de la douleur d’une personne atteinte de la fibromyalgie (FM) représente un défi puisque la symptomatologie chez ces personnes est caractérisée par de douleurs diffuses, persistantes, amoindrissant leurs capacités fonctionnelles. Jusqu’à ce jour, des études en imagerie cérébrale fonctionnelle utilisant l’électroencéphalogramme (EEG) se sont essentiellement concentrées sur l’analyse spectrale, fondée sur l’hypothèse de stationnarité des signaux. Cependant, l’EEG est un signal non-périodique, non-stationnaire où l’information de la douleur peut contenir des paramètres pertinents changeant dans le temps. Par conséquent, nous proposons l’application d’un algorithme permettant de déterminer un indice pouvant être lié à la douleur et à la performance à la tâche à l’aide des polynômes de Tchebychev. Ainsi, nous émettons l’hypothèse que la douleur musculosquelettique et la performance à la tâche seraient en lien avec l’énergie provenant de l’EEG. Cet algorithme, capable de détecter les paramètres des processus non-stationnaires, calcule un indice permettant d’inférer sur la douleur musculosquelettique pendant la tâche. L’efficacité de notre approche a été évaluée sur quatre participants atteints de la FM et quatre participants sains. Les résultats préliminaires montrent que les pointes d’énergie apparaissant dans le temps pourraient être corrélées avec un indice d’une douleur généralisée et de performance à la tâche bimanuelle chez les personnes atteintes de la FM

Les modélisateurs rencontrent différents types d'incertitude dans leurs conceptions et modèles de systèmes logiciels. L'un de ces types concerne l'incertitude sur la manière de construire un modèle. C'est ce qu'on appelle '' l'incertitude au moment de la conception '', et les recherches existantes ont étudié comment les modélisateurs peuvent travailler en sa présence. Cependant, le processus par lequel ils en viennent à articuler et à exprimer leurs incertitudes reste flou.

Dans cet article, nous prenons des mesures pour combler cette lacune en introduisant DRUIDE (Design and Requirements Uncertainty Integrated Development Environment), un langage et un flux de travail pour articuler l'incertitude au moment de la conception. Nous présentons et illustrons notre proposition sur un exemple de conception de logiciel. De plus, nous menons une étude de cas réelle d'analyse de domaine liée à l'incertitude causée par la pandémie de COVID-19, et évaluons DRUIDE avec elle. Notre évaluation montre que DRUIDE est suffisamment expressif pour articuler l'incertitude du moment de la conception.

La robotique constitue certainement le défi le plus extraordinaire que devra relever le monde scientifique dans les vingt prochaines années. La notion de « robot » comprend une multitude de catégories allant des humanoïdes aux drones en passant par ce qu’on surnomme également les bioniques. Mais surtout, la robotique comprend l’étude et l’utilisation de l’intelligence artificielle. Cela induit la construction de machines capables de s’adapter à leur environnement tout en montrant de réelles capacités d’auto-apprentissage. Autrefois considéré comme une chimère, l’hypothèse de robots policiers ou à l’inverse de robots-tueurs prend de plus en plus d’épaisseur. En effet, malgré la fiabilité de certains algorithmes ainsi que la vigilance des programmeurs, le contrôle de certains robots dotés d’intelligence artificielle pourrait devenir plus aléatoire. Eu égard à l’ensemble de ces considérations, plusieurs questions méritent donc d’être posées. Tout d’abord, ces robots peuvent-ils constituer de véritables instruments préventifs et dissuasifs permettant de lutter contre la criminalité ? Ensuite, comment devrait-on réagir sur le terrain de la responsabilité pénale, face à des robots qui seraient auteurs de crimes ?

L’ensemble de ces interrogations nous pousse à nous inscrire dans une forme d’analyse prospective où nous étudierons l’impact que pourrait avoir l’utilisation de robots dotés d’intelligence artificielle sur la prévention du crime ainsi que sur la responsabilité pénale.

 

Résumé: Ordinateur quantique, cryptographie quantique et mémoire magnétique, toutes ces avancées technologiques découlent de la physique quantique et de la notion de spin. Mais qu’est-ce qu’un spin? Le spin est une propriété fondamentale des particules élémentaires. Les particules élémentaires sont des particules qui forment la matière autour de nous, par exemple l’électron. Celui-ci orbite autour d’un noyau d’atomes et son spin lui permet de se comporter tel un petit aimant qui suit le champ magnétique produit par l’atome. Le spin de l’électron est fixe et peut avoir une valeur de +1/2 ou -1/2. L’existence de deux états permet à l’électron de se superposer et de produire des états inaccessibles classiquement.

La conception d’un régulateur de tension CMOS pour amplificateurs de type RFIC GaAs HBT comporte des défis. Avec une faible consommation de courant et à bas voltage, il doit être capable de fournir un courant de 20 mA, tout en restant insensible aux perturbations RF. La structure "Recycled Folded-cascode" (RFC) permet un fonctionnement à basse tension avec de bonnes performances, mais ne répond pas entièrement à cette problématique.

Cette communication propose une version améliorée de la structure RFC qui, grâce aux  modifications illustrées à la figure jointe, constitue une solution adaptée à cette problématique.  La méthodologie employée est présentée à travers des résultats de simulations avec un signal d’excitation RF à 1.88 GHz et de puissance 20 dBm, ainsi qu’une charge émulant le comportement d'un transistor GaAs HBT. L’effet perturbateur du à l’infiltration du signal RF dans les circuits de polarisation à travers l’inductance d’isolation a été étudié.

Alimentée à 1.8 V, la structure RFC améliorée consomme un courant de polarisation ramené de 800 µA à 135 µA. Employée dans une configuration de rétroaction, elle assure la régulation de tension à 1.4 V, pour un courant de charge allant jusqu’à 20 mA. La technique de désensibilisation appliquée contre les perturbations RF permet de réduire la chute de tension de sortie par 80 mV, pour rétablir une régulation à 97%. Elle permet d’utiliser une inductance d’isolation aussi faible que 8 nH, favorisant l’intégration sur puce.

L'algorithme de Viterbi est habituellement utilisé dans les systèmes de reconnaissance de la parole pour la recherche du meilleur chemin dans le graphe de reconnaissance.  L'espace de recherche étant immense, l'arbre de recherche doit être élagué afin de garder seulement les hypothèses les plus prometteuses.  Cependant, cette approche a pour effet de déstructurer les accès mémoire, ce qui conduit à une mauvaise utilisation de l'architecture de la mémoire sur les processeurs multi-coeurs et graphiques (GPUs).


Nous allons décrire comment nous avons utilisé l'algorithme de recherche A* afin de diminuer considérablement le temps de recherche dans le graphe grâce à l'utilisation d'un graphe de reconnaissance simplifié comme heuristique.  Ce graphe, beaucoup plus petit, permet une recherche exhaustive qui utilise plus efficacement les architectures mémoire des processeurs Intel et GPUs. La recherche elle même (7% du temps de calcul total) ne pouvant pas être parallélisée efficacement, est demeurée séquentielle. Le calcul de l'heuristique, sur un processeur 4 coeurs est 4.1 fois plus rapide que la version séquentielle sur un seul coeur tandis que sur un GPU, le facteur d'accélération est de 12x. Nos expériences, sur une application temps réel, montre que notre système parallèle (les probabilités acoustiques sur GPU) nous permet d'augmenter la précision de 4% absolu par rapport au système basé sur l'algorithme de Viterbi séquentiel. 

L’énergie éolienne représente aujourd’hui une source d’énergie verte qui joue un rôle important dans le domaine de l’énergie électrique. Les éoliennes  situées dans des zones de climat froid sont affectées par le phénomène de givrage. L’accrétion de glace sur les pales, et l’infiltration du froid dans la structure sont à l’origine de pannes et d’usures prématurées. Un fonctionnement avec une forte accumulation de glace peut endommager l’éolienne et représenter un danger pour la sécurité à cause des jets de glace. Ces effets peuvent diminuer considérablement la production, et être responsable de l’arrêt complet de l’éolienne, élevant les dommages à plusieurs millions de dollars.

La détection et la mesure de la glace est devenu un souci majeur pour les fabricants et les exploitants. Les systèmes actuels ne sont pas capables de fonctionner de manière fiable dans des conditions extrêmes. Dans ce travail, deux approches basées sur la vision artificielle ont été développées et expérimentées sur des images d’éoliennes. La première utilise la forme du mât comme référence. La quantité de glace accumulée est la différence entre la largeur du mât sans glace et la largeur avec glace. La deuxième méthode mesure le profil givré sur la pale de l’éolienne. Dans les deux cas, l’image doit être rectifiée pour annuler la perspective et effectuer la mesure. Les résultats obtenus se comparent avantageusement aux mesures manuelles et démontrent le potentiel des solutions proposés.

Le projet TECTONIQ étudie les dispositifs numériques mis en place par les différents acteurs impliqués pour gérer, diffuser et échanger les informations relatives au Patrimoine Industriel Textile (PIT) sur le territoire du Nord – Pas-de-Calais. Dans les travaux présentés, nous définissons tout d’abord notre domaine d’étude, à savoir le patrimoine numérique lié à l’industrie textile, en nous appuyant notamment sur les définitions de l’UNESCO et du comité TICCIH (UNESCO, 2008 ; TICCIH, 2003). Nous proposons ensuite une méthode hybride, c’est-à-dire une approche qualitative combinée à une approche quantitative semi-automatisée, afin de dresser une cartographie des acteurs du patrimoine nous permettant d’identifier les sources existantes de documents numériques hétérogènes. Une cartographie du Web du réseau d’acteurs du patrimoine de l’industrie textile organisé par type (patrimoine patrimonialisé en rouge et patrimoine vivant en bleu) résultante de l'approche est présentée en annexe. L'ensemble des résultats est disponible sur le site suivant : http://ekergosien.net/Tectoniq. L’objectif du projet à terme étant de construire une base de connaissances qui structure et relie entre elles l’ensemble de ces données en respectant les normes définies pour le Web sémantique, nous justifions notre choix d’utiliser le modèle sémantique CIDOC CRM et nous présentons un extrait d’une première ontologie produite manuellement à partir d’un extrait du jeu de documents collecté.

Les nouvelles technologies sont une avenue prometteuse pour le maintien à domicile des personnes avec des troubles cognitifs. Au laboratoire DOMUS, plusieurs outils d’assistance ont été développés pour faciliter la prise de rendez-vous, le téléphone à des proches et l’assistance pas à pas d’activités. Ces outils sont adaptés suivant la clientèle. Les prototypes sont conçus selon une approche centrée utilisateur avec une conception itérative et des études d’utilisabilité fréquentes. Ajoutés aux résultats de ces études, les chercheurs cliniciens évaluent l’impact de l’utilisation de ces outils sur l’autonomie. Il devient donc indispensable de concevoir un environnement d’administration des données de recherche.

But: Concevoir un environnement pour la conception, l’utilisation et l’évaluation de l’utilisation des outils d’assistance.

Méthodologie : L’environnement de recherche sera bâti à partir des RCP. Pour chaque outil, il contiendra ses interfaces et les sujets l’ayant testé. Ceux-ci sont décrits par leurs préférences, la fréquence d’utilisation et les erreurs commises (physiques: appui à côté du bouton ou cognitives: aller-retour avant d’atteindre l’objectif).

Résultat : Une application a été implantée pour décrire les clients : les données personnelles anonymisées ou non et leurs traces d’utilisation.

Retombée: cet environnement intégrera d'autres outils d’assistance et permettra aux cliniciens d’analyser l'utilisation de toutes les technologies fournies.

Les soins à domicile (SAD) améliorent les conditions de vie des patients grâce à des soins médicaux, paramédicaux et services sociaux à domicile. Leur planification est étudiée en recherche opérationnelle afin d’optimiser les conditions de travail des soignants et, par conséquent, la qualité des soins offerts. Plusieurs contraintes doivent être considérées telles que la charge de travail, la qualification des soignants ou le routage. La recherche est principalement axée sur deux aspects : la représentation du problème et la proposition d’une méthode de résolution adaptée. Toutefois, les données utilisées dans la littérature sont généralement spécifiques aux problématiques étudiées en plus d’être confidentielles. Dans cette communication, nous présentons la réalisation d’un objectif clé à notre recherche : l’élaboration d’un jeu de données. Ce dernier est indispensable à la validation de notre modèle et à la conception d’une méthode de résolution. Il comporte plusieurs combinaisons de contraintes spécifiques aux SAD qui, jusqu’à présent, ont été traitées séparément dans la littérature. Le jeu de données proposé se base sur des connaissances métiers propres à la région du Saguenay mais aussi sur des probabilités issues de communications scientifiques médicales. En plus des contraintes générales, il offre la possibilité de considérer la continuité dans les soins ou l’interdépendance des soins. Sa complexité peut aussi varier selon le nombre de soignants et leurs qualifications.

Le développement d’un modèle pharmacophore se fait généralement à partir d’un ensemble de composés biologiquement actifs pour une cible pharmaceutique donnée. Cette hypothèse pharmacophore doit ensuite être optimisée et validée par la qualité et la quantité de nouvelles molécules biologiquement actives trouvées à partir de recherches dans des banques de données de molécules ayant des propriétés pharmaceutiques. En 1998, Güner & Henry ont publié un chapitre de livre sur une nouvelle formule pour optimiser les hypothèses pharmacophores : le GH score. Cette dernière a été utilisée depuis plusieurs années pour évaluer la qualité de ces recherches dans les banques de données. Toutefois cette formule présente certaines limites, car elle ne prend pas en considération les composées inactifs connus. Dans cette présentation, nous proposons donc une formule optimisée : le score AE. Pour ce faire, nous avons ajouté un nouveau facteur qui permet d’évaluer la proportion de composés inactifs connus. Nous avons ensuite appliqué des coefficients à chaque facteur de cette formule soit le rendement, le pourcentage d’actifs et le pourcentage d’inactifs. Les meilleures listes de composés sont trouvées par l’optimisation de ces trois facteurs. Ces coefficients ont été testés sur les résultats de différentes recherches puisés dans la littérature. Nous aurons l’occasion de justifier les paramètres de cette nouvelle formule (ci-dessous) lors de cette présentation.

L’implantation des systèmes intelligence d’affaires (BI) occupe un intérêt important auprès des chefs d’entreprises qui possèdent une culture analytique des données. Cela leur permettra de prendre les meilleures décisions en temps opportun et de gagner un avantage concurrentiel majeur dans le marché. Bien que dans la littérature SI souvent les études de cas sont réalisées soit dans un contexte nord-américain ou européen, mais rares dans un contexte africain et plus particulièrement algérien. Le BI en Algérie, c’est un terme qui existe depuis au moins une dizaine d’années, mais négligé par plusieurs entreprises. En effet, l’Algérie éprouve plusieurs difficultés en matière de l’intelligence d’affaires telles que l’accès aux sources de données, manque de la culture de partage d’information, etc. Dans notre recherche, nous présenterons des résultats préliminaires visant à comprendre les barrières et les facilitateurs d’implantation des systèmes BI dans le contexte algérien. Cela a pour but de comprendre les réalités qui existent dans ce contexte. Pour répondre à notre questionnement, nous allons nous baser sur une méthodologie qualitative de type «étude de cas» et nous recueillerons nos données à travers des entrevues semi-dirigées. Nous croyons que notre recherche pourrait apporter une contribution pertinente. Cela aidera les entreprises qui voudraient, à l’avenir, implanter des systèmes BI à comprendre la réalité de BI dans le contexte nord-africain et particulièrement algérien

Le modèle de mélange gaussien est un modèle probabiliste très utilisé dans de nombreux domaines, notamment la segmentation d'images, la reconnaissance de formes, l'apprentissage automatique, etc. Les mélanges de gaussiens (MdG), en tant que somme pondérée de plusieurs fonctions gaussiennes, sont utiles en raison du fait que le nombre de paramètres utilisés est très faible et en raison de leur flexibilité pour modéliser des distributions dont les formes paramétriques sont inconnues.

Malheureusement, plus le nombre de composants dans le mélange est élevé, plus la probabilité des données est élevée, mais également plus la charge de calcul et le sur-ajustement des données sont élevés. Ainsi, il y a eu un intérêt grandissant pour les algorithmes de réduction de MdG qui se basent sur la fusion de gaussiennes tout en préservant la structure du mélange initial. Pour fusionner deux MdG, on mesure la différence entre les deux à l'aide de divers types de divergences disponibles ou de mesures de distance. Cependant, toutes les divergences ne sont pas également utiles pour le MdG car la plupart des divergences connues, y compris la divergence de Kullback-Leibler, ne donnent pas une expression analytique en forme fermée pour un MdG. La plupart des travaux existants se basent sur une approximation de la divergence Kullback-Leibler. Dans ce travail, nous présentons un algorithme de réduction de MdG basé sur la divergence de Cauchy-Schwarz pour la segmentation d’images de mélanome.

La scoliose idiopathique adolescente (SIA) est une déformation de la colonne vertébrale qui affecte 1% de la population. Les patients atteints de SIA sont suivis périodiquement en clinique d’orthopédie du CHU Sainte-Justine. Une base de données a été conçue pour informatiser les données recueillies. Or, la consultation de la base de données s’effectue sur un poste de travail, peu adapté à une utilisation clinique. L'utilisation d'une application mobile faciliterait le travail des cliniciens en rendant plus convivial l'accès à la base de données. L’objectif de ce projet de recherche est de présenter l’analyse, la conception et l’implémentation d’un système permettant aux orthopédistes de consulter un dossier médical sur la plateforme iOS d’Apple (Cupertino, É.U.). Le processus de développement logiciel Rational Universal Process a été utilisé pour modéliser le système. L’analyse et l’identification des exigences fonctionnelles et non fonctionnelles ont permis de bien identifier les besoins cliniques. Les comportements statiques et dynamiques du système furent modélisés avec le langage UML. La phase de développement a permis de réaliser une application iPad en utilisant le langage Objective-C. La recherche d’un dossier est réalisée selon des critères médicaux ou nominaux sur les patients, incluant une visualisation interactive des radiographies. Le prototype a été validé avec un chirurgien orthopédiste et le déploiement sur iPad est planifié prochainement en clinique.

La détection de copie audio peut être utilisée dans plusieurs applications comme la détection de copie frauduleuse d'oeuvres musicales ou la détection de publicités afin de s'assurer que les publicités d'une entreprise sont diffusées tel que stipulé dans le contrat.  Nous avons développé un système de détection de copie dans le cadre de l'évaluation TRECVID.  Pour cette évaluation, nous avions une base de données de 385 heures audio qui était notre référence.  La tâche consistait à retrouver des fichiers audio transformés de 7 façons différentes, dont 3 pour lesquels de la parole avait été ajoutée à l'audio rendant le processus beaucoup plus difficile.  Nous avons développé un algorithme en deux phases.  La première phase permet d'éliminer rapidement les candidats les plus faibles.  La deuxième phase permet de raffiner les résultats et demande le calcul d'une empreinte beaucoup plus lente à calculer mais beaucoup plus précise.  Pour pouvoir l'utilisé en pratique, nous avons implanté ce calcul sur un processeur graphique (GPU).  La version GPU est de 80 à 200 fois plus rapide que sur un CPU avec un seul coeur.  L'accélération dépend des applications et varie selon la taille des audios à évaluer et celle de la base de données. Le taux de détection est supérieur à 99% pour les 4 premières transformations et de 94% pour les 3 plus complexes.

En vidéo-surveillance, la capacité de détecter et de suivre une cible en temps réel représente un objectif important pour garantir la sécurité d’un périmètre dans des zones sensibles. De plus, avoir la possibilité de suivre l’objectif en temps réel et obtenir sa position en 3D peut s’avérer une information d’un intérêt capital pour le personnel de sécurité. Ce travail présente un système de suivi 3D et en temps réel basé sur la stéréovision. Le système de caméras stéréo est positionné sur une plateforme Pan-Tilt pour permettre le suivi en continu de la cible détectée. La technique des filtres à particules est utilisée pour le suivi. Une approche de reconnaissance des formes permet de garder le focus sur la cible d'intérêt. La position 3D de la cible par rapport au référentiel du système stéréo est calculée en utilisant des techniques de reconstruction 3D. Cette position permet de suivre la position de la cible sur une carte en temps réel (une carte Google Maps a été utilisée). Les résultats expérimentais menées dans des scènes externes montrent l'efficacité de l'approche proposée.

Le design comme domaine de recherche attire dans son sillage des projets de nature fort variée dont la recherche-intervention (RI) est l'une des formes de plus en plus courantes. Au-delà des caractéristiques particulières de ce mode d'investigation d'un point de vue méthodologique, la RI suppose un encadrement particulier des assistants de recherche recrutés parmi les bassins d'étudiants en design. Dans cette présentation, nous considérons la recherche notamment comme une activité intégrée de formation des étudiants qui y participent. Dans le contexte particulier du design, cette situation constitue un défi de taille pour les responsables de la recherche dans la mesure où ils doivent exercer une triple supervision. D’abord, ils doivent veiller à la bonne exécution des outils et méthodes propres au protocole de recherche inhérent à la RI. L’étudiant est alors installé dans un processus de formation à la recherche. Ensuite, ils doivent les superviser en tant que designers (quelle que soit la spécialité convoquée) de manière à ce que les livrables au cœur de la RI soit conçus et produits au moins en partie à la satisfaction du commanditaire de la recherche. Enfin, les responsables doivent superviser le déroulement de la recherche entre les diverses équipes et dans le respect des échéanciers et des diverses contraintes logistiques.​

Valider une nouvelle approche dans le domaine du génie logiciel est toujours considérée comme une activité pernicieuse pour n’importe quel chercheur œuvrant dans ce domaine. Dans cette communication nous visons à mettre en lumière les défis rencontrés, en tant que chercheur, lors de la validation de l’approche et l’outil BScrum.
BScrum est une nouvelle approche de gestion des exigences logicielles basée sur les buts d’affaires dans un contexte de gestion de projets agiles. Elle vise à améliorer la perspective d’affaires dans les projets agiles basés sur Scrum. Pour valider BScrum, un protocole d’étude de cas a été élaboré et appliqué dans des projets réels en entreprise. Dans cette communication, nous allons d’abord présenter Scrum, le cadre de travail agile et l’approche BScrum qui vise à l’améliorer. Ensuite, les étapes menées pour l’élaboration du protocole de validation et la conception du questionnaire seront présentés. Puis, nous présenterons  les défis rencontrés et les limites de l’approche de validation utilisée lors de la conduite des études de cas en entreprise. Finalement, les résultats de la conduite des études de cas et les leçons apprises seront exposés à l’audience.

Le cloud computing représente le plus grand changement dans l'industrie informatique et peut révolutionner la façon dont les entreprises exercent leurs activités. Ce paradigme informatique offre des avantages mais aussi d'inconvénients. Une des préoccupations des utilisateurs du cloud réside dans la sécurité en raison de sa dépendance à Internet dans sa nature et des ressources informatiques dispersées généralement localisées sur des serveurs de stockage répartis.La littérature a discuté de cette question, mais pas de manière exhaustive, surtout quand on regarde dans une perspective différente. Nous proposons un modèle de déploiement de cloud répondant aux préoccupations de sécurité des utilisateurs en traitant des facteurs inhabituels qui entravent l'adoption du cloud dans les pays en développement, en particulier ceux présentant un déficit  énergétique comme dans la plus part des pays africains. Les coupures souvent observées dans les pays africains nous ont poussé de réfléchir sur un modèle de déploiement de cloud pouvant garantir la disponibilité des serveurs même en cas de coupure d’où nous avons proposé un modèle permettant la reprise sans perte lors du rétablissement de la connexion.Un diagnostic de sécurité des causes profondes du cloud sera également effectué dans cet article en révélant des menaces tangibles et intangibles au stockage de données, à l'accès et au matériel hébergé dans l'environnement informatique en nuage.

La formation à distance nécessite l'emploi d'outils informatiques, notamment des systèmes de gestion d'apprentissage (Learning Manage System ou LMS). Les jeux sérieux (jeux vidéo mélangeant aspect pédagogique et aspect ludique) représentent un outil informatique pouvant être utilisé par les enseignants et développé pour leurs besoins précis. Cependant, l'intégration des jeux sérieux aux LMS peut poser des problèmes de compatibilité. De plus, les avancés en intelligence artificielle incitent à prendre en compte un domaine comme l'apprentissage adaptatif (qui consiste à proposer un enseignement personnalisé au niveau du contenu ou des activités), complexifiant les outils informatiques. Au final, nous proposons un jeu sérieux adaptatif dont les résultats du joueur-apprenant peuvent être importés dans un LMS comme Moodle. Un tuteur "intelligent" est intégré au jeu sérieux adaptatif afin de guider le joueur-apprenant.