Imprimer

210 - Technologie de l'information et des communications

Du lundi 6 au mercredi 8 mai 2013

L’un des enjeux majeurs des technologies de l’information et des communications (TIC) est l’intégration des technologies nouvelles et émergentes dans les diverses sphères d’activité de la société. Si l’utilisation des TIC s’est accélérée au cours des dernières années, chaque nouveau développement apporte sont lot de défis du point de vue de la gestion ou de l’acceptation sociale. Les applications des TIC vont des sciences de la gestion à la muséologie, en passant par les arts de la scène, sans compter les sciences exactes et l’ingénierie. Cette utilisation universelle des TIC s’accompagne d’une demande de plus en plus grande des ressources de traitement des données et de télécommunications. Des recherches intensives sont donc en cours afin d’améliorer les systèmes existants. De même, à mesure que la capacité des systèmes augmente, de nouvelles applications des TIC surgissent, augmentant ainsi la demande pour des services de plus en plus performants.





Lire la suite »
Domaine
Section 200 - Sciences naturelles, mathématiques et génie
Responsables
UQAM - Université du Québec à Montréal
Ajouter à mon horaire
Afficher tous les résumés
Avant-midi
09 h 00 à 12 h 00
Communications orales
Les communications durent 15 minutes chacune. Au cours de la session, il y aura une pause et une période de questions. Les présidents de sessions pourront revoir l’ordre des communications avant la session.
Gestion, sciences humaines et sciences sociales et technologies de l'information et des communications
1
L’usine du savoir : un modèle de référence pour une infrastructure de la gestion des connaissances de l’entreprise
Daniel Fitzpatrick (ÉTS - École de technologie supérieure)

Au fil des années, des stratégies en intelligence d’affaires ont permis aux entreprises d’emmagasiner leurs données dans des entrepôts de données, transformer ces données en information et les rendre disponibles pour fins de consommation via les comptoirs de données. L’usine du savoir servira d’infrastructure de la gestion des connaissances de l’entreprise en emmagasinant, transformant, canalisant et produisant des connaissances en temps opportun d’une manière transversale favorisant la réutilisation du savoir de l'entreprise.

L’intégration des données, informations et des connaissances de l’entreprise demeure un secteur très actif de la recherche scientifique. Les entreprises éprouvent d’importants problèmes à implémenter des méthodes et l’infrastructure requise afin de pouvoir permettre les échanges entre les systèmes de l’entreprise. Le protocole de recherche qualitatif de ce projet comprend un ensemble d’entrevues de semi-structurées en vue d’induire des patrons de solutions sémantiques provenant des connaissances et du savoir-faire de praticiens chevronnés intervenant dans l’industrie et, de chercheurs du milieu universitaire. Ce projet permet d’allier les forces particulières, à la fois, des milieux académiques et de l’industrie. Les résultats de la recherche qui seront présentés comporteront le modèle de référence, les fonctions du modèle ainsi que des cas d’usage qui aideront l’auditoire à comprendre le fonctionnement du modèle ainsi que son utilité.  

Résumé
2
De la maïeutique appliquée à la construction d'une mémoire d'entreprise
Michel Héon (Cotechnoe), Élisabeth CAMUS

En gestion des connaissances
(GC), la construction d’une mémoire d’entreprise (ontologie, base de
connaissances, etc.) passe par une étape de captation de la connaissance détenue
par les personnes en lien avec l’organisation (employé, client ou fournisseur).
La captation est une activité stressante car elle se déroule souvent dans un
contexte organisationnel en déséquilibre, qu’il s’agisse de restructuration ou parfois
de tensions entre employés et l’employeur, etc. Ces situations influencent
nécessairement l’état émotionnel du connaissant freinant l’accès à son savoir. Dès
lors, la captation de la connaissance devient un enjeu qui nécessite de considérer
le connaissant dans son entièreté : intellectuelle et émotionnelle.

Parallèlement au développement du
concept d’ontologie (discours portant sur l’essence des choses), les Grecs
anciens développèrent le concept de maïeutique
(du grec maieutikê) qui, selon
Platon, est l’art qu’utilise Socrate pour faire accoucher de son interlocuteur,
la connaissance qu’il sait (la connaissance explicite) mais surtout, la
connaissance qu’il ne sait pas qu’il sait (la connaissance tacite). Alors que l’élicitation
place le modèle de connaissances au centre du processus de captation, la
maïeutique, elle, y place le connaissant, permettant ainsi d’en considérer
l’état émotionnel.

L’exposé permettra de définir les
composants procéduraux, les acteurs et les instruments de la maïeutique
appliquée à la GC. La définition sera appuyée une étude de cas.

Résumé
3
Vers une méthodologie de modélisation semi-automatisée des processus de compensation des processus d'affaires de longue durée
Anis Boubaker (UQAM - Université du Québec à Montréal), Hafedh MILI

Typiquement, un processus d’affaires s’exécute sur plusieurs heures ou plusieurs jours, implique plusieurs acteurs et comprend plusieurs points d’erreurs. Lors de son exécution, le processus produit des effets qui dépassent le cadre du système d’information de sorte qu’il ne soit pas possible, en cas d’erreur, de les renverser tels que des transactions dans une base de données. Ainsi, nous devons mener des activités qui visent à renverser sémantiquement les effets du processus : c’est ce qui est appelé la compensation.

La tâche d’identification des différents points d’erreurs dans un processus d’affaires et la modélisation des processus de compensation correspondants est une activité complexe, sujette à l’erreur et qui monopolise l’essentiel de l’effort de modélisation. Dans cette tâche, aucune aide n’est fournie aux l’analystes qui, par conséquent, relèguent la compensation aux détails d'implémentation.

Les travaux ayant porté sur la compensation se sont concentrés sur des aspects techniques de coordination et de structures des langages. Nous soutenons que la compensation est avant tout un problème métier et devrait donc être traitée sous cet angle. Nous proposons, dans cette communication, une approche métier visant à assister l’analyste dans l’identification des activités de compensation et dans la modélisation des processus de compensation d’un processus d’affaires en nous basant sur une analyse métier des processus encadrée par l’ontologie d’affaires​​ REA.

Résumé
4
Construction et enrichissement de ressources linguistiques à partir de Wikipédia
Fatiha Sadat (UQAM - Université du Québec à Montréal)

Ce projet de recherche concerne l’exploitation de  wikipédia comme étant une ressource semi-structurée de connaissances linguistiques et en particulier comme étant un corpus comparable, pour l'extraction de terminologie bilingue.

L'approche tend à extraire d’abord des paires de terme et traduction à partir de types des informations, liens et textes de Wikipédia. Une deuxième approche basée sur l’information linguistique, afin de ré-ordonner les termes et leurs traductions pertinentes et ainsi éliminer les termes cibles inutiles, est utilisée.

Les évaluations préliminaires utilisant les paires de langues français-anglais, japonais-français et japonais-anglais ont montré une bonne qualité des paires de termes extraits. Cette étude est très favorable pour la construction et l’enrichissement des ressources linguistiques tels que les dictionnaires et ontologies multilingues. Aussi, elle est très utile pour un système de recherche d’information translinguistique (RIT) ainsi que pour améliorer la qualité d'un traducteur automatique statistique.

Résumé
5
Les politiques publiques des TIC : entre paradigme « techno-économique » et « techno-social »
Ping Huang (École des Sciences de la Gestion (ESG) - UQAM )

Les TIC se voient attribuer un rôle de levier dans le développement des territoires, non seulement par ses usages dans les secteurs d’activité ayant caractéristique « intérêts publics », mais aussi par son potentiel d’accélérateur du développement économique. Cette constatation interpelle les décideurs politiques qui font face à plusieurs options. Le but de cette communication est d’identifier et d’analyser les politiques canadiennes visant l’accès des TIC aux collectivités locales. Nous nous concentrerons particulièrement sur celles qui visent à donner les moyens aux groupes défavorisés de se connecter aux réseaux numériques et de réduire la fracture numérique. Quels sont les dispositifs politiques mis en œuvre pour permettre aux communautés exclues de s’adapter aux nouveaux enjeux soulevés par la généralisation des usages des TIC ? Nous procédons à une analyse historique et évolutive, sur la période allant entre l’émergence de politiques publiques jusqu’à l’année 2011. Le thème numérique reste l’un des objectifs les plus importants des gouvernements fédéral et provincial, mais avec un penchant en faveur des dimensions économiques. Les gouvernements sont conscients des écarts entre les territoires connectés et ceux qui ne le sont pas et cherchent à combler cette disparité. Cependant, les méthodes adoptées ne parviennent toujours pas à améliorer la situation de l’infopauvreté à laquelle fait face une partie importante de la population.

 



Résumé
6
La téléphonie mobile : les facteurs d’influence de l’utilisation d’un téléphone cellulaire au Cameroun
Gérard Fillion (Université de Moncton), Pierre Damien MVUYEKURE , Aurélia Nicole NGUEJO , Jean-Pierre BOOTO EKIONEA

Le téléphone cellulaire est utilisé à des fins professionnelles depuis de nombreuses années, particulièrement par les gestionnaires seniors au travail. Et cette technologie est de plus en plus employée au travail depuis qu’une panoplie d’applications mobiles a été intégrée aux stratégies d’affaires de l’entreprise. L’adoption individuelle de la technologie a été largement étudiée dans le secteur du travail, mais elle l’a été beaucoup moins à la maison. De ce fait, peu d’études ont été menées jusqu’à présent pour vérifier la satisfaction des gens à la maison de l’utilisation d'un téléphone cellulaire. L’objectif de cette étude est donc de vérifier quels sont les facteurs d’influence de l’utilisation d’un téléphone cellulaire chez les Camerounais. Pour guider l’étude, un modèle de recherche de type « modérateur » a été développé, duquel 8 hypothèses ont été formulées. La méthodologie utilisée pour mener l’étude est le sondage en personne. Plus de 500 Camerounais possédant un téléphone cellulaire ont été choisis aléatoirement dans les deux principales villes du Cameroun pour former l’échantillon. L’analyse des données a été faite à l’aide de la modélisation d’équation structurale avec le logiciel Partial Least Squares (PLS). Les résultats révèlent que la moitié des variables examinées dans l’étude ont montré être des facteurs déterminants de l’usage d’un téléphone cellulaire par les Camerounais. De plus, la plupart des hypothèses de recherche formulées ont été vérifiées.  

Résumé
09 h 00 à 12 h 00
Communications orales
Les communications durent 15 minutes chacune. Au cours de la session, il y aura une pause et une période de questions. Les présidents de sessions pourront revoir l’ordre des communications avant la session.
Technologie de l'information et des communications : nouvelles avancées technologiques
1
Premier temps de passage d'un mouvement brownien à travers une courbe déterministe
Imène Allab (UQAM - Université du Québec à Montréal), Francois WATIER

En utilisant des approximations locales, par le biais de ponts browniens et de courbes de Daniels, nous proposons un nouvel algorithme de simulation permettant d'estimer la densité du premier temps de passage d'un mouvement brownien à travers une frontière évoluant dans le temps. Nous effectuerons des études comparatives avec des méthodes existantes afin d'établir l'efficacité de notre approche. Enfin, nous appliquerons nos résultats dans le contexte d'un problème de gestion de portefeuilles.

Résumé
2
Protocole de routage d’information de sécurité dans les réseaux VANET
Romain Coussement (UQTR - Université du Québec à Trois-Rivières), Boucif AMAR BENSABER , Ismaïl Biskri (UQTR - Université du Québec à Trois-Rivières)

Les systèmes de détection d’intrusion (IDS), dans les réseaux véhiculaires sans fil (VANETs), sont chargés d’analyser les trafics de paquets entrants et sortants afin d’identifier des signatures malicieuses. Cependant, sans prise de décision, ils ne sont d’aucune utilité.

Le but de notre travail est de concevoir un protocole de routage d’informations de sécurité pour les VANETs. Notre étude se base sur deux approches d’IDS. Dans la première, les IDS sont installés sur les véhicules, alors que dans la seconde, ils sont installés sur les infrastructures routières (RSU). Dans les deux approches, les véhicules sont regroupés en fonction de leurs vitesses. Si un véhicule souhaite communiquer, il doit faire partie d’un cluster et doit connaître la tête du cluster. Dans le cas contraire, l’algorithme de clusterisation s’initialise et l’élection de la tête du cluster s’amorce. Ce dernier a la charge de transmettre les paquets à l’interne du cluster, vers les clusters voisins et vers le RSU. Quand un IDS détecte une attaque, l’information et le type d’attaque utilisé seront diffusés aux clusters voisins. Quand l'un de ces derniers reçoit l’information, il met en place une politique de sécurité (exemple: ajustement des valeurs de confiance des nouveaux véhicules dans le cluster). Le protocole s’amorce si l’attaque détectée est corroborée. La corroboration s'appuie sur un modèle probabiliste de calcul de ratio entre les véhicules ayant répondu à la signature de l'attaque.



Résumé
3
Protocole de sécurité basé sur le changement périodique des pseudonymes de communication dans les VANETs
Adetundji ADIGUN (UQTR - Université du Québec à Trois-Rivières), Boucif AMAR BENSABER , Ismaïl Biskri (UQTR - Université du Québec à Trois-Rivières)

Les informations diffusées dans les réseaux véhiculaires sans fil (VANETs) peuvent être vulnérables aux attaques en absence de mesures de sécurité adéquates. Pour remédier à ce problème, nous proposons un protocole de sécurité qui permet aux véhicules de changer leurs pseudonymes de communication dans un même intervalle de temps. Ce protocole gère d’une part l’authentification, la confidentialité et d’autre part l’anonymat des différents véhicules qui communiquent à travers le réseau afin d’éviter la traçabilité de ces derniers.

Le modèle proposé repose sur l’utilisation des plages de vitesses autorisées sur les routes, la distribution équidistante des autorités centrales (CA) ainsi que la cryptographie asymétrique basée sur les courbes elliptiques. Les résultats de notre travail serviront dans un premier temps à analyser l’impact du changement des pseudonymes de communication sur le réseau en termes de temps et de mémoire, puis à estimer la durée exacte des pseudonymes de communication en vue de leur exploitation maximale. Enfin, nous en déduirons la distribution optimale des CA sur la route afin d’avoir une meilleure communication véhicule – infrastructure.

Résumé
4
Architectures parallèles en reconnaissance de la parole
Patrick Cardinal (CRIM - Centre de recherche appliquée en technologies de l’information), Gilles BOULIANNE

L'algorithme de Viterbi est habituellement utilisé dans les systèmes de reconnaissance de la parole pour la recherche du meilleur chemin dans le graphe de reconnaissance.  L'espace de recherche étant immense, l'arbre de recherche doit être élagué afin de garder seulement les hypothèses les plus prometteuses.  Cependant, cette approche a pour effet de déstructurer les accès mémoire, ce qui conduit à une mauvaise utilisation de l'architecture de la mémoire sur les processeurs multi-coeurs et graphiques (GPUs).


Nous allons décrire comment nous avons utilisé l'algorithme de recherche A* afin de diminuer considérablement le temps de recherche dans le graphe grâce à l'utilisation d'un graphe de reconnaissance simplifié comme heuristique.  Ce graphe, beaucoup plus petit, permet une recherche exhaustive qui utilise plus efficacement les architectures mémoire des processeurs Intel et GPUs. La recherche elle même (7% du temps de calcul total) ne pouvant pas être parallélisée efficacement, est demeurée séquentielle. Le calcul de l'heuristique, sur un processeur 4 coeurs est 4.1 fois plus rapide que la version séquentielle sur un seul coeur tandis que sur un GPU, le facteur d'accélération est de 12x. Nos expériences, sur une application temps réel, montre que notre système parallèle (les probabilités acoustiques sur GPU) nous permet d'augmenter la précision de 4% absolu par rapport au système basé sur l'algorithme de Viterbi séquentiel. 

Résumé
5
Une approche basée sur le raisonnement à partir de cas pour gérer les feux de circulation
François Vaudrin (Université Laval), Laurence Capus (Université Laval)

Malgré près d'un siècle de recherche sur la théorie de la circulation, les problèmes de congestion routière sont de plus en plus importants notamment à cause de l'augmentation du nombre de véhicules sur les routes. Une façon de limiter les congestions consiste à coordonner les feux de circulation routière, action ayant aussi des impacts importants sur les délais d’attente, les risques d’accidents et la consommation inutile de carburant. Pourtant, près de la moitié des feux de circulation aux États-Unis – probablement aussi au Canada – ne sont pas mis à jour régulièrement. La programmation des feux de circulation est un processus d'optimisation complexe, long et coûteux. Il est difficile de programmer ces systèmes en temps réel ou quasi-réel. Nous proposons une alternative basée sur le raisonnement à partir de cas pour contourner ce problème. Pour chaque situation problématique, il existe théoriquement une solution satisfaisante pour améliorer la situation. Si la solution a été satisfaisante, il y a de fortes chances qu’elle soit à nouveau satisfaisante dans des conditions similaires. L'idée est donc d’identifier des situations problématiques, de proposer une solution pour chaque problème et de l'appliquer au moment opportun. Il existe peu de recherches similaires dans le domaine de la gestion des feux de circulation. Nous présenterons cette approche originale de manière globale et sa pertinence face aux travaux du domaine.



Résumé
6
Détection de copie basée sur les caractéristiques audio
Patrick Cardinal (CRIM - Centre de recherche appliquée en technologies de l’information), Vishwa GUPTA , Gilles BOULIANNE

La détection de copie audio peut être utilisée dans plusieurs applications comme la détection de copie frauduleuse d'oeuvres musicales ou la détection de publicités afin de s'assurer que les publicités d'une entreprise sont diffusées tel que stipulé dans le contrat.  Nous avons développé un système de détection de copie dans le cadre de l'évaluation TRECVID.  Pour cette évaluation, nous avions une base de données de 385 heures audio qui était notre référence.  La tâche consistait à retrouver des fichiers audio transformés de 7 façons différentes, dont 3 pour lesquels de la parole avait été ajoutée à l'audio rendant le processus beaucoup plus difficile.  Nous avons développé un algorithme en deux phases.  La première phase permet d'éliminer rapidement les candidats les plus faibles.  La deuxième phase permet de raffiner les résultats et demande le calcul d'une empreinte beaucoup plus lente à calculer mais beaucoup plus précise.  Pour pouvoir l'utilisé en pratique, nous avons implanté ce calcul sur un processeur graphique (GPU).  La version GPU est de 80 à 200 fois plus rapide que sur un CPU avec un seul coeur.  L'accélération dépend des applications et varie selon la taille des audios à évaluer et celle de la base de données. Le taux de détection est supérieur à 99% pour les 4 premières transformations et de 94% pour les 3 plus complexes.

Résumé
Afficher tous les résumés
Avant-midi
10 h 00 à 13 h 00
Communications par affiches
Session d'affiches
1
Un habitat intelligent qui reconnaît les activités inscrites dans un calendrier
Pierre-Yves Nivollet (UdeS - Université de Sherbrooke), Yannick ADELISE , Hélène PIGOT

Contexte

Inscrire des activités dans un calendrier n’assure pas que celles-ci seront réalisées. Le laboratoire DOMUS a conçu un calendrier intelligent, AMELIS, qui offre le rappel automatique des activités inscrites sans savoir si celles-ci sont accomplies. La prochaine étape est donc de connecter AMELIS à un habitat intelligent pour suivre les activités inscrites et s’assurer de leur réalisation.

Méthodologie

Il faut sélectionner un algorithme de reconnaissance d’activités parmi différents algorithmes de data mining fonctionnant avec apprentissage. La sélection est basée sur leur efficacité en fonction du nombre de capteurs dans l'appartement et des activités à reconnaître. Des tests effectués sur un jeu de données provenant de capteurs du laboratoire nous ont permis de sélectionner trois algorithmes : le premier est un algorithme de simple association entre les capteurs de l’appartement et une activité, le deuxième est un algorithme basé sur les réseaux bayésiens, et enfin le dernier est un algorithme de clustering basé sur les mixtures de gaussiennes.

Ils sont utilisés par un programme qui communique avec AMELIS pour savoir quelles sont les activités à reconnaître sur une plage horaire précise.

Résultats

Le dernier algorithme est le plus efficace, mais ne fonctionne qu’avec un nombre restreint de capteurs. Le deuxième algorithme est moins efficace mais offre une reconnaissance plus fine car il utilise tous les capteurs. Enfin, la méthode par simple association a été rejettée.

Résumé
2
Priorisation des dispositifs d’assistance cognitive dans une résidence pour personnes avec traumatisme craniocérébral
Marc Henri Chevalaz (UdeS - Université de Sherbrooke), Hélène PIGOT , Mélanie LEVASSEUR , Mélanie COUTURE , Jacinthe BEAUREGARD , Nathalie BIER , Sylvain GIROUX , Bonnie SWAINE , Pierre-Yves THERRIAULT

Pour répondre aux besoins de personnes victimes d'un traumatisme craniocérébral ne pouvant demeurer à domicile, le Centre de réadaptation de l'Estrie propose une Résidence alternative de 10 personnes.

Le but du projet est d’identifier les solutions technologiques les mieux adaptées aux besoins et aux attentes des résidents, pour les implanter dans la résidence alternative. Lors d’une étape préliminaire, les besoins et attentes des résidents ont été identifiés et priorisés. 

Lors de la première étape, nous avons effectué une revue de littérature systématique pour identifier l’ensemble des solutions technologiques existantes. Nous avons fait des recherches dans les banques de données du domaine technologique et clinique et nous sommes concentrés sur la compensation des troubles cognitifs.

La deuxième étape consiste à sélectionner les solutions technologiques implantables à la résidence, parmi les 55 solutions sélectionnées. Pour cela, nous avons d’abord identifié les critères de sélection regroupés en 5 thèmes (réponse aux besoins, ergonomie, techniques, disponibilité, support, éthique).  Ensuite, chaque technologie a été pondérée selon une grille d’évaluation afin d’établir un ordre d’importance et de priorisation. 

La méthode rigoureuse de sélection de ces technologies présentée ici permet d’une part de combler les besoins spécifiques des résidents et d’autre part de fournir à la communauté scientifique une méthodologie rigoureuse de sélection. 

Résumé
3
Comment publier sur le web sémantique : la méthode de Bio2RDF
François Belleau (CHUQ - Centre hospitalier universitaire de Québec)

Cette affiche présente la méthode et les techniques propres au web sémantique, utilisées dans le cadre du projet Bio2RDF pour créer une base de données intégrée sur les bases de données publiques du domaine de la bioinformatique.

Comment transformer des données existantes en RDF ? Comment les publier à l'aide d'un point d'accès SPARQL ?  Comment consommer des données RDF disponible sur le web ? Trois questions fondamentales auxquelles on offre comme réponse les fruits de notre expérience dans le cadre du projet Bio2RDF.

Référence: http://bio2rdf.org

L'affiche sera une version française et améliorée du poster

http://fr.slideshare.net/fbelleau/producing-publishing-and-consuming-linked-data-three-lessons-from-the-bio2rdf-project

Résumé
4
Enchères combinatoires pour l’approvisionnement des services de transport routier à charge pleine
Intissar Ben Othmane (Université Laval), Monia REKIK , Sehl Mellouli (Université Laval)

Le transport de marchandises constitue une composante importante dans l’économie. Dans le transport TL (Truck Load), un nombre croissant d'expéditeurs ont profité des ventes aux enchères combinatoires pour économiser leurs coûts. Les acteurs de l’enchère combinatoire de transport étant, un expéditeur qui lance un appel d’offre pour les routes qu’il veut vendre à l’enchère, les transporteurs qui vont participer en donnant leurs mises (une mise contient les routes désirés et le prix correspondant) et un commissaire-priseur  qui représente l'expéditeur et qui résout le problème de détermination des gagnants (WDP : Winner Determination Problem).

De nombreuses études ont montré l'importance de considérer d'autres attributs  que le prix dans la résolution de WDP. Ainsi, le cadre de WDP est élargi et la décision des gagnants n’est pas basée seulement sur les prix des mises mais également sur les attributs de qualité de service. Ceci est dans le cadre d’une enchère unilatérale (un seul expéditeur et plusieurs transporteurs). Par ailleurs, plusieurs études ont montré que les enchères multilatérales (plusieurs expéditeurs et plusieurs transporteurs)  présentent beaucoup plus d’avantage que les enchères unilatérales. Notre étude consiste à considérer un contexte d’enchère de transport TL multilatéral dans lequel nous présentons une conception d’une méthode itérative et intégrée de mécanisme d'enchère  combinatoire multilatérale basée sur la réputation.

Résumé
5
Étude et implantation des systèmes de communication dans les systèmes sur puce (SoCs et SoPCs)
Salah Toumi (Université d'Alger), Kamel MESSAOUDI (Université Mohamed Chérif Messaadia de Souk Ahras), El Bey BOURENNANE , Amira YAHI

La minimisation du temps de transfert des données, entre la mémoire et les blocs de calcul dans les algorithmes de traitement des images, reste un problème major pour assurer un temps réel, surtout avec des algorithmes qui utilisent de plus en plus des données parallèles. Le choix du système de communication dépend des composants constituant le système et surtout du processeur utilisé. Ce choix va influer considérablement sur les caractéristiques du système global. Dans ce papier, nous présentons les résultats de synthèse d’un système sur puce à base de processeur MicroBlaze de Xilinx avec un accélérateur matériel pour le traitement vidéo adapté à l’aide d’une interface spéciale. Ces résultats montrent que le système de communication utilise 2,15% des slices registres, 2,56% des LUTs et 4,68% des BRAMs en utilisant le circuit FPGA Vitrex5 LX110T de Xilinx.Nous avons montré l’importance du choix du système de communication dans un système sur puce ainsi que le taux d’utilisation de ce système sur un circuit FPGA. Les résultats de synthèse montrent que les différents taux sont importants surtout avec l’utilisation des adaptateurs de bus pour les accélérateurs matériels. Nous avons ainsi montré les résultats de synthèse du bus CoreConnect dans un système à base de processeur MicroBlaze de Xilinx. Nous avons aussi ajouté au système un accélérateur de traitement de vidéo à l’aide d’une interface PLB-IPIF à base de FIFOs.

Résumé
6
La perception de la capacité d’absorption sur le développement du capital humain : le contexte d’un projet ERP open source
Balla Diop (Université Laval), Sidi mahmoud aidara Mbibi (Université Laval), Daniel PASCOT , Louis-Claude BANAG

Plusieurs entreprises implantent des systèmes ERP pour la gestion de l'organisation et des informations. Les systèmes ERP étaient particulièrement implantés par les grandes entreprises à raison de leurs coûts d'acquisition élevés. Cependant, depuis l’émergence des ERP open source, les PME adoptent massivement ces applications qui sont développées par les communautés open source. D'après la littérature, l'implantation d'un système ERP, l'un des systèmes d'information les plus complexes, est un processus intensif de transfert de connaissances entre le personnel de l'entreprise et les sources externes de connaissances. Dans le contexte d’un projet ERP open source, les connaissances pouvant être transférées peuvent être plus grandes parce qu’elles sont produites par les communautés open source et que leur accès est libre. Afin d'exploiter efficacement les ressources de connaissances, les entreprises doivent être en mesure d'absorber de nouvelles connaissances et de les appliquer. La littérature soutient que l’avantage concurrentiel d'une entreprise repose sur les ressources de connaissances de ses employés, autrement dit, de son capital humain organisationnel. Les recherches sur les systèmes ERP open source sont rares, car ils sont un phénomène contemporain. L’objectif de ce papier est de proposer un modèle théorique conceptualisant l'effet de la capacité d'absorption des utilisateurs sur le développement du capital  humain organisationnel dans le contexte d'ERP open source.

Résumé