Imprimer

11 - Le calcul informatique de pointe pour l’avancement des connaissances et l’innovation

Le lundi 8 mai 2017

Ce colloque porte sur l’importance du calcul informatique de pointe (CIP) pour le Québec. Dans des domaines comme la dynamique des fluides, la physique ou la chimie numérique, le CIP joue un rôle prépondérant depuis plusieurs décennies et permet par exemple de concevoir des avions plus silencieux et économes. L’utilisation du CIP s’est cependant fortement diversifiée dans les dernières années. On l’utilise pour assurer l’efficacité énergétique de nos entreprises ou encore pour mieux comprendre la diversité des interactions entre les espèces et leurs relations complexes avec l’environnement. En santé, le développement de médicaments s’est grandement accéléré grâce à la modélisation et à la simulation de la dynamique des interactions moléculaires alors que le décodage du génome ouvre la porte à une future médecine personnalisée. En sciences humaines et sociales, on l’utilise pour comprendre les mécanismes de la perception de l’environnement acoustique, pour préparer des archives et des bibliothèques musicales ou pour procéder à l’analyse de textes à grande échelle. Finalement, un autre secteur où le CIP joue un rôle grandissant est l’exploration et l’exploitation de vastes banques de données numériques, que ce soit pour l’étude des médias sociaux ou pour la prise de décision en temps réel. Plusieurs des thèmes mentionnés ci-dessus feront l’objet de présentations lors de notre colloque.

Nous aurons également deux tables rondes qui permettront de discuter du rôle du CIP en dehors des sphères universitaires. Les thèmes abordés sont : les ressources de calcul informatique de pointe et la formation : un enjeu pour le Québec et l’entrepreneuriat de demain : l’innovation et le numérique. Ces tables rondes seront suivies par une session d’affiches où les étudiants faisant appel aux ressources de Calcul Québec présenteront leurs travaux.

Lire la suite »
Colloque
Enjeux de la recherche
Responsables
Université Laval
UdeM - Université de Montréal
UQAM - Université du Québec à Montréal
Université Concordia
Paul Charbonneau
Nikolas Provatas
Université McGill
Ajouter à mon horaire
Afficher tous les résumés
Avant-midi
09 h 00 à 12 h 30
Communications orales
Utilisations du calcul informatique de pointe pour l’avancement des connaissances
Batiment : (OM) OTTO MAASS
Local : (OM) 217
09 h 00
Mot de bienvenue
09 h 15
Accélérer les découvertes en écologie
Timothée Poisot (UdeM - Université de Montréal)

Le Canada est l'un des pays pour lequel les effets des changements globaux vont être les plus sévères. En plus des modifications de température qui vont modifier les cycles bioégogchimiques, des espèces venues du sud vont se déplacer vers le nord. À l'heure actuelle, il est difficile de fournir des scénarios réalistes sur les conséquences de ces modifications. La collecte de nouvelle données prend trop de temps pour être la seule réponse envisagée afin de générer des prédictions. Il est donc nécessaire que l'écologie embrasse pleinement son côté le plus quantitatif: la synthèse de données à grande échelle, et le mise en place de modèles prédictifs, vont permettre d'appréhender les risques qu'il faudra contrôler dans les 10 années à venir. En plus d'être un défi technique, cela représente un défi culturel: il va falloir former une génération d'écologistes et de biologistes qui soient à leur aise sur le terrain et face à des ordinateurs.

Résumé
09 h 45
Applications du calcul à haute performance : de l’atmosphère du Soleil à la qualité de l’air au Canada
Cassandra Bolduc (Environnement Canada)

Je discuterai de mon parcours afin d'illustrer l'importance du calcul à haute performance au sein de diverses organisations, de la flexibilité qu'offre une telle formation aux futurs travailleurs, ainsi que des répercussions positives générées pour la population en général.

Je décrirai l'utilité du calcul de pointe pour le milieu de la recherche académique telle que je l'ai expérimentée durant mes études supérieures à l'Université de Montréal et pendant mon projet de recherche post-doctoral dans un institut privé en Suisse, durant lesquels mes travaux ont porté sur la physique solaire. Dans ce cas, la modélisation numérique permet de créer une situation expérimentale qui ne nous est pas accessible autrement. C'est une composante essentielle pour améliorer nos connaissances en sciences fondamentales.

Cette formation m'ayant permis de décrocher un poste à Environnement Canada, je discuterai plus en détails de l'importance du calcul à haute performance en modélisation de l'atmosphère. En effet, cette application influence directement la vie des citoyens. Les prédictions météorologiques numériques, par exemple, constituent un résultat qui est largement utilisé et qui influence des décisions importantes sur une base quotidienne. J'expliquerai comment le travail de l'équipe dont je fais partie constitue la base de l'élaboration de réglementations en matière de pollution atmosphérique et de leur impact positif sur la qualité de l'air.

Résumé
10 h 15
Le calcul informatique de pointe au service de la génomique et de la médecine personnalisée
Marie-Pierre Dubé (Institut de cardiologie de Montréal)
10 h 45
Pause
11 h 00
Les humanités numériques : un défi informatique
Jean-Guy Meunier (UQAM - Université du Québec à Montréal)

Les sciences humaines, les arts et les lettres introduisent de plus en plus l’informatique dans leurs pratiques. S’ouvre maintenant un nouveau champ de recherche :  les Humanités numériques. L’informatique y rencontre de nouveaux défis : originalités et complexités des objets à traiter, ampleur des données et des méthodes utilisées, variétés de l’expertise des utilisateurs, modalités originales de diffusion, etc. Les formes classiques de calculs numériques et symboliques doivent  constamment confronter la dynamique interprétative inhérente à ce type de savoir. Une immense variété de projets illustre la vitalité de ce champs de recherche où calculabilité et non-calculabilité doivent se rencontrer.

Résumé
11 h 30
Modélisation numérique de la clairance mucociliaire : vers un poumon numérique
Sébastien PONCET (UdeS - Université de Sherbrooke)

L’objectif est de construire un outil de simulation numérique pour l’étude d’écoulements biologiques dans le système respiratoire humain, afin de progresser dans la compréhension de maladies respiratoires chroniques comme l’asthme sévère qui touche 300 millions de personnes à l’échelle mondiale. Il s’agit de développer une approche pionnière permettant de simuler ce problème multi-échelle servant d’outil prédictif pour le milieu médical. L’échelle microscopique se situe au niveau de l’épithélium bronchique, dont certaines cellules sont pourvues de cils micrométriques qui battent de manière synchronisée pour transporter le mucus. L’échelle macroscopique liée à l’arbre bronchique sera également prise en compte afin de générer des résultats pertinents au niveau médical. Pour traiter ce problème multi-échelle, un outil de simulation construit sur les méthodes de lattice Boltzmann et de frontières immergées a été développé. Le calcul informatique haute performance joue un rôle crucial pour la prise en compte de toutes les échelles physiques, ce qui ne serait pas possible avec des stations de calculs traditionnelles. Cet outil permettra en outre d’étudier le transport de médicaments à l’échelle de la cellule et le bénéfice de certains appareils d’aide à l’expectoration pour des patients atteints de fibrose kystique. Cela devrait donner un avantage certain au milieu médical québécois dans le traitement de nombreuses pathologies respiratoires chroniques.

Résumé
12 h 00
Utilisation du calcul informatique de pointe pour l’analyse des mécanismes de bruit dans les turbomachines
MARLENE SANJOSE (UdeS - Université de Sherbrooke)

Dans les turbomachines, du ventilateur au turbo-réacteur, le bruit d'origine aéroacoustique est lié à l'interaction des pales avec les fluctuations de l'écoulement. Ces fluctuations peuvent avoir plusieurs origines et des échelles très différentes. Le bruit à large-bande est lié aux structures turbulentes qui se développent dans le fluide et à proximité des surfaces. Il est réparti sur une large gamme de fréquence. Les simulations numériques instationnaires peuvent capter ces tourbillons de taille différentes grâce une résolution spatiale et temporelle fine de l'écoulement dans la machine, qui nécessite du calcul massivement parallèle.

Les résultats des simulations hautes performances permettent de visualiser l'évolution des structures turbulentes de l'écoulement qui sont les sources de bruit et le champ acoustique rayonné avec précision et ce de façon inégalable expérimentalement. On peut alors prédire les nuisances sonores d'une soufflante de turboréacteur en phase d'approche ou d'un ventilateur installé dans un système de conditionnement d'air ou de chauffage. Ces bases de données numériques uniques et indispensables permettent d'améliorer les modèles de prédiction pour évaluer les nuisances sonores dès la conception de la machine, et de définir les moyens de réduire le bruit des machines existantes.

Résumé
Dîner
12 h 30 à 13 h 30
Dîner
Dîner
Batiment : (OM) OTTO MAASS
Local : (OM) 217
Après-midi
13 h 30 à 14 h 45
Panel
Les ressources de calcul informatique de pointe et la formation : un enjeu pour le Québec
Participants : Maryse Lassonde (Fonds de recherche du Québec - Nature Technologie), Alfredo Villar-Sbaffi (Banque Nationale du Canada), Doina Precup (Université McGill), Thomas Piekutowski (Agence spatiale canadienne), Gilbert Brunet (Environnement et Changement Climatique Canada)
Batiment : (OM) OTTO MAASS
Local : (OM) 217
14 h 45
Pause
15 h 00 à 16 h 15
Panel
L’entrepreneuriat de demain : l’innovation et le numérique
Participants : Patrice Castonguay (Bombardier Aéronautique), Jeremy Barnes , François Laviolette (Université Laval)
Batiment : (OM) OTTO MAASS
Local : (OM) 217
16 h 15 à 17 h 00
Communications par affiches
Session d’affiches
Batiment : (OM) OTTO MAASS
Local : (OM) rez-de-chaussée zone affiches
1
Le jumelage des données généalogiques et moléculaires pour étudier la dynamique des gènes liés au sexe au Québec
Alexandra DOYON (UQTR - Université du Québec à Trois-Rivières)

La connaissance fine de la dynamique des marqueurs liés au sexe, soit ceux situés sur les chromosomes X et Y et sur l’ADN mitochondrial dans une population est essentielle à plusieurs domaines de la génétique. L’estimation des fréquences de certains marqueurs à fine échelle spatiale demeure cependant un défi, car ces fréquences sont sensibles à la dérive génétique et aux effets fondateurs. Des modèles combinant des données généalogiques et moléculaires peuvent permettre de surpasser les limites associées aux échantillons limités afin d’obtenir une estimation fiable des fréquences. Ces modèles permettent de démultiplier un échantillon restreint de profils génétiques pour obtenir une couverture beaucoup plus grande de la population. Nous avons ainsi déterminé si les fréquences des haplotypes pour le chromosome Y ont changé dans le temps et l’espace pour la population canadienne-française du Québec entre 1608 et 1960 à l’aide de tels modèles. Pour ce faire, nous avons attribué des haplotypes Y à travers la généalogie à partir des individus génotypés vivants aujourd’hui. Cela a nécessité un grand nombre de calculs et de traitements sur un jeu de données comprenant plus de 4 millions d’individus. De nombreux défis se posent à un tel jumelage dont la mesure du taux de paternité extra-conjugale et des taux de mutation. Les premières conclusions sur la variation spatio-temporelle des fréquences haplotypiques dans la population canadienne-française seront présentées.

Résumé
2
Modélisation informatique du trafic des récepteurs AMPA à la densité post-synaptique
Anne-Sophie Sainte-Marie (Université Laval)

L’intégration des récepteurs a-amino-3-hydroxy- 5-méthylisoazol-4-propionate (AMPA) à la membrane synaptique joue un rôle important dans la plasticité synaptique et donc, dans la formation de la mémoire dans le cerveau humain. Cependant, les détails de l’acheminement des rAMPA à la densité post-synaptique (PSD) demeurent controversés. Afin de mieux évaluer les différentes hypothèses à ce sujet, nous suggérons un modèle mécanistique simplifié du trafic des rAMPA à la PSD, basé sur deux voies principales : 1) la diffusion latérale depuis la membrane extra-synaptique et 2) l’exocytose depuis le cytoplasme de l’épine dendritique. Ces réactions ont été appliquées dans un modèle compartimentale d’équations différentielles ordinaires (ODE) dans le logiciel Virtual Cell, où elles ont été traduites en équations d’action de masse et d’équations enzymatiques de Michaelis-Menten. Le modèle montre que la majorité des récepteurs proviennent de la diffusion latérale bien que l’importance relative de l’exocytose augmente lors de la stimulation du système, lorsque nous imitons l’induction de la potentialisation à long terme (LTP). Ce modèle compartimentale a été élargi à un modèle spatial 3D contenant plusieurs PSD et épines dendritiques, et des voies de signalisation clés ont été introduites afin d’étudier leur effet sur le trafic des rAMPA. Ces interactions seront utiles pour modéliser l’interférence synaptique, soit les effets de la stimulation d’une épine sur ses épines voisines.

Résumé
3
Prédiction de la structure des protéines par apprentissage profond
Félix Pigeon

Le rôle des protéines dans les systèmes biologiques est intimement lié à leur structure tridimensionnelle. Toutefois, un très grand nombre des protéines identifiées par la génomique et la protéomique n’ont pas de structure connue. La prédiction de la structure des protéines est donc d’intérêt fondamental en biologie et en médecine, mais demeure extrêmement difficile à faire en général, étant donné la grande diversité des structures retrouvées dans la nature. Un modèle d’apprentissage profond est développé afin de prédire la structure de protéines mono-domaine uniquement en fonction de leur séquence d’acides aminés. Un réseau de neurones artificiel est entrainé avec 300 000 domaines de la base de données Pfam (divisés en 2000 familles), dont les structures ont été extraites de la base de données ModBase. Ces structures sont classées selon leur degré de difficulté et utilisées graduellement lors de l’entrainement pour faciliter l’apprentissage des structures moins intuitives. La performance du modèle est examinée en fonction de la similarité entre les séquences fournies pour l'entraînement et celles fournies pour le test.

Résumé
4
Développement d’une plateforme pour l’analyse automatisée à haut débit de préparations histologiques de cerveaux et d’intestins de souris
Jérôme Lamontagne-Proulx (Université Laval)

L'automatisation de l'analyse morphométrique de tissus biologiques permet une analyse quantitative à grande vitesse dans des coupes de tissus entiers afin de mesurer des marqueurs physiopathologiques. Récemment, nous avons développé une nouvelle méthode automatisée pour l’identification d’alvéoles pulmonaires et de septa chez la souris. Ce logiciel a été initialement développé sur un poste de travail haut de gamme, qui n'était cependant pas assez puissant pour des analyses à grande échelle. Afin d'accélérer l'analyse des tissus, les données provenant de la numérisation de coupes entières à partir de la préparation histologique de poumons de souris ont été transférées sur la grappe de serveurs Colosse (Calcul Québec). Notre algorithme développé initialement dans l’environnement Matlab a été par la suite déployé sur Linux. La segmentation de l'image entière, la détection d'objet, la quantification et la représentation visuelle ont été réalisées en utilisant 6 nœuds sur Colosse, chacun équipé de 8 cœurs et 24 Go de RAM. Nous avons obtenu une accélération de 6x à 70x selon la taille du lot d'image à traiter. Une fonction d'indication du niveau d'achèvement du travail a été implémentée pour monitorer l'avancement des travaux. Notre flux de travail a été validé avec succès sur des échantillons de poumon. Pour nos prochains projets de recherche, nous prévoyons modifier notre algorithme pour effectuer des analyses à haut débit de préparations histologiques de cerveau et d'intestin.

Résumé
5
Avancement des connaissances en bioinformatique en développant un nouvel algorithme pour l’analyse des arbres phylogéographiques
Nadia TAHIRI (UQAM - Université du Québec à Montréal), Nancy Badran (UQAM)

L'arbre phylogénétique des espèces est de plus en plus exploité, cependant pour inférer l'arbre, les méthodes traditionnelles ne tiennent compte que de la génétique des espèces étudiées. La question de l'impact de la génétique de ces espèces sur la distribution géographique de ces mêmes espèces peut s'avérer crucial d'autant plus que l'enjeu du changement climatique est un sujet d'actualité. Autrement dit, est-ce que deux espèces très proches génétiquement sont-elles nécessairement proches géographiquement? Dans notre étude, nous tenterons de corréler la distribution actuelle des espèces par: 1) leurs structures protéiques et 2) leurs caractéristiques climatiques. Nous calculerons informatiquement les matrices de dissimilarité pour les paramètres climatiques (e.g. la température, la pression et le taux d'humidité) et pour les séquences génétiques utilisées. À partir de ces matrices de dissimilarités ainsi obtenu, nous inférons leurs arbres reflétant leurs génétiques et leurs distributions climatiques. Nous utiliserons pour notre étude un ensemble de 52 carnivores vivant en Amérique du nord, plus spécifiquement le Canada, les USA et le Mexique. Un des enjeux majeurs à cette étude est d'optimiser notre algorithme afin que celui-ci puisse prendre en considération un grand jeu de données. Pour y parvenir, nous utiliserons différents clusters (i.e. Calcul Québec) en parallélisant l'algorithme. Nous innoverons par notre stratégie de haute performance et l'exploration des réseaux.

Résumé
6
Caractérisation des interactions de liaisons faibles dans les motifs tétraboucle d’ARN par simulation numérique
Philippe ARCHAMBAULT (Université Concordia), Heidi M. Muchall (Concordia University), Gilles Peslherbe (Université Concordia)

Les interactions de liaison faible entre les bases sont les propriétés structurales fondamentales des acides nucléiques et sont reconnues comme la recherche de base des acides nucléiques [Muchall, H. M. et collègues J. Phys. Chem. A 2011]. Ces interactions, telles que la liaison hydrogène et l’empilage pi (pi-stacking), sont les forces principales pour le repliement et à la stabilité des structures globales. La flexibilité de l’ARN fait en sorte que leurs structures secondaires sont souvent indéfinies avec des appariements non canoniques. Les interactions trouvées dans ces régions mal définies sont souvent simplement déduits à partir de distances et d'angles ou de critères de chevauchement (liaison hydrogène ou empilage pi, respectivement). Pourtant, une connaissance précise de ces interactions est critique pour l'éclaircissement de ces types de structures d'ARN, car la prédiction des structures de boucle à partir des séquences primaires demeure irréalisable [Major, F. et collègues RNA 2011].

Dans ce travail, la théorie de la fonctionnelle de la densité a été utilisé pour examiner les motifs tétraboucle de GAGA, GCAA et GAAA à partir des structures RMN de r(GGGCGNRAGCCU), où les données RMN ont été acquises sous conditions physiologiques et les structures calculées en phase gazeuse [Pardi, A. et collègues J. Mol. Biol. 1996]. Comme les interactions de liaisons faibles peuvent être déterminés sans ambiguïté à partir de la densité électronique [Bader, R. F. W. Atoms in Molecules: A Quantum Theory 1990], la théorie quantique des atomes dans les molécules a donc été utilisée pour identifier les interactions de liaison d'hydrogène et d'empilage pi dans les motifs tétraboucle. De plus, à partir des structures RMN publiées, des simulations dynamiques moléculaires ont été réalisées dans des conditions physiologiques pour étudier l'influence de cet environnement sur les motifs d’ARN.

Résumé
7
Reconnaissance optique de la musique basée sur l’apprentissage machine à grande échelle pour des données de partitions musicales
Gabriel Vigliensoni (Université McGill)

À travers le projet ​Single Interface for Music Score Searching and Analysis (SIMSSA), nous cherchons à bâtir une infrastructure capable d’analyser et de chercher des millions d’images de pages musicales. La reconnaissance optique de la musique (ROM) est une technologie équivalente à la reconnaissance optique de caractères, mais appliquée au contexte de la musique. Cependant, cette technologie n’avait jamais été appliquée à l’échelle de millions d’images de pages. Avec le projet SIMSSA, nous développons des systèmes de ROM basés sur l’infonuagique, afin d’optimiser le processus de reconnaissance de documents musicaux en permettant la correction participative et l’apprentissage machine distribué. Ces approches novatrices à la ROM requièrent des systèmes de stockage à grande échelle et des grappes de serveurs. Les méthodes traditionnelles de ROM utilisent des stratégies heuristiques pour reconnaître les différents éléments dans des partitions musicales. Ces méthodes dépendent beaucoup des caractéristiques uniques des images et il est donc difficile de les appliquer à de grands volumes de documents. Nous présentons une approche novatrice à la ROM qui utilise l’apprentissage machine pour classifier les pixels des partitions musicales dans leurs catégories potentielles. Cette méthode assume que la zone entourant chaque pixel contient assez d’information pour pouvoir discriminer leur catégorie, et utilise ces données comme caractéristiques pour entraîner un réseau neuronal convolutif. Notre système de ROM démontre une performance comparable aux algorithmes de pointe du domaine, mais il présente davantage d’extensibilité et d’évolutivité parce qu’il a seulement besoin de plus de données pour apprendre un meilleur modèle.

Résumé
8
Optimisation d’un programme informatique pour la comparaison d’images cérébrales
Méliane Carrier-Favreau (Collège Dawson)

Notre projet de recherche consiste à comparer plusieurs paires de cerveaux humains à l’aide d'alignements de leurs images tridimensionnelles. Pour ce faire, notre programme déplace chaque voxel du cerveau sujet selon un algorithme non-linéaire pour progressivement s’approcher du cerveau cible. À terme, le processus nous permet d’évaluer les différences de taille, d’orientation et de diffusivité entre le sujet et la cible. Ceci requière une grosse puissance de calcul. En effet, une image d’un cerveau comporte au moins quelques centaines de milliers de voxel non-vides. De plus, notre expérience nous indique qu’il faut de vingt à trente itérations du processus d'alignement pour obtenir une bonne concordance entre le sujet et l’image cible. Il faut aussi varier les paramètres contrôlant chaque alignement pour obtenir le meilleur résultat. Par contre, plusieurs opérations peuvent être effectuées en parallèle, ce qui sauve beaucoup de temps. L’affiche proposée décrira notre projet de recherche et comment nous avons rendu le programme plus efficace. Grâce au calcul en parallèle et à un ordinateur très puissant nous avons pu obtenir de bons résultats dans des temps raisonnables.

Résumé
9
Modélisation de détecteurs de radiation à base de photodiodes à avalanche monophotoniques
Audrey Corbeil Therrien (UdeS - Université de Sherbrooke)

Au cours des dernières années, de nouveaux photodétecteurs appelés photodiodes à avalanche monophotonique (PAMP) ont révolutionné le développement de détecteurs de radiation, particulièrement en tomographie d’émission par positrons (TEP). La TEP est une modalité d’imagerie nucléaire très répandue en oncologie pour étudier et diagnostiquer les cancers et nécessite des détecteurs ayant une excellente résolution temporelle. Les détecteurs avec PAMP pourraient théoriquement permettre des résolutions en temps inégalées, de l’ordre de la dizaine de picosecondes, ce qui se traduit par un meilleur contraste dans l’image TEP.

Afin de faciliter la conception des détecteurs de radiation avec PAMP, nous avons élaboré un simulateur modélisant le comportement des matrices de PAMP. Ce simulateur non-linéaire et non stationnaire permet d’évaluer les performances du détecteur (résolution en temps, résolution en énergie, consommation) en variant ses différents paramètres de configuration. De plus, il s’agit d’un outil incomparable pour le développement de différentes stratégies de lecture pouvant extraire le maximum d’information à chaque détection. Ce simulateur, publié sur github, a été développé dans le but d’être utilisé pour des applications variées, incluant la physique haute énergie et la physique des particules.

Résumé
10
Assimilation des données pour la prédiction numérique de la granulation solaire
Benoit Tremblay (UdeM - Université de Montréal)

La granulation est observée à la surface du Soleil (la photosphère) et est une manifestation du transport convectif du plasma à l’intérieur du Soleil (la zone convective). Pour simuler la granulation, les modèles doivent résoudre numériquement les équations de la magnétohydrodynamique (MHD) radiative qui décrit le comportement des fluides magnétisés en termes du champ magnétique, de la vitesse, la densité et la température. L'intérieur, la surface et l'atmosphère du Soleil (la chromosphère, la transition et la couronne solaire) sont inter-dépendants physiquement. Un bon modèle doit donc les traiter simultanément. Les simulations sont cependant sous-déterminées par les observations. Les données enregistrées par les satellites et les observatoires terrestres nous proviennent principalement de la photosphère du Soleil et mesurent localement le champ magnétique et la vitesse Doppler. De plus, elles sont limitées par la résolution spatiale et la cadence auxquelles elles sont produites et ne sont pas toujours directement reliées aux variables du modèle numérique. Nous introduisons une implémentation de la version diffusive de la méthode du Nudging direct et rétrograde (D-BFN) utilisant le parallélisme des machines du RQCHP. Enfin, nous présentons des résultats préléminaires de l'assimilation des données de l'instrument HMI de la mission spatiale SDO.

Résumé
11
Simulations aux grandes échelles du transfert de chaleur convectif des écoulements turbulents des nanofluides dans un tube uniformément chauffé
Ghofrane SEKRANI (UdeS - Université de Sherbrooke)

Le transfert de chaleur par convection joue un rôle important dans divers secteurs industriels, mais il est limité par les faibles propriétés thermiques des fluides classiques. Pour améliorer l’efficacité énergétique des processus industriels, une nouvelle classe des fluides caloporteurs appelée nanofluide, caractérisée par une conductivité thermique élevé, a été introduite. Le nanofluide est un mélange colloïdal constitué des particules nanométriques dispersées dans un fluide de base tel que l’eau et l’éthylène glycol. Dans le cadre de cette étude, l’écoulement turbulent du nanofluide Al2O3-eau dans un tube circulaire, soumis à un flux de chaleur de paroi uniforme et constant, a été étudié numériquement à l’aide de la simulation des grandes échelles (LES). Les effets de la concentration en nanoparticules et du nombre de Reynolds (10000˂Re˂20000) sur le champ dynamique et thermique de l’écoulement du nanofluide seront analysés en utilisant une approche monophasique basée sur des propriétés thermophysiques variables. A fin d’achever la résolution spatiale et temporelle nécessaire pour détecter et modéliser les structures tourbillonnaires agissant sur le processus du transfert thermique dans le tube, un calcul parallèle intensif a été effectué sur le supercalculateur Mammouth MP2. En outre, l’importance du calcul haute performance pour la modélisation avancée des écoulements complexes des nanofluides dans les systèmes thermiques a été démontrée.

Résumé
12
Vers des systèmes de traitement des gaz d’échappement de moteurs diesel (réellement) plus performants
igor belot (Polytechnique Montréal)

Ces derniers mois, les véhicules diesel de nombreux constructeurs ont défrayé les manchettes pour non-respect des normes environnementales. Malgré une efficacité énergétique accrue et des rejets de CO2 moindre comparé à l’essence, le moteur diesel dégage plus de particules fines et de NOx, gaz à effet de serre responsable en partie du changement climatique. Le filtre à particule (FAP) et le convertisseur catalytique sont couramment utilisés pour réduire ces émissions dans l’atmosphère. Ces deux systèmes peuvent être combinés en une seule unité de traitement. Pour cela, un dépôt catalytique est ajouté au FAP. Les caractéristiques recherchées pour un FAP sont une grande perméabilité et une haute efficacité de capture des particules. La configuration la plus utilisée est le filtre de céramique en nid d’abeille extrudé, où les gaz d’échappement sont filtrés au passage de la structure poreuse utilisée. Notre travail vise à comprendre l’influence du dépôt catalytique utilisé pour réduire les NOx sur les performances du FAP, afin d’aider à l’optimiser. Pour ce faire, un modèle numérique de la structure poreuse a été mis au point. Par rapport à une étude en laboratoire, l’avantage d’un tel modèle est qu’il permet d’explorer plus facilement et à moindre coût différentes configurations, et de mieux comprendre l’impact des conditions opératoires. Nous avons déjà pu, par nos calculs, dégager des profils de dépôts de catalyseur plus avantageux que d’autres pour les performances du FAP.

Résumé
13
L’électrodynamique quantique en champ fort et le calcul informatique de pointe
Joey Dumont (INRS - Institut national de la recherche scientifique)

Bien que l'électrodynamique quantique soit une des théories physiques testées avec le plus de précision, quelques-unes de ses prédictions les plus fondamentales, comme la production de paires électron-positron in vacuo et la non-linéarité du vide, n'ont jamais été observées expérimentalement. Ceci est dû au fait que la détection de ces processus nécessite des champs électromagnétiques très intenses qui sont difficiles à générer. Le développement récent de sources de rayonnement laser puissantes et de très courte durée a ouvert la possibilité d'une observation expérimentale de ces effets. Afin de concevoir un design expérimental réaliste, il est nécessaire de bien comprendre l'impact de la structure spatio-temporelle du champ laser sur ces observables. Cette affiche discute de l'implémentation OpenMPI d'un modèle de champ laser fortement focalisé basé sur les équations de Stratton-Chu. L'efficacité parallèle de l'implémentation est une caractéristique cruciale de la méthode étant donnée son coût computationnel élevé (plus de 800 cœur-années en 2016). Notre algorithme est ensuite utilisé pour modéliser la non-linéarité du vide et la production de paires puisqu'ils s'expriment comme des fonctionnelles du champs. Ensuite, une nouvelle configuration tout-optique qui favorise la détection de ces deux observables est discutée.

Résumé
14
Simulation magnétohydrodynamique du cycle d’activité solaire
Patrice Beaudoin (UdeM - Université de Montréal)

Le champ magnétique du Soleil est le moteur et la source d'énergie de tous les phénomènes éruptifs et radiatifs définissant l'activité solaire. Cette activité est fortement modulée par l'inversion cyclique du champ magnétique solaire, causé par un processus dynamo opérant en son intérieur. Nous présenterons des résultats représentatifs de simulations numériques magnétohydrodynamiques qui réussissent à bien reproduire plusieurs caractéristiques observées du cycle solaire. De telles simulations représentent un laboratoire virtuel unique permettant d'étudier en détail la complexité des mécanismes physiques sous-jacents.

Résumé
15
Calcul informatique de pointe pour le développement d’alliages à base de nitrure d’aluminium et de nitrure de terres rares
Patrick Daoust (Polytechnique Montréal)

Le nitrure d’aluminium (AlN) est un matériau fortement utilisé dans l’industrie des microsystèmes électromécaniques. La formation d’alliages de nitrures de terres rares (REN) et d’AlN permet d’accentuer l’effet piézoélectrique dans l’AlN. Le calcul informatique de pointe est essentiel pour comprendre l’impact des terres rares sur la performance piézoélectrique de ces alliages. Ici nous présentons nos résultats de simulation les plus récents concernant l’impact de la configuration des alliages, l’application d’un stress bi-axial et l’inclusion de lanthanides sur la performance piézoélectrique des alliages d’AlN et de nitrure de terres rares. Les simulations se basent sur la théorie de la fonctionnelle de densité telle qu’implémentée dans le logiciel ABINIT. Le domaine de simulation est représenté par une maille SQS pour les alliages aléatoires. On procède par une technique de différences finies utilisant le formalisme de la phase de Berry pour retrouver les coefficients piézoélectriques e33 et d33. On retrouve que la configuration de l’alliage impacte directement le coefficient d33 et peut le faire osciller entre 9pm/V et 42pm/V. De plus, l’application d’une tension bi-axiale de 1GPa sur un film d’alliage incorporant du scandium permet d’accentuer le coefficient d33 =28pm/V par un facteur de l’ordre de 50%. Finalement on démontre comment la formation d’alliages de REN et d’AlN permet d’accentuer le coefficient d33 du nitrure d’aluminium par un facteur de 200%.

Résumé
16
Modélisation 3D des éjecteurs supersoniques, interactions gouttes-ondes de choc et simulation aux grandes échelles
Sergio Croquer (UdeS - Université de Sherbrooke)

Les éjecteurs supersoniques sont des dispositifs à faible coût et sans pièces mobiles. Ils servent à entraîner un écoulement secondaire et à le comprimer. Dans le contexte de la réfrigération, ces dispositifs constituent le cœur de systèmes alternatifs, dans lesquels leur rôle est de réduire la charge du compresseur ou de récupérer la puissance normalement perdue par la valve de détente. Ils peuvent être activés par la chaleur rejetée d’un autre procédé ou par des sources d’origine renouvelable.

Les éjecteurs étant des systèmes de petite taille et calorifugé, les simulations numériques constituent un outil précieux pour améliorer la compréhension des transferts de masse et d’exergie qui se produisent. Par contre, la présence de phénomènes complexes (ondes de choc, couches de mélange, changement de phase) rend la simulation des éjecteurs un véritable challenge pour les codes numériques. Le coût prohibitif des simulations fait que la plupart des études sont basées sur des calculs stationnaires 2D à partir de modèles de turbulence à 2 équations et d’un modèle de gaz parfait.

Grâce aux ressources offertes par Calcul Canada, notre groupe développe un modèle tridimensionnel en régime transitoire pour la simulation des éjecteurs supersoniques mono et diphasiques. Par des simulations aux grandes échelles, l’objectif est de mieux comprendre les phénomènes présents au sein du dispositif, notamment les interactions entre les gouttes et les ondes de choc et les transferts d’exergie.

Résumé
17
Méthodes itératives pour accélérer la résolution du système épars à valeurs complexes
Wei LIU (UdeS - Université de Sherbrooke)

Récemment plus et plus de systèmes avec matrice éparse à valeur complexe est utilisé pour la modélisation de cerveau ou les autre orges. La méthode directe pour résoudre le système est appliqué, on peut sortir le bon résultat avec cette méthode mais le coût est trop cher à l'échelle de temps et RAM. Donc c'est essentiel de chercher une méthode itérative pour remplacer la méthode directe afin de échantier le processus de résolution. Nous présentons donc le comparaison entre les différents méthodes itératives et la méthode directe, afin de trouver le meilleur méthode pour économiser le ressource de calcul. La principale méthode utilisé est gradient conjugué. Fortran90, mpi est utilisé pour la compilation et l’extraction des donnés. Matlab est utilisé pour le post-traitment des résultats.

Résumé
18
Modélisation du climat régional à haute résolution et prise en compte des processus de surface
Katja Winger (UQAM - Université du Québec à Montréal)

Les modèles régionaux du climat (MRC) ont une plus haute résolution que les modèles globaux du climat ce qui permet de prendre en compte des phénomènes physiques de petite échelle comme la présence de lacs, du couvert végétal, de la glace, etc. Une augmentation de la résolution du 0.44° actuel à 0.11° permet de mieux représenter les précipitations associées à la présence de topographie sur l'Amérique du Nord, et de mieux capturer la distribution spatiale des précipitations extrêmes. Des améliorations sont aussi notées pour des phénomènes de petite échelle associés à la présence des Grand Lacs ou de la vallée du Saint-Laurent. En couplant le MRC à des modèles de végétation dynamique (VD) pour quatre scénarios de changements climatiques couvrant l'Amérique du Nord pour la période 1950-2100, la VD mène à une extension de la période de croissance conduisant à une production accrue de végétation et une augmentation de la biomasse. En été, la VD augmente le réchauffement dans les latitudes nordiques mais l'atténue dans les régions au sud à cause des interactions avec l'hydrologie. La prise en compte de la VD conduit à une modulation de l'effet de réchauffement associé aux gaz à effet de serre par la prise en compte des mécanismes biophysiques. Finalement, les changements climatiques ont un impact sur les lacs et l'hydrologie qui peuvent en retour influencer les changements anticipés pour différents scénarios. La prise en compte de la présence des lacs atténue l'augmentation anticipée de la température à 2m en hiver surtout au voisinage des lacs. De plus, le débit réduit des rivières est attribuable à la capacité de rétention d'eau des lacs alors qu'en été, les débits sont régularisés par le relâchement graduel de l'eau de fonte de neige emmagasinée par les lacs.

Résumé
Soir
16 h 30 à 18 h 30
Cocktail
Session d’affiches et cocktail
Batiment : (OM) OTTO MAASS
Local : (OM) rez-de-chaussée zone cocktail