Imprimer

405 - Méthodes et stratégies de gestion de l’information par les organisations : des données massives (big data) aux « thick data »

Colloque
Section 400 - Sciences sociales
Responsables
Université d’Ottawa
Université de Moncton
IAE - Université de Poitiers
Afficher tous les résumés
Avant-midi
09 h 00 à 10 h 00
Communications orales
Conférence d’ouverture
Présidence/Animation : Dominique Maurel (UdeM - Université de Montréal)
Batiment : (T) TROTTIER
Local : (T) 60
09 h 00
Mot de bienvenue et introduction du colloque
Sylvie Grosjean (Université d’Ottawa), Monica Malowan (Université de Moncton)
09 h 15
Bibliothèque et Archives Canada à l’heure des données massives (big data)
Kathryn Lagrandeur (Bibliothèque et Archives Canada), Émilie Létourneau (Bibliothèque et Archives Canada), Renaud Séguin (Bibliothèque et Archives Canada)

Bibliothèque et Archives Canada (BAC) est l’institution chargée d’être à la fois « la mémoire permanente de l’administration fédérale » ainsi « [qu’une] source de savoir permanent accessible à tous et qui contribue à l’épanouissement culturel, social et économique de la société libre et démocratique que constitue le Canada ». De ce fait, les défis et le potentiel suscité par le Big Data se présentent sous deux facettes. D’abord BAC doit s’adapter à l’importance grandissante des données massives au cœur des prises de décision dans l’appareil fédéral mais également aux exigences grandissantes des citoyens d’avoir facilement et librement accès aux données générées grâce aux deniers publics. L’essor du Big Data force BAC à adapter ses pratiques et ses approches en matière d’évaluation, de préservation, d’accès et de diffusion de l’information. BAC est appelée à mieux définir ses objectifs face aux autres institutions de mémoire, aux communautés de chercheurs et qu’aux autres institutions fédérales qui génèrent, utilisent, recueillent ces données massives tout en devant rendre compte de leur gestion à court, moyen et long terme. L’essor du Big Data nous force donc à réfléchir sur la façon dont une archive nationale doit s’acquitter de sa mission en tant que source de savoir permanent et accessible en cette ère de surabondance d’information. Ces pistes de réflexion formeront les bases de la présentation proposée. 

Résumé
10 h 00
Pause
10 h 30 à 12 h 00
Communications orales
Session 1 – Donner sens et saisir l’épaisseur des données à l’heure des données massives (big data)
Présidence/Animation : Christian Marcon (IAE - Université de Poitiers)
Batiment : (T) TROTTIER
Local : (T) 60
10 h 30
Faire parler ses données : de la masse à la substance, le sens en question
Francis BEAU (Université de Valenciennes et du Hainaut-Cambrésis (UVHC))

Les progrès des outils informatiques et des réseaux permettent l’accès à des masses de données (big data) dont le traitement semble devoir se prolonger pour apporter de la substance (thick data) à des données au préalable affinées (smart data). Afin d’approfondir les arguments théoriques susceptibles de légitimer une stratégie de gestion de l’information originale dont nous présentons les grandes lignes, nous analysons la nature des traitements associés à ces différentes approches de la notion de data. Nous nous appuyons pour cela sur l’observation des processus de construction de sens à l’œuvre dans nos mémoires individuelles, dont nous avons appliqué les principes à une méthode opérationnelle d’organisation des connaissances dans une mémoire collective. Du cumul des données à l’agrégation des savoirs, en passant par la représentation des connaissances, nous montrons en effet que le sens, mû par une volonté et déterminé par un besoin d’agir, occupe une place centrale dans tout dispositif de gestion de l’information, quelle que soit la forme, les volumes ou le degré d’élaboration de cette dernière (simples traces numériques isolées ou massives, représentations associées ou médias électroniques). Résolument théorique, mais fondé sur l’expérience, notre travail s’inscrit dans une démarche d’adaptation des pratiques aux progrès technologiques foncièrement pragmatique, qui revendique toutefois la volonté de ne rien abandonner à une technique de plus en plus hégémonique.

Résumé
11 h 00
Le bricolage des données ou la question des données massives (big data) manuelles
Anne Mayère (Université de Toulouse), Anja Martin-Scholz (UMR CERTOP – Université Paul Sabatier Toulouse III / Gériico – Université Lille 2), Pierre Maurel (UMR TETIS – Irstea)

En choisissant d’observer le big data non pas comme un amoncellement de données mais plutôt comme un mouvement associant à la fois l’accumulation de données supposées disponibles, de technologies censées leur donner du sens et les mettre en forme, et de discours, nous proposons ici de questionner ce travail sur la sélection des données et leur combinaison, ce qui conduit à réinterroger leur « épaisseur ». Pour ce faire, nous proposons explorer le cas d’un espace-temps de négociation au cours duquel des agents issus de plusieurs services déconcentrés de l’État en Languedoc-Roussillon (France), relevant de différents Ministères, ainsi que des agents d’un organisme de recherche, s’organisent pour concevoir de manière « distribuée » un module de formation et son corrigé, destinés à promouvoir la mobilisation de données, de méthodes et de « façons de voir » auprès des techniciens, dans une démarche qui d’un certain point de vue s’inscrit dans la perspective d’un « evidence based-planning ». L’observation de l’élaboration de ce module de formation et des débats qui l’ont accompagnée a été menée selon une méthode s’apparentant à la self-ethnography. L’analyse de ce matériau nous conduit à reconsidérer ce qui est à l’oeuvre dans cet assemblage de données, de méthodes et de discours en termes de « big data manuel ». 

Résumé
11 h 30
Gestion des données de recherche et « thick data » : le cas d’une recherche-action sur la médiation numérique du patrimoine
Karel Soumagnac (Université de Bordeaux - ESPE d'Aquitaine)

Dans le cadre d’un programme de recherche-action portant sur la médiation numérique du patrimoine, nous analysons les méthodes de gestion des données de recherche par l’ensemble des acteurs qui y participent. Actuellement, la gestion et la mise à disposition des données de recherche constituent un enjeu en termes de durabilité de l’information (sustainability). Nous faisons l’hypothèse que ce travail de gestion rend compte d’une épaisseur socio-culturelle des données (thick data) dans le but de servir le projet commun d’une science en réseau. Nous nous situons dans une perspective ethnographique et sociale de la recherche en abordant les ressources numériques patrimoniales, les terrains d’observation et les acteurs selon l’approche de l’action située, dans une perspective de cognition distribuée et suivant une dimension systémique. Nous présentons d’abord les enjeux actuels des modes de gestion des données de recherche dans le cadre de la recherche-action. Ensuite nous revenons sur la méthodologie de recherche en soulignant les caractéristiques documentaires et communicationnelle de la conservation, du traitement et de la communication des données dans le cadre d’un écosystème informationnel ouvert. Nous terminons par le travail de valorisation, d’information et de médiation documentaire des données que la communauté de pratiques souhaite mettre en place pour qu’elles puissent être visibles, compréhensibles et accessibles à tous.

Résumé
Dîner
12 h 00 à 14 h 00
Dîner
Lunch libre
Après-midi
14 h 00 à 15 h 00
Communications orales
Session 2 – Les organisations face aux données massives (big data) : retours d’expériences
Présidence/Animation : Sylvie Grosjean (Université d’Ottawa)
Batiment : (T) TROTTIER
Local : (T) 60
14 h 00
Les Nations Unies face aux données massives (big data) : comment utiliser les nouvelles sources de données pour optimiser les programmes de développement des organisations internationales
Christelle Cazabat (Programme des Nations Unies pour le Developpement)

Cette proposition de communication vise à analyser le potentiel des nouvelles sources de données, telles que les données massives ou big data, pour l’élaboration, la mise en œuvre et le suivi de programmes de développement par les organisations internationales comme les Nations Unies. A partir d’études de cas fondées sur des innovations déjà appliquées par des organisations internationales, l’objectif de cette analyse est d’estimer le potentiel des nouvelles sources de données à contribuer au programme mondial pour 2030 et aux objectifs de développement durable. Dans un domaine comme celui du développement où les ressources sont particulièrement précieuses et limitées, un investissement financier et humain tel que le nécessiterait la généralisation de l’utilisation du big data par les organisations internationales doit être murement réfléchi. A ce jour, seules quelques initiatives pilotes ont été mises en œuvre. La plupart d’entre elles ont été réalisées en partenariat avec le secteur privé, dans le cadre de stratégies de responsabilité sociale des entreprises. Elles semblent prometteuses, avec des impacts plus importants que des initiatives similaires utilisant des méthodes traditionnelles et des coûts moins élevés. Mais des questions sur la sécurité des données, l’éthique, la règlementation, les problèmes techniques, la représentativité des données et leurs avantages réels pour le développement doivent être étudiées avant d’étendre davantage ces nouvelles méthodes. 

Résumé
14 h 30
De la RMA à la guerre infocentrée : retours d’expérience sur les promesses inaccomplies de la numérisation et des données massives (big data)
Lucile Desmoulins (Université Paris-Est), Patrick Cansell (UPEM-IFIS)

Au tournant des années 1980, les forces armées amorcent une révolution technologique et organisationnelle par l’intégration massive des technologies de l’information et de la communication. La Revolution in Military Affairs, initiée aux États-Unis, vise à métamorphoser l’approche du commandement et de la réalisation des opérations militaires à travers le développement de solutions de renseignement, d’interopérabilité et  de commandement intégrées. La RMA est aujourd’hui incarnée au niveau individuel par le concept de « système fantassin », un combattant augmenté en valeur car hyper informé et contribuant à une « domination informationnelle » sur les théâtres d’opération numérisés. Les premiers retours d’expérience invitent à relativiser les capacités prédictives des mécanismes algorithmiques en situation de conflit armé. Ils évoquent aussi l’infobésité des usagers au niveau du management opérationnel, leur méfiance quant à la fiabilité des transmissions et décisions stratégiques, et leurs questionnements éthiques. Illustrant la prééminence du social dans l’utilisation des TIC, cette recherche est le fruit du travail conjoint de deux chercheurs en Sciences de l’information et de la communication passionnés par la stratégie militaire, qui exercent en tant que consultants en intelligence économique et gestion de crise auprès des forces armées et officier de réserve, diplômé « État-major » au sein de la Direction du renseignement militaire, en charge de questions de prospective.

Résumé
15 h 00
Pause
15 h 30 à 16 h 30
Communications orales
Session 3 – Les données ouvertes : entre ambivalences et possibilités pour les organisations publiques
Présidence/Animation : Vincent LIQUETE (Université de Bordeaux )
Batiment : (T) TROTTIER
Local : (T) 60
15 h 30
Analyse des stratégies autour de l’usage des données massives (big data) par les services publics au Sénégal
Sokhna fatou Seck (Université de Grenoble)

Notre posture face au phénomène du Big Data, se situe à équidistance des postures cybernétiques survalorisant le rôle des données (data) et voulant réduire l’humain à des données chiffrées. Nous convenons que les données chiffrées associées à d’autres paramètres de type socioculturel, socioéconomique etc. peuvent apporter une valeur prédictive à l’information et qu’elles sont au cœur du fonctionnement des institutions publiques. Néanmoins les prises de décisions algorithmiques qui fonctionnent le plus souvent sans surveillance humaine ne garantissent pas aux citoyens un traitement équitable. La crainte d’une surveillance constitue aussi un sujet d’inquiétude. Raison pour laquelle on se demande si l’exploitation massive de mégadonnées publiques prend suffisamment en compte les aspects d’ordre éthique ou encore si la frontière entre les données publiques  et les données privées n’est pas abolie à l’aune du Big Data. A travers cet article nous cherchons à montrer que les stratégies d’utilisation des données massives se situent entre stratégie de performance et risque d’exclusion, entre volonté de transparence et risque de surveillance. Le document Sénégal numérique 2025 et les projets de l’Agence de l’Informatique de l’Etat (ADIE) servent de base à cette étude axée sur les critères de: performance, mutualisation, transparence, protection et sécurité des données. Grâce à cette réflexion critique les paradoxes et les tâtonnements autour des stratégies seront ainsi décelées.  

Résumé
16 h 00
FRBRisation et perspectives d’épaississement sémantique des catalogues des bibliothèques par les données ouvertes : de réels avantages pour les usagers et les collections des bibliothèques?
Antoine Henry (Aix-Marseille Université), Fabrice Papy (IRSIC (EA 4262) / Université de Lorraine), Edwige Pierot (IRSIC (EA 4262) / Aix Marseille Université)

L’objectif du programme « Transition bibliographique », initié par la BnF et l’ABES et qui implique l’ensemble des bibliothèques municipales, universitaires et de recherches, est d’exposer les catalogues des bibliothèques dans le web de données pour répondre à l’évolution des usages des internautes, en structurant les données selon le modèle FRBR pour se rapprocher du nouveau code de catalogage Resource, Description and Access (RDA). Cette transition vise délibérément à abandonner la logique des documents et à la substituer à celle d’œuvres autour desquelles s’agrégeront données catalographiques et données d’autorité sur des personnes, des organisations, des concepts, des évènements que pourvoiront, à partir de leurs entrepôts de données les deux institutions de référence. Cette transformation majeure n’est pas sans conséquence pour les bibliothèques, « lieux du savoir » construits comme des « espaces de cohérence » autour de collections principalement physiques que le catalogue informatisé transpose pour en améliorer l’accès. 

Résumé
Soir
16 h 30 à 18 h 30
Cocktail
Célébration du GRICODD
Présidence/Animation : Monica MALLOWAN (Université de Moncton)
Discutant : Christian Marcon (IAE - Université de Poitiers)
Batiment : (T) TROTTIER
Local : (T) cafétéria zone cocktail
16 h 30
Plénière
Afficher tous les résumés
Avant-midi
09 h 15 à 10 h 45
Communications orales
Panel de chercheurs – Les données ouvertes en recherche
Présidence/Animation : Dominique Maurel (UdeM - Université de Montréal)
Batiment : (T) TROTTIER
Local : (T) 2100
09 h 15
L’horizon d’une culture de la donnée ouverte : de l’utopie aux pratiques de gouvernance des données
anne lehmans (Université de Bordeaux)

Le développement des open data en France, confirmé par les politiques récentes, conduit les acteurs à s’interroger sur les stratégies et les pratiques de gestion des données à mettre en place dans les organisations concernées. Un projet de recherche sur la culture des données, à partir d’une analyse des discours et d’une enquête qualitative sur les pratiques de gestion des données, montre que, face aux demandes, aux risques et aux avantages perçus dans l’agenda de l’ouverture et de la diffusion des données publiques, des stratégies variées de gouvernance des données s’installent, avec des effets sur le management de l’information et la gestion des connaissances. Elles remettent en question les modes d’organisation et la répartition des “compétences métiers” par rapport à la production, à l’organisation et à la mise en circulation de données ouvertes pour leur réutilisation. Dans ce contexte de dialogue entre un projet politique d’ouverture et de transparence et la réalité d’une gouvernance en construction, des formes de “bricolages” se mettent en place pour fournir leur épaisseur aux données, une épaisseur qui reflète la complexité des processus pour assurer la durabilité de la donnée à travers la qualité, la sécurité, l’usabilité, et la légalité.

Résumé
09 h 35
Epistémologie de la donnée au risque de la connaissance : approches croisées
Vincent LIQUETE (Université de Bordeaux ), Armelle Gilliard (Université de Bordeaux )

Face à la multiplication des approches et des pratiques autour des données (ouvertes et/ou de recherche), cette contribution vise à interroger les définitions et les délimitations pour comprendre ce que sont fondamentalement les données, leurs enjeux et leurs incidences en matière professionnelle notamment pour les acteurs de la gestion de l’information-documentation. L’originalité de notre propos sera de croiser une approche épistémologique scientifique avec une épistémologie pragmatique d’une experte de la donnée pour comprendre le périmètre de la donnée, son histoire, puis en mesurer les impacts sociaux et incidences professionnelles. Cette communication est le fruit d’une recherche française initiative d’excellence (IDEX CNRS) 2016-2017 intitulée « Médiation et Valorisation des Données pour l’Enseignement » (MVDE).

Résumé
09 h 55
Usages de données dans l’éducation : quels scénarios pédagogiques?
Camille Capelle (Université de Bordeaux), Marthe-Aline Jutand (PRAG mathématiques-statistique, Laboratoire CeDS, ISPED, Université de Bordeaux), Franc Morandi (Professeur des Universités en Sciences de l'Éducation, Laboratoire IMS-RUDII, UMR 5218 CNRS, Université de Bordeaux.)

Dans le contexte du Big Data, l’intérêt des données n’échappe plus à la sphère sociale, qui après que les industriels s’en soient emparés, doit s’en saisir à son tour. L’institution scolaire et les enseignants ont un rôle à jouer pour permettre aux élèves, futurs citoyens, d’appréhender la question des données, de comprendre leurs contenus et le processus ayant permis de les produire, et ainsi de développer les compétences nécessaires pour en faire usage. L’accès à la pluralité des données, tant en termes de quantité que de qualité, nous conduit à nous interroger sur son impact dans la construction pédagogique. Il ne s’agit plus seulement d’apprendre à utiliser des données pour valider des hypothèses (captage de données), mais plutôt d’interroger la structure et le contenu de données préexistantes pour se les approprier et construire de nouveaux savoirs. Selon leurs modalités de collecte et de mise à disposition, la construction de sens et la pertinence des informations produites sont loin d’être évidentes. Cela interroge les scénarios pédagogiques construits par les enseignants et les savoirs mis en jeu pour les élèves. Nous commencerons par évoquer la problématique de la réutilisation des données ouvertes pour l’éducation. Puis nous présenterons la méthodologie choisie avant d’exposer les premiers résultats d’une recherche concernant les scénarios pédagogiques et les rapports aux savoirs qui se construisent autour des données.

Résumé
10 h 15
Discussion
10 h 45
Pause
11 h 00 à 12 h 00
Communications orales
Session 4 – Les organisations de recherche face à l’essor des données : analyser les données issues des médias sociaux
Présidence/Animation : Sylvie Grosjean (Université d’Ottawa)
Batiment : (T) TROTTIER
Local : (T) 2100
11 h 00
Rendre l’activité des médias sociaux intelligible pour autrui et pour soi : une équipe interdisciplinaire, des méthodes standardisées et un objet frontière
François Lambotte (UCL - Université catholique de Louvain)

Créer en 2013, notre laboratoire travaille sur l'intelligibilité de l'activité des médias sociaux pour autrui (e.a. l’animateur de communauté) et pour soi (e.a. le membre de la communauté) dans un contexte professionnel. Afin de combler le trou entre mesures existantes de l’activité, visualisations de données et intelligibilité de l’activité, nous avons constitué une pluridisciplinaire à la croisée de ces différents acteurs et savoirs. Les objectifs de cette équipe sont de développer des mesures d’activités intelligibles regroupées dans un tableau de bord et d’évaluer l’apport de celles-ci pour autrui et pour soi. Inspirée par le travail de Star et Griesemer (1989) sur les objets frontières et les méthodes standardisées, la présente communication vise à expliquer comment nous créons, adaptons et négocions le développement actuel de notre prototype de tableau de bord - conçu comme un objet frontière - suffisamment « robuste » pour atteindre les objectifs communs et «assez plastique» pour répondre aux divers intérêts des différents acteurs du projet.

Résumé
11 h 30
Une approche méthodologique croisée du traitement des données de la recherche : le cas d’un corpus d’échanges issus de médias sociaux dans le domaine de la santé
celine paganelli (UNIVERSITE PAUL VALERY MONTPELLIER), Viviane Clavier (Université Grenoble-Alpes)

Dans le cadre d’un projet de recherche portant sur les médias sociaux et le sida financé par l’ANRS, se pose la question de l’articulation de méthodes qualitatives et quantitatives pour traiter des données issues de fils de discussion de forums consacrés à la prévention du VIH. Cette communication se focalise sur 4 méthodes qualitatives (analyse de contenu, analyse de discours, analyse conversationnelle, et entretiens) pour catégoriser, annoter et contextualiser des données. Ces méthodes sont toutes dédiées à l’analyse d’échanges sur les questions de sexualité, de consommation de produits illicites et d’addictions, de manière à faire émerger les comportements à risque d’exposition au VIH ainsi que les facteurs conduisant à cette prise de risque. Issues de différentes sources (Sida Info Service, Doctissimo et des tweets publics), le corpus annoté et catégorisé sera validé par les acteurs de la prévention et permettra la conception d’une plateforme d’annotation spécifiquement dédiée au risque du sida. En outre, les résultats de ces analyses permettront de définir un corpus d’entrainement destiné à développer des modèles de classification et de fouille de données utiles pour la modération de médias sociaux de santé. 

Résumé
Dîner
12 h 00 à 14 h 00
Dîner
Lunch libre
Après-midi
14 h 00 à 15 h 00
Communications orales
Session 5 – Les données massives (big data) en entreprise : entre transformations organisationnelles et culturelles
Présidence/Animation : Monica MALLOWAN (Université de Moncton)
Batiment : (T) TROTTIER
Local : (T) 2100
14 h 00
Les PME croient-elles aux données massives (big data)?
Christian Marcon (IAE - Université de Poitiers)

A l’heure de l’emballement des discours entrepreneuriaux favorables à l’exploitation des données massivement disponibles, dites big data, présentées comme prometteuses de réussite, les entreprises pourraient légitimement faire preuve de réserve. Après tout, elles sont régulièrement confrontées à des modes managériales annonciatrices de lendemains rentables, à l’image de la vogue du knowledge management dans les années 2000, dont les performances réelles appellent circonspection. Mais pour prendre de la distance, encore faudrait-il qu’un autre discours, scientifique, puisse offrir de la matière à s’interroger, sous l’angle précisément de la performance et des modalités et limites de la mise en œuvre. Or ce discours n’existe pas encore en France. L’heure y est encore aux questions plus prospectives, éthiques et anthropologiques.

Les petites et moyennes entreprises françaises sont particulièrement exposées à ce phénomène. Sous le feu des messages commerciaux et de leurs organisations professionnelles, elles s’interrogent sans doute, sans que l’on dispose de véritable étude de leur compréhension de la notion de big data, de leurs discours sur le sujet, des pratiques qu’elles peuvent avoir engagées, de leurs choix, leurs attentes, la manière dont elles envisagent de mesurer le retour sur investissement si elles ont choisi de s’y engager. Notre communication propose les résultats d’une étude qualitative en cours auprès d’un groupe de 30 PME régionales. 

Résumé
14 h 30
« Big Thick Data » pour l’intelligence collective : une nouvelle voie pour les organisations de type industriel, le cas de GRDF
Antoine Henry (Aix-Marseille Université)

La place croissante de la donnée dans les organisations contribue à faire muter les pratiques et les usages dans celles-ci. Face à cette mutation, qui véhicule une approche positiviste, nous nous interrogeons alors sur les transformations des pratiques d’une organisation industrielle et les usages « augmentés » par la donnée. Après un retour sur la culture de la donnée, les changements liés à cette approche, nous en venons à ses potentialités en tant qu’intelligence collective à mobiliser ses membres pour enrichir les données massivement collectées par l’organisation. Le but étant d’arriver à produire des « big thick data » utiles notamment pour générer du sens pour l’organisation.

Résumé
15 h 00
Pause
15 h 30 à 16 h 30
Communications orales
Session 6 – Les organisations face aux données massives (big data) : des organisations intelligentes?
Présidence/Animation : Vincent LIQUETE (Université de Bordeaux )
Batiment : (T) TROTTIER
Local : (T) 60
15 h 30
Les « thick data » comme pilier fondamental de la gestion efficace de territoires intelligents appréhendant la complexité par le biais d’une créativité et d’une innovation sociales ouvertes
Thomas Bonnecarrere (IAE de Poitiers)

Notre recherche porte sur l'implémentation d'un nouveau genre de système territorial, que nous nommons MAGITOPIA. Celui-ci repose sur une approche dialogique Big – Thick Data. Cette approche place au cœur des territoires l'inspiration des citoyens pour générer le développement collectif d'une « réalité créative » intersubjective. Celle-ci est nourrie des histoires et de l'imagination de ses acteurs traduites sous forme de « données épaisses » nourrissant l'analyse. L'objectif est de construire des territoires capables d'appréhender efficacement la complexité, en opérant un changement de paradigme : de prédiction algorithmique du futur à « imaginierie de futurs eutopiques ». Comment l'approche dialogique Big - Thick Data peut-elle favoriser une gestion efficace des territoires créatifs et évolutifs nécessitant d'analyser de manière fine la complexité afin de s'épanouir durablement dans celle-ci ? Notre travail se base notamment sur : Les analyses d'Allard et Blondeau (2014) concernant les citoyens capteurs et le « Nous quantifiant » ; Les analyses d'Einstein (1952) et Wentzel (2006) concernant la démarche imaginieriale nourrissant notre méthodologie de recherche – action ImagineerInt, que nous souhaitons introduire dans cette communication. Les résultats de notre recherche – action nous permettront, à terme, de fournir un exemple qualitatif concernant l'implémentation et la gestion d'un système territorial créatif et évolutif MAGITOPIA.

Résumé
16 h 00
Des machines pour prédire ou pour comprendre? En quoi l’apprentissage profond ne favorise pas la rencontre entre les données massives (big data) et les « thick data »
Jean-Sébastien Vayre (Université Toulouse Jean Jaurès (CERTOP UMR - 5044))

Le mouvement big data que nous connaissons aujourd’hui prépare un avènement sans précédent des intelligences artificielles au sein des organisations. Ces machines intelligentes sont d’un autre type que celles développées jusqu’aux années 90. À partir d’une importante documentation, nous proposons de revenir sur l’histoire de l’intelligence artificielle afin de mieux comprendre les implications sociocognitives de la diffusion des technologies de deep learning au sein des organisations. Nous soutiendrons que ces systèmes de traitement d’informations renvoient à des modèles de gestion des connaissances qui, s’ils permettent de favoriser l’adaptabilité des organisations, n’encouragent pas la réflexivité des hommes qui la composent. Nous verrons que le deep learning est ainsi associé à des postures cognitives qui, si elles sont compatibles avec les principes et les valeurs véhiculées par le mouvement big data, sont difficilement conciliables avec ceux qui sont propres au mouvement thick data. Si les technologies de deep learning doivent permettre aux organisations de réaliser des prédictions leur permettant d’agir de manière performante, les approches ethnographiques associées au mouvement thick data doit leur permettre de comprendre leur environnement de façon à agir intelligemment. Nous ouvrirons alors la discussion sur la façon dont certains systèmes de traitement d’informations peuvent néanmoins favoriser l’articulation des big data et des thick data.

Résumé
16 h 30
Mot de clôture