Atelier/Workshop bilatéral sur les "Big-data" : optimisation à grande échelle et applications

Le service scientifique du Consulat a soutenu l’organisation d’un atelier-rencontre entre des mathématiciens et des informaticiens de Vancouver et Clermont-Ferrand, des milieux universitaires et industriels, qui s’est déroulé les 7 et 8 Juin avec pour but d’échanger sur de nouvelles idées et discuter des orientations de recherche dans les domaines de l’analyse des « big-data » et de l’optimisation à grande échelle. Cet atelier fait suite à l’accord de coopération signé l’an dernier entre l’Université Blaise Pascal et les université SFU et UBC de Vancouver.

Le traitement de l’information et des données est au cœur de toute organisation et son analyse est cruciale pour décrire, prédire et améliorer la performance. Il existe des techniques mathématiques et informatiques avancées appelées algorithmes, afin d’extraire lesdites données et aider à une prise de décisions plus informée. Aujourd’hui, les données sont disponibles à partir de nombreuses sources et augmentent en volume, vitesse, variété, variabilité et complexité.

Les objectifs de la rencontre

  • mettre en place un réseau de collaboration entre les chercheurs canadiens et français en mathématiques et en informatique
  • identifier de nouveaux projets de recherche prometteurs en mettant l’accent sur les « big data », l’optimisation des problèmes à grande échelle et leurs applications.

Une pléthore d’informations : le défi de l’analyse des "big data"

La croissance exponentielle et la disponibilité des données, souvent appelées « big-data », nous permettent de développer des modèles à une échelle et avec des détails sans précédents. L’optimisation est un domaine interdisciplinaire des mathématiques et de l’informatique qui se trouve au centre de la science et de l’ingénierie moderne. Une utilisation efficace de ces modèles dans la prise de décision représente un défi pour les techniques de calcul existantes. De récentes percées théoriques et informatiques montrent la promesse de repousser les limites de nos connaissances dans ces domaines pour répondre aux défis de l’analyse des « big-data ».

En pratique

Parmi les applications, la biologie moléculaire offre un large éventail de défis en lien avec les « big-data » et les techniques d’optimisation. L’interprétation du criblage à haut débit des jeux de données est restée l’un des défis majeurs de la biologie computationnelle au cours de la dernière décennie. Alors que la quantité de connaissance en biologie augmente, il est de plus en plus difficile de gérer de façon significative, d’intégrer et d’analyser ces données. La théorie des graphes, l’apprentissage automatique et l’optimisation fournissent des procédés et des outils qui peuvent contribuer à faire face à ces défis. L’une des deux journées a été l’occasion, entre autres, de discussions autour de l’optimisation des traitements contre le cancer et de l’exploration des réseaux biologique dans le but de trouver de nouveaux médicaments.

La délégation française comprenait :

  • des mathématiciens de l’Université Blaise Pascal
  • des mathématiciens de l’Université d’Auvergne
  • un représentant du département de la recherche et du développement de la société Michelin.

La délégation canadienne comprenait :

  • des représentants des Universités UBC, dont le département de l’Ecole de Commerce Sauder
  • des représentants de l’Université SFU.

Un chercheur à l’Ecole des hautes études en sciences économiques de Moscou en Russie était également présent.

Plus d’information sur le sitede la conférence.

Dernière modification : 21/06/2016

Haut de page