
Président de session : Tim Head (Wild Tree Tech)
Le big data est devenu un outil du secteur humanitaire, reconnu pour son efficience dans un environnement hautement dynamique et en constante évolution. Beaucoup s'accordent à dire qu’il a permis la collecte et l’analyse d’un large flux d’informations, ce qui a rendu possible un éclairage et une approche multidimensionnels de la prise de décision. Cependant, si les mécanismes d'intégration du big data dans les activités humanitaires semblent fluide, il convient de se poser la question des limites de l'efficacité de ceux-ci. En outre, la croissance incessante des fournisseurs de big data et des outils de collecte de données pose plusieurs questions de fiabilité et de pertinence.
Dans un secteur où l’innovation et l’engagement sont bienvenus et encouragés, le big data se présente par lui-même comme un instrument hautement efficace pour la conception de projets et l’adaptation des activités. Cependant, plusieurs défis sont à relever ; quelles sont les méthodes pour l’utiliser? Comment former le personnel afin de l’intégrer pleinement dans des scenarii d’urgence? Comme s'assurer de sa validité?
Javier Terán - Statisticien et membre de HDX (OCHA)
Yann Rebois - Spécialiste SIG (ICRC)
Benjamin Hertford - Assistant GISCience Research (University of Heidelberg)
Thomas Roca - Chercheur et statisticien (AFD)
Du fait de problèmes techniques, la session n'a pas pu être enregistrée.