Dans la société d’aujourd’hui, des données sont générées chaque jour un volume de 2,5 x 1018 octets, environ. Ces données sont de nature complexe et peuvent combiner différents aspects en même temps, entre autres: être multidimensionnel, aller lié aux restrictions longitudinales spatiales et longitudinales (qui évoluent au fil du temps), multimodal (combinant différentes sources et origines), ainsi que comme provenant de l’exécution de plusieurs processus et / ou modèles parallèles. La visualisation des données comprend la gestion de toute cette complexité pour les convertir en informations, c’est-à-dire obtenir des réponses aux questions ou aux objectifs de la visualisation. L’analyse visuelle ne remplace pas les statistiques classiques ou la construction de modèles miniers de données, mais fournit une perspective différente sur la base des capacités du système visuel humain. La visualisation des données en tant qu’outil d’analyse vise à lutter contre « Syndrome des boîtes noires », déjà présentées dans ce blog avant.
Ainsi, l’objectif d’une visualisation de données est de montrer la nature du même, facilitant leur compréhension et exploration ultérieure. C’est alors une analyse visuelle préliminaire pour détecter les aspects clés présents dans les données: Distributions de chaque variable, des valeurs extrêmes, des relations entre les variables, les tendances, les modèles, les valeurs aberrantes, etc., il est nécessaire d’avoir Un environnement graphique permettant de visualiser des données à l’aide de différentes prévisions, combinant des outils statistiques avec des modèles générés à partir des données, à partir de descripteurs statistiques à la suite d’un algorithme de classification non supervisé, par exemple, en variant les paramètres de celui-ci.
Dans ce sens, l’évolution de la visualisation des données n’a pas été axée uniquement sur la capacité Pour générer des graphiques complexes avec une résolution plus élevée dans une brève période de temps, mais elle a incorporé des éléments interactifs dans la visualisation elle-même, sous la forme d’opérations de base (sélection, filtrage, etc.). Selon les travaux de (Keim et al., 2008), l’analyse visuelle des données est basée sur un mantra une version modifiée de la version proposée par (Shneiderman, 1996):
« Analyse d’abord –
Affiche l’important –
zoom, filtrer et analyser plus loin –
Détails sur la demande «
Ainsi, le processus d’analyse visuelle consiste en un cycle continu qui commence dans les données et ses transformations possibles, et qui est bifurquée en deux approches complémentaires, la visualisation et la construction de modèles, parmi lesquelles il existe un dialogue dans le but d’extraire des connaissances pouvant être utilisées pour itérer le processus d’analyse visuelle avec un niveau de détail et / ou une complexité plus élevé, comme indiqué dans Figure 1. La capacité d’interaction doit permettre à l’utilisateur de la visualisation d’effectuer au moins les opérations de base définies par Ben Shneiderman (aperçu, Zoom, filtre et sélection).