Considérée comme l’or noir du XXIème siècle,

la donnée est devenue une ressource capitale pour les organisations. Que ce soit dans le domaine bancaire, de la santé, du marketing ou encore du bâtiment, les données sont massivement disponibles et constituent une mine d’informations qui peuvent donner un avantage décisif si elles sont exploitées de manière efficace.

De nombreuses entreprises élaborent donc une stratégie de valorisation des données

dans le but d’accroître leur compétitivité, d’améliorer sans cesse leurs process de travail en dissociant ce qui marche bien de ce qu’il faut changer ou améliorer, et même plus, d’avoir un temps d’avance sur la concurrence en anticipant les évolutions et les freins propres à leur domaine.

Les données permettent de renseigner précisément sur l’activité de l’entreprise et plus globalement sur la situation dans le secteur d’activité. Mais les données à disposition sont de plus en plus nombreuses (on parle de gestion de données massives) et sont parfois mises à jour très fréquemment. La conséquence est que, sans l’application de méthodes efficaces et automatisées, il devient impossible de tirer toute l’information utile pour améliorer les prises de décisions. L’entreprise dispose alors de très nombreuses informations mais qu’elle ne peut pas utiliser efficacement, comme une mine d’or inexploitable faute de disposer des bonnes méthodes d’extraction.

L’intelligence artificielle

Longtemps restée un domaine d’experts, l’intelligence artificielle s’est démocratisée grâce à des outils rendant ces techniques accessibles avec des investissements raisonnables. Elles ont en outre la particularité de s’adapter à n’importe quel domaine dès lors qu’il y a des données, ce qui a largement contribué à ce qu’elles soient si massivement utilisées. Un outil comme Einstein Analytics de Salesforce par exemple, permet d’obtenir rapidement une bonne compréhension des données, développer des tableaux de bords intuitifs et faciles à maintenir, et même mettre en place assez simplement des modèles prédictifs pour les KPI les plus importants.

Analyse exploratoire

Deux approches, souvent complémentaires, sont couramment mises en œuvres. L’analyse exploratoire est utilisée dans le but de mieux comprendre les données à disposition. Dans ce cas, l’analyse se fait sans a priori particulier, sans déterminer à l’avance ce qui est recherché. L’objectif est de trouver des structures (patterns) inconnues, insoupçonnées, de faire émerger des idées nouvelles en découvrant des points de ressemblance ou de dissemblance dans les observations étudiées, ou encore en révélant qu’un facteur a un fort impact sur un autre alors que l’on ne s’en doutait pas. Le clustering par exemple consiste à découvrir des groupes homogènes initialement non identifiés comme tels, de manière à pouvoir prendre des décisions plus pertinentes pour chaque groupe plutôt qu’une décision globale qui, bien que réalisant un compromis, reste imparfaite car trop générale.

Analyse prédictive

Une autre approche, appelée analyse prédictive, consiste à s’intéresser à une information en particulier qui est de la plus haute importance mais difficile, voire dans certains cas impossible, à obtenir en situation normale. Des modèles permettent alors d’utiliser les données à disposition pour faire une prédiction de cette information et ainsi pouvoir prendre des décisions en s’appuyant sur cette information prédite essentielle, avec donc un gain en efficacité.

Les techniques d’analyse de données sont en constante évolution et couvrent maintenant des champs d’application tellement vastes qu’elles sont devenues incontournables pour toute entreprise qui a le souci de rester concurrentielle et développer son business. La maîtrise de ces techniques permet d’appréhender une grande quantité de problématiques et d’y apporter des solutions simples, rapides et efficaces ; elle est logiquement devenue une priorité pour les grands groupes mais aussi pour de nombreuses PME.

une femme et une lettre

De prochains articles aborderons certains aspects plus en détail, tels que les indicateurs statistiques, le clustering ou encore la réduction de dimension.