Réponse à Philippe Nieuwbourg « L’innovation est-elle en panne dans la BI ? »

Philippe Nieuwbourg a publié ce 20 mai 2019 un article sur Decideo intitulé « Business Intelligence : L’innovation est-elle en panne ? »

Je vous invite à le lire et par la suite consulté mes éléments de réponses ci-dessous.

« Je partage ce point de vue sur le coup de mou des solutions BI. Mais avant la suppression des analystes, je discerne quelques sujets qui devraient encore occuper le marché de la BI.

Pour les acquis de la dernière décennie, et plus particulièrement l’intégration de l’analyse prédictive dans la BI, ce sujet n’est pour moi pas encore bien stable.
Certes le rôle de l’analyste BI analysant des KPIs et prenant des décisions est définitivement complété aujourd’hui par de la valeur additionnelle ajoutée quasi-automatiquement par les algorithmes analytiques. Mais ce processus a besoin d’encore plus de data en entrée et recentre le sujet sur la data intégration. Celle-ci doit surmonter le critère temps et tenir compte des dernières data générées, temps réel. Les modèles analytiques quant à eux doivent évoluer en toute autonomie face à l’accroit de ces data supplémentaires (plus uniquement mes mesures opérationnelles mais également des « sentiments » extraits d’autres sources comme les réseaux sociaux …etc…). Alors, le machine Learning doit-il être inclus dans la BI ou dans la Data Intégration ? Chacun prêche pour sa paroisse. En tout état de cause je dirai que cette pratique est encore en évolution aujourd’hui et que des fusions/absorptions devraient se jouer soit entre des acteurs DI ou BI et les nombreuses « data-agency » nées de l’analyse prédictive qui auront prouvées leur leadership.

Pour la gouvernance des données et plus particulièrement les nouvelles régulations sur la confidentialité, c’est un chapitre qui s’ouvre et qui doit en effet solutionner la problématique des analyses BI disséminées et non inventoriées dans l’entreprise. Là je rentre dans mon domaine, la Data Privacy, mais le lien avec la BI est que de nombreux acteurs s’efforcent de gérer la confidentialité au niveau de l’outil de BI, c’est à dire au niveau de l’utilisateur. Or plus de 60% des fuites de données proviennent des salariés des entreprises elle-même, donc de personnes qui ont accès aux données. Ainsi il semble préférable de dissocier la sécurité définie pour un utilisateur et l’anonymisation des données utilisées au sein de l’entreprise. Quelles-sont les analyses BI que vous réalisez pour lesquelles vous avez besoin d’autant de données sensibles concernant les personnes ?
Je pense ainsi que nous allons apprendre à faire de la BI et de l’analyse prédictive sur la base de données qui auront été anonymisées au préalable en conservant bien entendu leur utilité et leur intégrité. Si vous découvrez que le client ABC doit être particulièrement soigné et qu’on doit lui suggérer d’acheter le produit XYZ, alors si vous en êtes autorisé par l’entreprise, ces informations seront re-identifées et vous en connaitrez les identités précises. Ce scénario, qui peut paraître futuriste à certains, est déjà mis en place dans de nombreuses entreprises souhaitant protéger au maximum leur réputation.

Enfin, autre mouvement en cours, et présent à tous les niveaux, le Cloud. Pourquoi n’est-il pas évoqué dans votre article ?
Certes il ne s’agit que d’infrastructure qui au lieu d’être en locale sont dans le nuage, mais ce mouvement accélère l’utilisation de nombreux nouveaux logiciels y compris dans la BI. Comme mentionné les types de stockage se multiplient (RDBMS, Hadoop, NoSql, Stream, …) mais nous restons avec des outils BI qui ne connaissent quasiment que le SQL comme langage de requête. Aussi aujourd’hui ils utilisent tous leurs « drivers JDBC » magiques mais dans ce domaine on devrait constater des évolutions. J’observe une communauté,  Apache Druid,  qui permet de conserver les structures de ce langage mais qui l’enrichie afin de pouvoir mixer dans une même requête des sources s’appuyant chacune sur des technologies distinctes et qui sont lues comme des tables. Je ne sais pas si cette logique s’imposera (elle est déjà utilisée par de nombreuses Licornes), mais c’est définitivement un sujet qui peut soulager les outils BI de devoir stocker une énième version des données et d’être ainsi directement consommateur des données sources. Cela rejoint le sujet du langage de requête.

Le machine learning, la data privacy et l’évolution du langage sont donc pour moi des sources d’innovation qui n’ont pas encore dis leurs derniers mots. A suivre… »