Le 23 février 2012 (13:35) - par InnoverMaintenant.fr
Tout au long de l'année 2012, InnoverMaintenant.fr, blog édité en
partenariat avec SAP France permettra à Nicolas Sekkaki, Directeur
général de l'éditeur en France, de donner son point de vue sur la
création de valeur par les systèmes d'information au service des
entreprises. Ces tribunes seront régulièrement publiées sur LeMagIT.
Cette semaine InnoverMaintenant.fr revient sur la réconciliation des
mondes décisionnels et transactionnels grâce aux technologies In Memory.
Quand Hasso Plattner, le co-fondateur de SAP, a commencé à évoquer
les travaux sur le In-Memory Computing menés au sein de l’institut de
recherche qu’il finance, c’est le scepticisme qui a accueilli ses
déclarations. Quand on y repense aujourd’hui, ce n’était que logique.
Car la trajectoire que dessinait alors
Hasso Plattner bousculait des certitudes ancrées dans les directions
informatiques des entreprises depuis des années, à commencer par celle
voulant que l’informatique décisionnelle, celle des rapports et autres
tableaux de bord, soit forcément distincte du monde transactionnel, où
l’entreprise enregistre ses transactions au fil de ses activités.
Cette séparation des deux univers se traduit par une complexité des sous-jacents techniques : ETL pour extraire les données, datawarehouse (ou entrepôt de données, NDLR) pour les stocker, datamarts, agrégats… L’industrie a rivalisé d’ingéniosité pour rendre le décisionnel suffisamment réactif aux besoins des entreprises. D’emblée, c’est tout cet édifice que Hasso Plattner a voulu remettre en cause. Dès 2009, dans un livre blanc fondateur au titre sans ambiguïté (« Une approche commune pour OLTP et OLAP en utilisant une base de données In-Memory en colonnes« ), il expliquait : « J’ai toujours pensé que l’arrivée des solutions de datawehouse n’était qu’un compromis. La flexibilité et la vitesse que nous avons gagnées l’ont été au prix d’un surcroît de gestion en extraction et chargement de données, ainsi que de contrôles accrus en matière de redondance ». L’objectif était donc tracé ; son caractère radical ne pouvait que susciter le scepticisme évoqué au début de mon billet.
Cet objectif est désormais à portée de main. La curiosité, l’intérêt ont supplanté l’incrédulité. Curiosité et intérêt des métiers, mais aussi de la DSI.
Cette séparation des deux univers se traduit par une complexité des sous-jacents techniques : ETL pour extraire les données, datawarehouse (ou entrepôt de données, NDLR) pour les stocker, datamarts, agrégats… L’industrie a rivalisé d’ingéniosité pour rendre le décisionnel suffisamment réactif aux besoins des entreprises. D’emblée, c’est tout cet édifice que Hasso Plattner a voulu remettre en cause. Dès 2009, dans un livre blanc fondateur au titre sans ambiguïté (« Une approche commune pour OLTP et OLAP en utilisant une base de données In-Memory en colonnes« ), il expliquait : « J’ai toujours pensé que l’arrivée des solutions de datawehouse n’était qu’un compromis. La flexibilité et la vitesse que nous avons gagnées l’ont été au prix d’un surcroît de gestion en extraction et chargement de données, ainsi que de contrôles accrus en matière de redondance ». L’objectif était donc tracé ; son caractère radical ne pouvait que susciter le scepticisme évoqué au début de mon billet.
Cet objectif est désormais à portée de main. La curiosité, l’intérêt ont supplanté l’incrédulité. Curiosité et intérêt des métiers, mais aussi de la DSI.
http://www.lemagit.fr/article/decisionnel-sgbd-in-memory-hana/10531/1/tribune-informatique-decisionnelle-informatique-transactionnelle-est-temps-reunir-les-deux-mondes/?utm_source=essentielIT&utm_medium=email&utm_content=new&utm_campaign=20120227&xtor=ES-6
Aucun commentaire:
Enregistrer un commentaire