Plusieurs sociétés fortement impliquées dans l’analytics viennent de créer l’association Open Data Alliance qui se présente comme « un effort partagé d’industriels pour promouvoir hadoop de l’Apache Software Foundation et plus généralement des technologies big data ». ODP se donne pour objectif d’accélérer la disponibilité de solutions big data en définissant, testant et certifiant ce qu’elle appelle un ensemble de solutions de base baptisé « ODP Core ». Ne vient-elle pas marcher sur les plates-bandes de l’Apache Software Foundation ? Dans un communiqué expliquant le rôle qu’elle se donne, l’ODP « cherche à renforcer mais pas à challenger le rôle de l’ASF dans le développement et la gouvernance des projets à venir » et « vise à réduire la fragmentation et à accélérer le développement et l’innovation dans l’écosystème hadoop ». Et donc d’assurer la comptabilité entre les différentes distributions du marché.

L’ODP Core concentrera ses efforts sur Apache hadoop (Incluant HFDS, YARN et MapReduce) et le projet Apache Ambari supervision et à l’administration de clusters Hadoop. Lorsque ce « noyau » sera considéré comme stabilisé, l’ODP étendra son travail à d’autres projets.

Parmi les membres fondateurs, on peut citer GE, Hortonworks, IBM, Infosys, International Telco Pivotal et SAS qui ont été rejoints par altiscale, Capgemini, CenturyLink, EMC, Splunk, Teradata et VMware. Certains de ces acteurs ont déjà travaillé ensemble sur des projets communs. C’est par exemple GE et Pivotal qui ont travaillé de concert sur la combinaison du big data et de l’Internet des objets. Hortonworks et Pivotal ont annoncé qu’ils joindraient leurs efforts pour le support d’hadoop et des technologies data lake.

« Hadoop est un écosystème de solutions reliées entre elles visant à fournir une plate-forme de traitement bid data, explique Raymie Stata, CEO d’Altiscale. La valeur d’hadoop est de plus en plus reconnue par les entreprises d’où la nécessité de mettre en place des mesures pour tester des solutions produits par cet écosystème ».

« La meilleure approche d’accélérer l’innovation et l’adoption de plates-formes telles qu’hadoop se fait par l’intermédiaire de modèle open source », considère Shaun Connolly, vice president of corporate strategy d’Hortonworks. Peut-être mais cette approche peut parfois générer des solutions pas toujours compatibles entre elles. Le code d’hadoop est bien géré par l’Apache Software Foundation mais avec parfois des distributions commerciales par toujours compatibles entre elles. Le rôle de l’ODP vis-à-vis de l’Apache Software Foundation pourrait être comparé à celui de la Linux Foundation par rapport au projet Linux autour du noyau Linux Standard Base dont l’objectif est de réduire le coût du système d’exploitation, en particulier entre les différentes distributions Linux existantes.