On décrypte avec Blef : Sommets Snowflake et Databricks, ClickHouse, DuckDB, BigQuery
#131 - Le zoom, le podcast avec Blef et la masterclass sur l'industrialisation de sa Data Visualisation
Hello,
Bienvenue dans l’édition #131 de la newsletter DataGen ! 👋
L’agenda de la semaine :
🔍 Zoom sur les 5 grosses news de 2025 sur le marché du Data Warehouse
🎙 Le podcast avec Christophe Blefari (aka Blef)
📚 Les ressources recommandées par Christophe
🎙 La masterclass sur l’industrialisation de sa Data Visualisation
C’est parti !
🔍 Zoom sur les 5 grosses news de 2025 sur le marché du Data Warehouse - 4 min
Ce zoom est tiré de mon échange avec Christophe Blefari (aka Blef), fondateur de la newsletter Blef.fr (la plus connue en France) et co-fondateur de Nao, un éditeur de code IA à destination des équipes Data. Christophe a été Head of Data et Staff Data Engineer dans des startups et grands groupes et est l’un des plus gros experts data en France.
1) L’unification des technologies transactionnelles et analytiques
Databricks a racheté Neon pour intégrer le déploiement de bases de données PostgreSQL dans leur offre. Historiquement, Databricks était surtout utilisé pour des cas d’usage analytiques. Avec ce rachat, l’objectif est qu’on puisse utiliser Databricks pour des cas d’usage transactionnels. De son côté Snowflale suit également cette tendance avec le rachat d’une boîte similaire : Crunchy Data.
“Ces cas d’usage étaient séparés : tu avais l’équipe Tech qui faisait la partie transactionnelle puis l’équipe Data qui faisait la partie analytique. L’objectif de Databricks et Snowflake est de “bridge the gap” en quelque sorte. Demain, tu enverras la donnée dans un seul endroit, tu pourras gérer ton back-end et ton analytique.”
2) L’émergence d’interfaces low-code/no-code chez Databricks
Databricks a annoncé à son Sommet la sortie d’une interface plus simple en drag & drop. Leur objectif est double :
- mieux adresser les entreprises type CAC40 qui ont beaucoup d’utilisateurs data non techniques
- concurrencer des ETL no code comme Informatica ou Talend qui sont plébiscités par ces mêmes profils data non techniques et donc par les entreprises type CAC40.
“La plupart des gens qui font de la data sont des profils moins techniques qui ne maîtrisent pas forcément SQL et Spark et qui préfèrent le drag & drop et le clic-bouton.”
3) La convergence des offres de Databricks et de Snowflake
Les deux géants du marché se livrent une véritable course à l’armement. Ils se copient sur toutes les features et même sur les rachats. Par exemple, c’est Databricks qui a racheté Néon mais il semblerait que Snowflake souhaitait également l’acheter et que Databricks leur aurait coupé l’herbe sous le pied. C’est ce qu’a entendu Christophe lors du Sommet de Snowflake. On retrouve cette convergence sur d’autres sujets : intégration avec dbt, intégration d’Iceberg, création d’interfaces no code…
“Ce qu’il faut comprendre, c’est que pour grossir, ils vont chercher des clients qui sont chez leurs concurrents. Pour faciliter la transition des clients, ils doivent avoir les mêmes features.”
4) La montée en puissance de ClickHouse qui devient un véritable challenger
La solution gagne rapidement des parts de marché. Elle s’impose comme une alternative sérieuse face aux géants que sont Snowflake, Databricks, BigQuery… Ils ont beaucoup innové et se positionnent comme le Data Warehouse de référence lorsqu’on souhaite réduire ses coûts ou lorsqu’on travaille sur des cas d’usage en temps réel. Des entreprises comme OpenAI, Anthropic, Netflix et Disney l’ont adopté.
“La raison principale pour laquelle tu migres d’une plateforme à une autre, c’est la réduction des coûts. Et ClickHouse est fort là-dessus.”
5) Le lancement par DuckDB de DuckLake, l’alternative open source
DuckDB a lancé DuckLake, un Lakehouse basé sur DuckDB qui permet de déployer un Lakehouse ou un Data Warehouse sans coût de licence. En termes de features, ça ressemble à ce que propose Databricks. La solution attire les entreprises qui souhaitent réduire leurs coûts et garder le contrôle de leur infrastructure.
“Je vois de plus en plus de boîtes qui se posent la question. La solution permet des réductions de coûts significatives car tu ne payes pas de licence à une entreprise. C’est open source, tu gères tout de ton côté.”
🎙 Le podcast avec Christophe blefari (Aka Blef)
On aborde :
Les news Databricks : unification transactionnel x analytique, interfaces low-code, intégration dbt, Iceberg
Les news Snowflake : Iceberg, OpenFlow, rachat de Crunchy Data, Semantic Views
La convergence des offres Databricks & Snowflake (cf. zoom)
La position de Google BigQuery (leader silencieux du marché)
La montée en puissance de ClickHouse : le challenger (cf. zoom)
Le lancement par DuckDB de DuckLake : l’alternative open source (cf. zoom)
Blef nous parle de La Forward Data Conference
“Snowflake et Databricks font infiniment plus d’efforts marketing que BigQuery. D’où le fait qu’on en parle moins. Pourtant, ils ne sont pas à la ramasse du tout. Ils ont sorti beaucoup de features sur 2025.”
Liens vers l’épisode : Apple Podcasts | YouTube | Spotify
📚 Les ressources recommandées par Blef
“Il écrit plusieurs articles par semaine qui permettent de suivre l’évolution des modèles d’IA. Il compare les modèles en faisant plein de tests. Il a un test qui s’appelle “pélican sur un vélo”. Dès qu’un modèle sort, il fait un test en demandant : “Est-ce que tu peux me dessiner un pélican sur un vélo ?” C’est top.”
“On parle beaucoup d’agents. Cet article résume bien ce qu’il y a derrière d’un point de vue technique. Ça m’a beaucoup inspiré.”
🎙 La masterclass sur l’industrialisation de sa Data Visualisation et le concept de Design System
J’ai reçu Frédéric Forest, l’expert en Data Visualisation qui a cofondé Datatorii, le cabinet de conseil spécialisé sur la data et notamment sur Power BI.
On aborde :
Le concept de Design System (tokens, charts, patterns…)
Dans quel contexte les entreprises industrialisent leur Data Visualisation
Les étapes à suivre pour mener ce type de projet (outils, organisation…)
Les plus gros challenges de cette approche et les conseils de Frédéric
“Cette approche est pertinente pour un Head of Data qui a par exemple 4 équipes distinctes qui font du dashboarding, potentiellement dans des pays différents. Il a besoin d’uniformiser tout ça pour améliorer à la fois la qualité et la cohérence.”
Liens vers l’épisode : Apple Podcasts | YouTube | Spotify

