Le 26 mars 2026 s’est tenue la 10e édition du pgDay Paris, après les 10 ans en 2025. Cette édition s’est déroulée, comme à son habitude, au sein de l’espace Saint Martin, dans le 3e arrondissement de Paris.
LOXODATA était, comme chaque année depuis le début, sponsor « partner » de l’évènement. Nous avions un stand, et nous avons pu échanger avec les visiteurs qui ont pris le temps de venir nous rencontrer.
Cette année encore, 2 salles de conférences étaient dédiées à l’événement. La seconde était majoritairement attribuée à des conférences faites par des sponsors. Par rapport à 2025, les créneaux étaient de 45 minutes au lieu de 20 pour les sponsors, ce qui a permis des conférences plus étoffées techniquement.
Le programme complet est sur le site du pgDay Paris 2026
Les conférences
Le programme de la journée de conférences comportait douze sessions en anglais, dont quatre étaient réservées aux sponsors, dans la seconde salle. Une seule autre conférence a eu lieu dans cette salle, les autres étaient programmées dans l’auditorium. Comme les années précédentes, une captation vidéo a eu lieu, mais uniquement dans l’auditorium.
Après l’accueil des participants, Boriss Mejías a pris le micro pour nous rappeler la disparition tragique de Simon Riggs il y a 2 ans, et des valeurs qu’il portait et affectionnait.
Ce fut ensuite le moment de la keynote.
A framework for self-driving databases
Luigi Nardi et Marc Linster nous ont parlé de bases de données autonomes en partant sur une analogie : les taxis autonomes de San-Francisco. Au fil de ce déroulement, leurs arguments pointent ce qui leur semble nécessaire selon eux pour avoir une base de données qu’on qualifierait d’autonome. Il ne s’agit pas de tout confier à un agent, mais de se limiter aux opérations courantes, avec des limites connues, tout comme les taxis se contentent de conduire dans des conditions météo précises.
Ils concluent sur les évolutions qui leur semblent importantes pour aller dans cette direction dans la communauté, avec des outils et extensions, mais aussi en ajoutant des fonctionnalités dans le code de PostgreSQL pour faciliter la mise en place de cette gestion autonome.
From Crisis to Control: Detect and Fix Corruptions
Dans la seconde salle, Derk van Veen nous a fait part de difficultés de corruption auxquelles il a eu à faire face. Pour cela, il a dû rentrer plus en détails dans le stockage des données et du TOAST, à l’aide d’extensions comme pageinspect, pg_visibility ou pg_surgery. Ce voyage pas vraiment trivial dans les entrailles de PostgreSQL lui a permis de résoudre certains problèmes, et de mitiger la portée de certains autres, permettant de débloquer le vacuum et de permettre à nouveau l’accès aux données. Tout cela résultait d’une montée de version majeure ayant eu lieu quelques années plus tôt, et qui s’écartait des meilleures pratiques.
postgresql.org: The hidden parts
Dans cette présentation, Magnus Hagander, qui participe à la core team, nous précise qu’il participe aussi à l’équipe infrastructure de la communauté. Cette équipe très importante gère les outils en ligne de la communauté et nécessite des personnes de confiance. Il nous décrit par quelques chiffres le nombre de personnes qui font partie de cette équipe, avec une liste des services et le nombre de machines et d’hébergements associés. Personne n’étant dédié à l’infra, des choix sur la simplicité et le long terme sont régulièrement faits et permettent de continuer à faire fonctionner les services. Ces outils ne sont pas toujours récents ni à la mode, mais ils sont toujours fonctionnels et maintenus, et l’infrastructure continue de bien fonctionner, et ce malgré l’augmentation massive de trafic repérée depuis la venue des bots IA.
Database optimization and reducing global digital pollution
Dans la seconde salle, la conférence animée par Catherine Bouxin a mis en avant l’impact écologique souvent sous-estimé du numérique, en particulier celui des bases de données. Elle a expliqué que la croissance massive du streaming vidéo notamment, entraîne une explosion de la consommation énergétique des data centers. L’importance d’optimiser ses bases de données (index, partitionnement, stockage) permet non seulement d’améliorer les performances et de réduire les coûts, mais aussi de limiter l’empreinte carbone.
Au-delà de la technique, des actions simples ont été évoquées comme adopter un hébergement écoresponsable, limiter la qualité du streaming ou éviter les sauvegardes inutiles. Enfin, elle a insisté sur l’importance d’une approche globale, incluant audits, bonnes pratiques de « green coding » et collaboration avec des experts, pour répondre aux enjeux environnementaux à venir.
Operational hazards of managing PostgreSQL DBs over 100TB
Teresa Lopes nous a parlé de cas peu communs de grosses bases de données qui dépassent les 100 To. Elle a commencé par rappeler que la taille n’est pas le seul problème, le nombre de transactions est aussi un facteur important, surtout dans ce genre de contexte. Elle a abordé quelques solutions qu’elle a pu mettre en place avec succès. En particulier, elle a abordé la gestion des lectures et écritures, les vacuums, les sauvegardes et restaurations, le partitionnement, et la gestion des performances des requêtes. Elle nous a également averti que la conférence n’avait pas pour vocation de nous donner une recette miracle. Chaque cas est différent, mais se poser des questions assez tôt permet de limiter les risques.
Creating a “Dungeon Master” with Postgres and MCP
La conférence de Matt Cornillon proposait une approche mêlant PostgreSQL et intelligence artificielle. L’idée était de montrer comment un agent IA peut gérer une partie de jeu de rôle, en interagissant avec une base de données, pour maintenir l’état du jeu et répondre aux actions des joueurs. La conférence a introduit le concept de MCP (Model Context Protocol) pour connecter une base PostgreSQL à un agent IA, ainsi que la notion de « skills », plus centrée sur l’agent et ses capacités. Une réflexion a été portée sur les skills et la sécurité, dans l’objectif d’éviter les « hallucinations » de l’agent ainsi que l’exécution de requêtes dangereuses. Enfin, Matt a souligné les atouts de PostgreSQL pour ce type d’usage, comme la robustesse, la légèreté, ou l’écosystème riche.
Synchronisation of logical replication slots
Dans la seconde salle, Sébastien Lardière de LOXODATA présentait, quant à lui, une fonctionnalité introduite avec PostgreSQL 17 : la synchronisation des slots de réplication logique. Il s’agit de continuer à utiliser la réplication logique lorsqu’un réplica n’est plus disponible et qu’il a été décidé de promouvoir un standby physique.
PostgreSQL permet de réaliser cette opération, mais un patch en cours est sur le point de permettre la gestion des changements de primaires de manière plus simple, à l’instar de ce qui est pratiqué pour la réplication physique.
Customizing the Wordle Game Experience with PostgreSQL
Dans cette conférence plus étoffée que son ligntning talk de l’année passée, Pavlo Golub a montré comment PostgreSQL peut être utilisé pour personnaliser l’expérience du jeu Wordle. L’idée principale était de recréer et enrichir le jeu directement en base de données, en gérant les listes de mots, les règles de validation et les mécanismes de scoring. Grâce à des fonctionnalités comme la recherche textuelle et le « fuzzy matching », il devient possible de proposer des variantes, comme la recherche des mots similaires. Enfin, les participants ont pu jouer contre l’IA Gemini, avec une victoire pour la salle et une pour l’IA.
Cette conférence illustrait bien le potentiel de PostgreSQL comme plateforme flexible pour créer des expériences ludiques et complètes.
Postgres Therapy Session: What the Elephant Can Learn from Its Rivals.
Pour cette dernière conférence, Mayuresh Suresh Bagayatkar nous parle de fonctionnalités qui existent dans d’autres systèmes de bases de données, ou comme il l’indique en titre politiquement incorrect « que pourrions-nous voler aux autres bases de données ? ». Une courte description de plusieurs fonctionnalités est faite, suivi pour certaines des raisons pour lesquelles elle ne sont pas dans postgres. Pour les fonctionnalités qui pourraient apporter des améliorations, quelques idées sont présentées sur les possibilités de les ajouter.
Conclusion
Cette année, on a pu sentir le virage de l’IA arriver dans les conférences, tant dans les sujets sur l’utilisation des agents par exemple, que sur la forme, avec un certain nombre d’illustrations fabriquées par ces outils.
Sur le contenu, les fondamentaux continuent, avec des sujets originaux. Enfin, c’est bien entendu le côté humain qui est le plus intéressant sur ce genre d’évènement. Bien que le nombre de participants soit inférieur à l’année dernière, les échanges étaient tout de même intéressants lors des pauses.
Nous espérons que l’année prochaine, l’évènement aura de nouveau lieu, et que le public sera de retour, plus nombreux dans l’auditorium.