E/S disque plus rapide que la mise en cache mémoire ? Un benchmark surprenant

2025-09-05

La sagesse conventionnelle veut que l’accès à la mémoire soit beaucoup plus rapide que les E/S disque, ce qui rend la mise en cache mémoire essentielle. Cet article remet en question cette hypothèse avec un benchmark intelligent : compter le nombre de dizaines dans un grand ensemble de données. À l’aide d’un serveur ancien et en optimisant le code (déroulement de boucle et vectorisation), ainsi qu’avec un moteur io_uring personnalisé, l’auteur démontre que les lectures directes sur disque peuvent surpasser la mise en cache mémoire dans des conditions spécifiques. La clé n’est pas que le disque soit plus rapide que la mémoire, mais plutôt que les méthodes d’accès à la mémoire traditionnelles (mmap) introduisent une latence significative. Le moteur io_uring personnalisé exploite la bande passante élevée et le pipeline du disque pour masquer la latence. L’article souligne l’importance d’adapter les algorithmes et l’accès aux données aux caractéristiques du matériel pour obtenir des performances maximales dans les architectures modernes, et examine les tendances futures du matériel.

Lire plus

La fin de la loi de Moore ? Le goulot d'étranglement des performances des logiciels traditionnels

2025-09-02

Au cours des 20 dernières années, certains aspects du matériel ont progressé rapidement (par exemple, nombre de cœurs, bande passante, unités vectorielles), mais les instructions par cycle, l'IPC et la latence sont restés stagnants. Cela remet en question les anciennes règles empiriques, telles que « la mémoire est plus rapide que le disque ». L'article soutient que les gains de performance des logiciels traditionnels (monofils, non vectorisés) sont limités par ces métriques stagnantes, entraînant des coûts exorbitants de ratés de cache. L'auteur suggère que nous devons repenser la façon dont nous écrivons les logiciels pour exploiter pleinement les capacités matérielles en constante évolution.

Lire plus