¿E/S de disco supera la caché de memoria? Un benchmark sorprendente

2025-09-05

La sabiduría convencional dicta que el acceso a la memoria es mucho más rápido que la E/S de disco, haciendo que la caché de memoria sea esencial. Esta publicación cuestiona esa suposición con un benchmark inteligente: contar el número de dieces en un gran conjunto de datos. Usando un servidor antiguo y optimizando el código (despliegue de bucle y vectorización), junto con un motor io_uring personalizado, el autor demuestra que las lecturas directas de disco pueden superar la caché de memoria en condiciones específicas. La clave no es que el disco sea más rápido que la memoria, sino que los métodos tradicionales de acceso a la memoria (mmap) introducen una latencia significativa. El motor io_uring personalizado aprovecha el alto ancho de banda y el pipeline del disco para enmascarar la latencia. El artículo enfatiza la adaptación de algoritmos y acceso a datos a las características del hardware para obtener el máximo rendimiento en arquitecturas modernas y analiza las tendencias futuras del hardware.

Leer más

¿El fin de la Ley de Moore? El cuello de botella del rendimiento del software tradicional

2025-09-02

En los últimos 20 años, ciertos aspectos del hardware han avanzado rápidamente (por ejemplo, recuento de núcleos, ancho de banda, unidades vectoriales), pero las instrucciones por ciclo, IPC y la latencia se han estancado. Esto rompe las viejas reglas prácticas, como "la memoria es más rápida que el disco". El artículo argumenta que las ganancias de rendimiento del software tradicional (monohilo, no vectorizado) están limitadas por estas métricas estancadas, lo que lleva a costos exorbitantes de fallos de caché. El autor sugiere que debemos repensar la forma en que escribimos software para aprovechar al máximo las capacidades de hardware en constante evolución.

Leer más