Duplicamos el récord de decimales para log(2) a 3 billones de dígitos en solo 42.7 horas, una mejora de eficiencia de aproximadamente 50 veces en 3 años.
Lo siguiente es de Jorge Zúñiga, un ingeniero civil independiente enfocado en encontrar recetas matemáticas. Jorge ha estado trabajando con Jordan para aprovechar los servidores y el almacenamiento en nuestro laboratorio para lograr avances fundamentales en matemáticas. Estamos encantados de participar en esta investigación con Jorge y nuestro pequeño vídeo teaser en las redes sociales de hace un par de semanas obtuvo un gran apoyo.
Ver esta publicación en Instagram
Desde ese video, hemos seguido trabajando con Jorge para probar modelos en estaciones de trabajo y luego ejecutarlos por completo en el Servidor Supermicro E1.S, lleno SSD KIOXIA XD7P E1.S. La densidad de la plataforma y la capacidad de mantener tantas unidades cerca de la CPU la convierten en una gran plataforma para este tipo de investigación matemática.
Estamos orgullosos de presentar aquí los hallazgos de Jorge. – Brian Beeler
El control de calidad mediante pruebas de estrés representa una política saludable para determinar la capacidad real de una instalación de hardware determinada. El cálculo numérico es una práctica generalizada para implementar estas políticas. En particular, al evaluar el rendimiento real de su sistema con calidad profesional, hay múltiples herramientas disponibles para brindar resultados precisos.
Uno, desarrollado en Austria y uno de mis favoritos, es Matías Zronek Compañero de banco, que contiene varias pruebas de estrés exigentes para SSD, memoria, GPU y CPU. Otros paquetes informáticos de alto rendimiento, como GPUPI de Zronek, calculan la constante π utilizando la GPU. El cálculo de las posiciones decimales de π es una prueba estándar y común que ha aparecido muchas veces en la prensa científica especializada y en algunas redes sociales especializadas en matemáticas cuando se ha batido el récord de decimales conocidos. Hoy, Se conocen 100 billones de decimales (10^14) de π.
En BenchMate, también hay El triturador en Y de Alex Yee, una plataforma que permite la computación CPU-Multicore de muchas constantes matemáticas, incluido π, con una precisión extremadamente alta, entregando una gran cantidad de decimales limitados únicamente por la capacidad del sistema. En este caso, se pueden seguir varias estrategias, como elegir una constante y estresar al sistema para que calcule un número suficientemente grande de decimales registrando el tiempo transcurrido. Esto proporciona una medida excelente para clasificar y comparar el rendimiento de diferentes configuraciones aisladas.
Además, si hay suficiente capacidad instalada, se puede ejecutar una configuración del sistema para romper el número conocido de decimales de una constante determinada, un desafío asumido en StorageReview con gran éxito. Como se informó en el diciembre En la nota de 2023, trabajé con el equipo de StorageReview para mejorar el número conocido de decimales para varias constantes matemáticas. No sólo conseguimos batir estos récords, sino que lo hicimos en el menor tiempo posible. Históricamente ha sido normal tardar semanas o meses en hacerlo. Al trabajar con StorageReview, logramos esto para todas las constantes en solo unas horas y, en algunos casos, duplicando la cantidad de decimales conocidos. La tecnología disponible en StorageReview ha permitido reducir el tiempo en órdenes de magnitud. Se puede encontrar un resumen de estos resultados y sus detalles. aquí.
Registre los resultados establecidos por y-cruncher. Para obtener una lista completa de los registros establecidos por y-cruncher, visite númeromundo.
Esta nota se refiere precisamente a estos resultados. Para lograr un registro de decimales, debes actuar en tres capas.
Comenzando desde abajo, la tercera o última capa, está la configuración del hardware; esto significa una instalación sólida de SSD, capacidad de RAM de alto rendimiento y CPU multinúcleo de última generación. Muchos de estos detalles y la configuración aplicada se pueden ver online. aquí.
La segunda capa, o intermedia, comprende el software, es decir, y-cruncher, que constituye el vínculo entre las capas inicial y final. Para aumentar su rendimiento, y-cruncher mantiene diferentes ejecutables atom según el tipo de CPU multinúcleo del sistema. El átomo de ejecución correcto se elige automáticamente en el momento de la ejecución. El probador de banco permite al usuario seleccionar una constante y aplicar el algoritmo correspondiente. Este algoritmo puede integrarse directamente en el sistema o, en caso contrario, utilizar archivos de configuración personalizados para su implementación. Los detalles de la implementación y el uso de y-cruncher se pueden ver en númeromundo. El software y-cruncher está en constante desarrollo y se adapta a la ola de nuevas tecnologías de hardware.
La primera capa, o capa inicial, es el algoritmo, o más bien la fórmula matemática implementada para calcular la constante que sirve como entrada para y-cruncher. Cada constante puede representarse mediante un número infinito de fórmulas, casi todas las cuales tienen un rendimiento deficiente, en el sentido de que muchas operaciones matemáticas sólo son capaces de arrojar unos pocos dígitos correctos.
Del otro lado está la categoría de fórmulas eficientes. De ellas destaca la serie hipergeométrica. Dentro de esa serie hay algunos que son adecuados para batir récords, pudiendo proporcionar muchos decimales en un período de tiempo relativamente corto. De hecho, la fórmula principal para calcular π, conocida como algoritmo de Chudnovsky, es una de las fórmulas hipergeométricas.
Trabajando estrechamente con el equipo de StorageReview, también hemos asumido el reto de buscar estas fórmulas, es decir, actuar sobre la primera capa para conseguir una serie hipergeométrica muy eficiente que permita encontrar la fórmula más rápida conocida. ¿Cómo se logra esto? Se necesita una configuración multinúcleo, con suerte con tantos núcleos físicos como sea posible, para aplicar la computación distribuida, ya que el proceso requiere mucha CPU pero se puede paralelizar fácilmente con una gran reducción de los tiempos de cálculo. La nueva fórmula, si tiene éxito, se utilizará para batir el récord de lugares conocidos de dígitos decimales para esa constante.
Utilizamos un AMD Theadripper PRO 64WX de 5995 núcleos y preparamos scripts de código en PARI-GP, una plataforma de teoría de números de la Universidad de Burdeos (Francia), e implementamos un algoritmo de búsqueda. El objetivo es identificar un conjunto de enteros de 64 bits que, al insertarlos en los parámetros de una serie hipergeométrica particular con una estructura fija conocida, den como resultado la constante que buscamos. Para hacer esto, se utiliza el algoritmo LLL, una parte interna de PARI GP, que busca relaciones lineales enteras entre múltiples valores de punto flotante de precisión. Se pueden encontrar más detalles matemáticos en Mathoverflow.net.
Comenzamos primero con la constante ζ(5) = 1.036927755143… ya que no tiene una fórmula conocida muy eficiente, pero resultó ser muy difícil de alcanzar. No pudimos encontrar una fórmula conocida más allá de la serie hipergeométrica única, que, por cierto, no es lo suficientemente rápida. Después de un par de semanas sin éxito, cambiamos a una serie hipergeométrica para logaritmos.
En este caso, tuvimos éxito, pudimos encontrar los algoritmos conocidos más rápidos para las constantes fundamentales log(2), log(3) y log(5) como se describe en este blog.
Log(2) Búsqueda de fórmulas. Los 64 núcleos físicos están ocupados.
La captura de pantalla. Se encontró la serie Log(2) más rápida.
Log(2) StorageReview Fórmula G2 encontrada
Después de descubrir las fórmulas, preparamos los guiones para y-cruncher. Jordan Ranous de Storagereview diseñó la instalación para superar el número de decimales conocidos. En este caso, una configuración basada en 2x Intel Xeon Platinum 8460H y 512 GB de RAM SK Hynix.
Esta configuración duplicó el récord de decimales para log(2) a 3 billones de dígitos en sólo 42.7 horas. Se aplicó un segundo algoritmo nuevo, la fórmula G2 a continuación, que también se encuentra en StorageReview Lab, para verificar los decimales, lo que tomó 58.3 horas de tiempo de pared. Cabe señalar que el récord anterior de 2021 tomó 98.9 y 61.7 días para el cálculo y verificación de 1.5 billones de dígitos decimales, respectivamente. Esto significa una mejora de la eficiencia de aproximadamente 50 veces en 3 años.
Hemos podido realizar todos los pasos necesarios para producir resultados útiles. Se descubrió una nueva fórmula para una constante matemática, log(2), mediante una instalación especialmente diseñada. Luego, esta fórmula se aplicó a una configuración personalizada para batir el récord del número de decimales conocidos para esta constante en particular.
Las instalaciones de StorageReview han permitido abarcar todo el proceso de preparación de pruebas en banco a partir de cálculos numéricos que someten a un sistema a un gran estrés. Estos experimentos probaron con éxito SSD, RAM y CPU hasta el extremo.
– Jorge Zúñiga
Interactuar con StorageReview
Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed