Ces dernières années, nous avons été habitués à assister à l’évolution, pour les CPU, du singulier core aux processeurs dual-core, jusqu’au dernier processeur quad-core; ces progrès restant très différents dans le domaine scientifique, si bien que, dans ce domaine, la base maximale à l’intérieur d’un CPU est toujours beaucoup plus élevée et depuis longtemps.
A l’Université de Stanford, on vient de battre un nouveau record qui porte le monde du traitement numérique dans une nouvelle direction : depuis quelques jours, est entré en vigueur le premier système composé de plus de 1 million de core, qui servira comme acteur principal pour le calcul des algorithmes complexes utilisés dans la recherche scientifique.
Pour être plus précis, les core à l’intérieur du mega système informatique sont 1 572 864, assistés par une quantité de RAM égale à 1,6 Petabyte !!
Ce monstre électronique a été aussi possible grâce à la collaboration avec IBM, étant donné que toute l’infrastructure jette ses bases sur le système Sequoia Bluegene/Q , détenu par la société américaine. La puissance du système permettra de faire des prévisions dans le domaine de la dynamique des fluides, dans le but précis d’obtenir des prévisions d’émission des bruits qui animent les jets supersoniques.
Joseph Nichols, le chercheur qui a conçu le projet, a déclaré que ces sont des simulations très complexes en termes de calculs et exigent beaucoup de puissance de traitement supérieure aux autres problèmes rencontrés dans le domaine de la recherche…. à suivre !