Daxdi now accepts payments with Bitcoin

De øverste supercomputere forbliver de samme; Ny teknologi viser en vej til eksascale

På dette års store supercomputerkonference, SC19, er toppen af ??listen over de hurtigste maskiner i verden uændret, men der tales om en række nye teknologier, der antyder æraen med exascale computing - maskiner, der teoretisk er i stand til en milliard milliarder (dvs.

en kvintillion) beregninger pr.

sekund.

Som det har været siden juni sidste år, er topmødecomputeren ved Department of Energy's Oak Ridge National Laboratory (ORNL) nu øverst på Top 500-listen med en vedvarende teoretisk præstation på 148,6 petaflops på High Performance Linpack-testen, der blev brugt for at rangere Top500-listen.

Denne maskine, der er bygget af IBM, har 4.608 noder, der hver er udstyret med to 22-kerne IBM Power 9-CPU'er og seks Nvidia Tesla V100 GPU'er, der alle er forbundet med et Mellanox EDR InfiniBand-netværk.

Et lignende, men noget mindre system kaldet Sierra ved Lawrence Livermore National Laboratory kommer i andenpladsen med 94,6 petaflops.

På tredjepladsen er Sunway TaihuLight supercomputer ved Kinas National Supercomputing Center i Wuxi.

Det drives af Sunways SW26010-processorer og scorer 93 petaflops

Faktisk er hele top 10 på listen uændret siden juni.

Det mest kraftfulde nye system kommer ind på nummer 25 med et system kaldet Advanced Multiprocessing Optimized System (AMOS) på Rensselaer Polytechnic Institute's Center for Computational Innovations (CCI).

Igen er dette et IBM Blue Gene / Q-system med Power 9 CPU'er og Nvidia Tesla V100s.

Dette er et mindre system med fem rack med et vedvarende Linpack maksimalt 8 petaflops ifølge listen.

(Som alun er det dejligt at se, og jeg blev især kildet af at se den hedde AMOS efter Rensselaers første seniorprofessor, Amos Eaton.

Det fik mig til at grine, da jeg tilbragte meget tid som studenter og ventede på mainframe på Amos Eaton Hall.

Jeg tvivler på, at nogen nogensinde har kørt LINPACK på den gamle IBM 360/67, men den nye maskine er sandsynligvis millioner af gange hurtigere; den har 130.000 kerner sammenlignet med det enkeltcifrede nummer på den gamle mainframe.)

Ser man over hele listen, fortsætter Kina med at stige og har nu 227 af de 500 bedste installationer, mens USA tegnede sig for 118, nær dets laveste niveau.

De tre største systemleverandører er Lenovo, Sugon og Inspur - alle baseret i Kina - efterfulgt af Cray og HPE (HPE ejer nu Cray).

470 systemer bruger Intel-CPU'er, yderligere 14 bruger Power-processorer og tre bruger AMD.

Der er nu to ARM-baserede supercomputere på listen: Astra-systemet implementeret på Sandia National Laboratories, der er udstyret med Marvells ThunderX2-processorer og Fujitsus A64FX-prototypesystem i Japan.

Nvidia er fortsat den dominerende leverandør af acceleratorer med GPU'er i 136 af de 145 accelererede systemer.

Ethernet bruges stadig i mere end halvdelen af ??systemerne, men de hurtigste har tendens til at bruge InfiniBand eller proprietære forbindelser som Cray Aries og Intel OmniPath.

Stadig, hvis der ikke er meget forandring på listen hidtil, er der meget arbejde, der udføres på nye arkitekturer med det mål at producere en Exascale-maskine inden for de næste to år.

USA har annonceret arbejde på to store nye supercomputere.

Det første er Aurora-projektet ved DOE's Argonne National Laboratory, der skal bygges af Cray (nu en del af HPE) og Intel, mens det andet er Frontier på Oak Ridge, der kører brugerdefinerede AMD Epyc-processorer og Radeon Instinct GPU'er forbundet over en Infinity Fabric-sammenkobling.

Frem til SC19 annoncerede Intel flere detaljer om Aurora-projektet og sagde, at det vil bruge noder, der består af to 10 nm ++ Sapphire Rapids Xeon-processorer og seks af de nye Ponte Vecchio GPU-acceleratorer, baseret på den kommende Xe-grafikarkitektur samt firmaets Optane DC vedvarende hukommelse.

Intel sagde, at Aurora understøtter over 10 petabyte hukommelse og over 230 petabyte lagerplads, og vil bruge Cray Slingshot-stoffet til at forbinde noder over mere end 200 stativer.

(Det gav dog ikke nøjagtige tal for samlede noder eller ydeevne).

Intel gav lidt mere detaljer om Ponte Vecchio-processorer og sagde, at den vil blive bygget omkring Xe-arkitekturen, men optimeret til højtydende computing og AI-arbejdsbelastninger.

Denne version vil blive fremstillet på 7 nm-teknologi og bruger Intels Foveros 3D- og EMIB-emballage til at have flere dyser i pakken.

Det understøtter også hukommelse med høj båndbredde og CXL-forbindelse (Compute Express Link).

(Intel havde tidligere sagt at forvente en version af Xe-arkitekturen i en forbruger-GPU engang i 2020, sandsynligvis på Intels 10nm- eller 14nm-proces.)

Intel gav også flere detaljer om sit oneAPI-projekt, biblioteker og en ny sprogvariant kaldet Data Parallel C ++, som er designet til at hjælpe udviklere med at skrive kode, der kan køre på CPU'er, GPU'er og FPGA'er.

For ikke at overgå, Nvidia - hvis GPU'er er de mest populære acceleratorer - annoncerede et referencedesign til bygning af servere, der kombinerer ARM-baserede processorer med Nvidia GPU'er.

Nvidia arbejdede med Ampere, Fujitsu og Marvell - alle, der arbejder på ARM-baserede serverprocessorer samt med Cray og HPE, som hver for sig har arbejdet på nogle af de tidlige ARM-baserede HPC-systemer med Nvidia GPU-acceleratorer.

Anbefalet af vores redaktører

Nvidia introducerede også Magnum IO, en softwarepakke, der bruger en teknik kaldet GPUDirect til at omgå CPU'erne, når de får adgang til netværket; samt et nyt element kaldet GPUDirect Storage, der gør det samme, når du får adgang til lagrings- og datafiler til simulering, analyse eller visualisering.

Magnum IO er tilgængelig nu, men med GPUDirect Storage-delen planlagt til første halvdel af 2020.

AMD sagde, at flere virksomheder bruger sin anden generation af EPYC-processorer og Radeon Instinct-acceleratorer, hvilket fremhæver virksomhedens valg til Frontier-computeren, som virksomheden sagde forventedes at være den mest effektive supercomputer i verden, når den sendes i 2021.

AMD annoncerede også en række andre systemer, der vil bruge dets systemer, herunder handler med Atos på sine BullSequana XH2000 supercomputere til vejrudsigter og forskning inden for atmosfærisk, hav- og klient computing; og med Cray ved hjælp af Shasta-arkitekturen i det kommende Archer2- og Vulcan-system i Storbritannien.

AMD talte om ROCm 3.0, en ny version af open source-software til GPU-beregning, som firmaet understøtter.

AMD understregede, at Microsoft Azure nu tilbyder en forhåndsvisning af en HPC-forekomst baseret på sin anden generation Epyc 7742-processor, mens Nvidia annoncerede en ny Azure-forekomst, der kan skalere op til 800 V100 GPU'er, der er sammenkoblet over et enkelt Mellanox InfiniBand-backend-netværk.

Nvidia sagde, at det brugte 64 af disse forekomster på en pre-release version af klyngen til at træne BERT, en populær samtale AI-model, på cirka tre timer.

En af de mere interessante meddelelser kom fra opstart Cerebras, som fokuserer på sin Wafer-Scale Engine (WSE), en 300 mm wafer, der indeholder 1,2 billioner transistorer inklusive 400.000 computerkerner og 18 GB on-chip-hukommelse.

På messen lancerede Cerebras sit CS-1-system og meddelte, at det allerede havde leveret det første til Argonne National Laboratory.

Virksomheden fremhævede, at dette system -hvilke historier siger indeholder seks af disse WSE'er sammen med hukommelse og netværk (historierne var forkerte, der er kun én WSE i hver CS-1) - er kun 26 inches (15 rackenheder) høj, meget mindre end stativer med GPU-accelererede systemer.

Det er et ret interessant koncept, et der er meget forskelligt fra de andre tilgange.

På dette års store supercomputerkonference, SC19, er toppen af ??listen over de hurtigste maskiner i verden uændret, men der tales om en række nye teknologier, der antyder æraen med exascale computing - maskiner, der teoretisk er i stand til en milliard milliarder (dvs.

en kvintillion) beregninger pr.

sekund.

Som det har været siden juni sidste år, er topmødecomputeren ved Department of Energy's Oak Ridge National Laboratory (ORNL) nu øverst på Top 500-listen med en vedvarende teoretisk præstation på 148,6 petaflops på High Performance Linpack-testen, der blev brugt for at rangere Top500-listen.

Denne maskine, der er bygget af IBM, har 4.608 noder, der hver er udstyret med to 22-kerne IBM Power 9-CPU'er og seks Nvidia Tesla V100 GPU'er, der alle er forbundet med et Mellanox EDR InfiniBand-netværk.

Et lignende, men noget mindre system kaldet Sierra ved Lawrence Livermore National Laboratory kommer i andenpladsen med 94,6 petaflops.

På tredjepladsen er Sunway TaihuLight supercomputer ved Kinas National Supercomputing Center i Wuxi.

Det drives af Sunways SW26010-processorer og scorer 93 petaflops

Faktisk er hele top 10 på listen uændret siden juni.

Det mest kraftfulde nye system kommer ind på nummer 25 med et system kaldet Advanced Multiprocessing Optimized System (AMOS) på Rensselaer Polytechnic Institute's Center for Computational Innovations (CCI).

Igen er dette et IBM Blue Gene / Q-system med Power 9 CPU'er og Nvidia Tesla V100s.

Dette er et mindre system med fem rack med et vedvarende Linpack maksimalt 8 petaflops ifølge listen.

(Som alun er det dejligt at se, og jeg blev især kildet af at se den hedde AMOS efter Rensselaers første seniorprofessor, Amos Eaton.

Det fik mig til at grine, da jeg tilbragte meget tid som studenter og ventede på mainframe på Amos Eaton Hall.

Jeg tvivler på, at nogen nogensinde har kørt LINPACK på den gamle IBM 360/67, men den nye maskine er sandsynligvis millioner af gange hurtigere; den har 130.000 kerner sammenlignet med det enkeltcifrede nummer på den gamle mainframe.)

Ser man over hele listen, fortsætter Kina med at stige og har nu 227 af de 500 bedste installationer, mens USA tegnede sig for 118, nær dets laveste niveau.

De tre største systemleverandører er Lenovo, Sugon og Inspur - alle baseret i Kina - efterfulgt af Cray og HPE (HPE ejer nu Cray).

470 systemer bruger Intel-CPU'er, yderligere 14 bruger Power-processorer og tre bruger AMD.

Der er nu to ARM-baserede supercomputere på listen: Astra-systemet implementeret på Sandia National Laboratories, der er udstyret med Marvells ThunderX2-processorer og Fujitsus A64FX-prototypesystem i Japan.

Nvidia er fortsat den dominerende leverandør af acceleratorer med GPU'er i 136 af de 145 accelererede systemer.

Ethernet bruges stadig i mere end halvdelen af ??systemerne, men de hurtigste har tendens til at bruge InfiniBand eller proprietære forbindelser som Cray Aries og Intel OmniPath.

Stadig, hvis der ikke er meget forandring på listen hidtil, er der meget arbejde, der udføres på nye arkitekturer med det mål at producere en Exascale-maskine inden for de næste to år.

USA har annonceret arbejde på to store nye supercomputere.

Det første er Aurora-projektet ved DOE's Argonne National Laboratory, der skal bygges af Cray (nu en del af HPE) og Intel, mens det andet er Frontier på Oak Ridge, der kører brugerdefinerede AMD Epyc-processorer og Radeon Instinct GPU'er forbundet over en Infinity Fabric-sammenkobling.

Frem til SC19 annoncerede Intel flere detaljer om Aurora-projektet og sagde, at det vil bruge noder, der består af to 10 nm ++ Sapphire Rapids Xeon-processorer og seks af de nye Ponte Vecchio GPU-acceleratorer, baseret på den kommende Xe-grafikarkitektur samt firmaets Optane DC vedvarende hukommelse.

Intel sagde, at Aurora understøtter over 10 petabyte hukommelse og over 230 petabyte lagerplads, og vil bruge Cray Slingshot-stoffet til at forbinde noder over mere end 200 stativer.

(Det gav dog ikke nøjagtige tal for samlede noder eller ydeevne).

Intel gav lidt mere detaljer om Ponte Vecchio-processorer og sagde, at den vil blive bygget omkring Xe-arkitekturen, men optimeret til højtydende computing og AI-arbejdsbelastninger.

Denne version vil blive fremstillet på 7 nm-teknologi og bruger Intels Foveros 3D- og EMIB-emballage til at have flere dyser i pakken.

Det understøtter også hukommelse med høj båndbredde og CXL-forbindelse (Compute Express Link).

(Intel havde tidligere sagt at forvente en version af Xe-arkitekturen i en forbruger-GPU engang i 2020, sandsynligvis på Intels 10nm- eller 14nm-proces.)

Intel gav også flere detaljer om sit oneAPI-projekt, biblioteker og en ny sprogvariant kaldet Data Parallel C ++, som er designet til at hjælpe udviklere med at skrive kode, der kan køre på CPU'er, GPU'er og FPGA'er.

For ikke at overgå, Nvidia - hvis GPU'er er de mest populære acceleratorer - annoncerede et referencedesign til bygning af servere, der kombinerer ARM-baserede processorer med Nvidia GPU'er.

Nvidia arbejdede med Ampere, Fujitsu og Marvell - alle, der arbejder på ARM-baserede serverprocessorer samt med Cray og HPE, som hver for sig har arbejdet på nogle af de tidlige ARM-baserede HPC-systemer med Nvidia GPU-acceleratorer.

Anbefalet af vores redaktører

Nvidia introducerede også Magnum IO, en softwarepakke, der bruger en teknik kaldet GPUDirect til at omgå CPU'erne, når de får adgang til netværket; samt et nyt element kaldet GPUDirect Storage, der gør det samme, når du får adgang til lagrings- og datafiler til simulering, analyse eller visualisering.

Magnum IO er tilgængelig nu, men med GPUDirect Storage-delen planlagt til første halvdel af 2020.

AMD sagde, at flere virksomheder bruger sin anden generation af EPYC-processorer og Radeon Instinct-acceleratorer, hvilket fremhæver virksomhedens valg til Frontier-computeren, som virksomheden sagde forventedes at være den mest effektive supercomputer i verden, når den sendes i 2021.

AMD annoncerede også en række andre systemer, der vil bruge dets systemer, herunder handler med Atos på sine BullSequana XH2000 supercomputere til vejrudsigter og forskning inden for atmosfærisk, hav- og klient computing; og med Cray ved hjælp af Shasta-arkitekturen i det kommende Archer2- og Vulcan-system i Storbritannien.

AMD talte om ROCm 3.0, en ny version af open source-software til GPU-beregning, som firmaet understøtter.

AMD understregede, at Microsoft Azure nu tilbyder en forhåndsvisning af en HPC-forekomst baseret på sin anden generation Epyc 7742-processor, mens Nvidia annoncerede en ny Azure-forekomst, der kan skalere op til 800 V100 GPU'er, der er sammenkoblet over et enkelt Mellanox InfiniBand-backend-netværk.

Nvidia sagde, at det brugte 64 af disse forekomster på en pre-release version af klyngen til at træne BERT, en populær samtale AI-model, på cirka tre timer.

En af de mere interessante meddelelser kom fra opstart Cerebras, som fokuserer på sin Wafer-Scale Engine (WSE), en 300 mm wafer, der indeholder 1,2 billioner transistorer inklusive 400.000 computerkerner og 18 GB on-chip-hukommelse.

På messen lancerede Cerebras sit CS-1-system og meddelte, at det allerede havde leveret det første til Argonne National Laboratory.

Virksomheden fremhævede, at dette system -hvilke historier siger indeholder seks af disse WSE'er sammen med hukommelse og netværk (historierne var forkerte, der er kun én WSE i hver CS-1) - er kun 26 inches (15 rackenheder) høj, meget mindre end stativer med GPU-accelererede systemer.

Det er et ret interessant koncept, et der er meget forskelligt fra de andre tilgange.

PakaPuka

pakapuka.com Cookies

På pakapuka.com bruger vi cookies (tekniske og profil cookies, både vores egen og tredjepart) for at give dig en bedre online oplevelse og til at sende dig personlige online kommercielle beskeder i henhold til dine præferencer. Hvis du vælger fortsæt eller få adgang til indhold på vores hjemmeside uden at tilpasse dine valg, accepterer du brugen af cookies.

Du kan få flere oplysninger om vores cookiepolitik, og hvordan du afviser cookies

adgang her.

Indstillinger

Fortsætte