100x sneller Overstromingsberekeningen door parallel rekenen Klaas-Jan van Heeringen Bram Havers WWW.FLOODCONTROL2015.COM > 20 februari 2010 SLIDE
Wat zou het mooi zijn als..? SLIDE 2
Stelling Bij een dreigende overstroming dragen snelle en accurate berekeningen bij aan een betere besluitvorming SLIDE 3
Dashboard 1_hoofdscherm Waterveiligheid SLIDE 4
Voordat je dit soort plaatjes hebt.. SLIDE 5
Wat zou het mooi zijn als.. onzekerheden in weersverwachting doorwerken in voorspelde waterhoogtes Ensemble van 50 mogelijkheden Modellen veelal te gedetailleerd en te traag gemiddelde opgetreden 33-67% 25-75% zekereheid max. en minimale voorspelling SLIDE 6
Wat zou het mooi zijn als..... inundatieberekeningen meer detail zouden hebben Nu is 100x100 meter al nauwelijks te doen Maar we hebben AHN-2 (0,5 x 0,5 m) 10 punten per m 2, combinatie van Flimap en AHN2, met X,Y,Z en kleur SLIDE 7
Doel sneller en beter inzicht versnelling van de berekening hoger detailniveau Versnelling: 10 x 10 = 100 (+) Detailniveau: 20x fijner SLIDE 8
Mogelijkheden voor versnelling GPU CPU clusters nested view visualisatie hardware parallellisatie versnellen schematisatie GMP software sub-grids parameters schone code SLIDE 9
Alle mogelijkheden uitbuiten Visualisatietechnieken Hardware Software Good Modelling Practice Versnelling: 10 x 10 = 100 (+) Detailniveau: 20x fijner SLIDE 10
Software Nieuwe berekeningsmethoden Gekoppelde modellen Integrale modellering (neerslagafvoer en overstroming) Subgrids (gedetailleerde invoer automatisch opschalen) Wordt opgepakt in 3Di project SLIDE 11
Software Nieuwe numerieke algorithmes Ongestructeerde roosters Niet langer op 1 CPU SLIDE 12
High Performance Computing IBM Water Management focus Nederland: flood control en stedelijk waterbeheer Ierland: oceaan en kust Frankrijk: modeling and simulation, high performance computing missie voor water MONTPELLIER, FRANCE and ARMONK, NY Nov.19th, 2009 In a region of France known for sunshine, agriculture and natural spring water, IBM (NYSE: IBM) has established a Center of Excellence for Water Management to use high performance computing to monitor and forecast the impact of climate change and severe weather conditions on water resources. SLIDE 13
1.0E+10 10 10 Number of Transistors 10 9 1.0E+09 10 8 1.0E+08 10 7 1.0E+07 10 6 1.0E+06 10 5 1.0E+05 Microprocessor Transistor Trend 1 Billion 1 Million ~50% CAGR 1980 1000 1985 1990 1995 2000 2005 2010 SPECint_2000_rate 100 10 Moore s law still true Single thread performance growth slows significantly System throughput continues to grow Historical Growth Trend=45% per year 1 Core Clock Speed (MHz) 10 4 1.0E+04 10 3 1.0E+03 10 2 1.0E+02 4 Core 2 Core 1 1994 1996 1998 2000 2002 2004 2006 2008 2010 Energy and heat limit high Intel Processors processor IBM Processors speeds Power3 Power3-II Intel's 2003 Roadmap RS64-4 1990 1995 2000 2005 2010 >4 Core Single-Thread Performance Sequential computing limited Power4 Power4+ Power5 BlueGene/L GS/GT Power5+ Parallel computing is very scalable Power6 Z6 CP BlueGene/P Z6 SC Power5+ SLIDE 14
Solutions for High Performance Computing 4096 cores 2, 4 to 8 cores PC (Intel, AMD, GPU) Cluster of PCs (mostly Intel, AMD) Massively Parallel Computer (MPP) - (Intel, AMD, POWER7, BlueGene) 100 300 cores Integrated Clusters with fast interconnect) Intel, AMD and IBM POWER7 The BlueGene/P system scales to 256 racks achieving 3.56 PF/s peak Up to 819200 cores SLIDE 15
Specialized hybrid super computers General Purpose Systems Hybrid System Throughput & Computational Accelerators IBM CELL BE Example: Los Alamos IBM Roadrunner AMD + Cell = petaflop and low power consumption Examples: Sony Playstation Microsoft XBox GPUs FX 580 FX 1800 FX 3700 FX 3800 FX 5600 S1070 SLIDE 16
Example Electricité de France (EDF) Application (spartacus-3d) Marin, coastal and river (dikes) use. Examples: Impact of waves hitting power generating dams for safety and construction optimization Flooding impact near nuclear power plants 3D modelling of complex free-surface flows Results Particles (>20 millions) simulation on Bluegene/P system 20 times faster with 1024 processors SLIDE 17
Example Telemac3D (Montepellier area) Application Pollution spreading through rivers at heavy rain Using Telemac application Results Parallelization has improved run time from 17437s to 187s when using a 4 nodes 32 cores cluster System Used # points plan Z levels T3D Version Simulated Time Run Time Production System (Sequential) 6452 5 V5P5 1d 6h 17437 Cluster1-1 Core 6452 5 V5P5 1d 6h 2918 Cluster1-2 Cores 6452 5 V5P5 1d 6h 1408 Cluster1-4 Cores 6452 5 V5P5 1d 6h 692 Cluster1-8 Cores 6452 5 V5P5 1d 6h 400 Cluster2-16 Cores 6452 5 V5P5 1d 6h 236 Cluster2-32 Cores 6452 5 V5P5 1d 6h 187 SLIDE 18
Dit jaar HPC in Flood Control 2015 2010.11: Demonstrator Flood Control Room Werkpakket 1 Onderzoek naar functionele integratie van FC2015 producten in DFCR 2 Onderzoek naar toepassing FC2015 concepten in stedelijke omgeving (de case Rotterdam) 3 Onderzoek naar methoden voor inzet DFCR als trainings- en simulatieomgeving 4 Ontwikkeling referentie-architectuur voor trainingsomgevingen en inzet HPC tijdens hoogwatercrises 5 Ontwikkeling FC2015 onderwijsprogramma voor hoger onderwijs SLIDE 19
Feedback. tijd voor discussie SLIDE 20
Hoe gaan we het aanpakken Programmering in 2010 Voorstudie in kader deelproject High Performance Computing Onderzoek naar haalbaarheid Programmering in 2011 Uitvoering? Toepassen in operationele context 100+ sneller 20x meer detail Gaat lukken! SLIDE 21
Colofoon Klaas-Jan van Heeringen - Deltares Klaas-Jan.vanHeeringen@deltares.nl Bram Havers IBM Bram_Havers@nl.ibm.com SLIDE 22