Stoomboot & de toekomst



Vergelijkbare documenten
Cloud Computing: Met HPC in de wolken Ron Trompert

Hoe zet u virtualisatie slim in bij forensische onderzoeksomgevingen?

Belangrijkste ideeën/concepten uit OS, incl. proces

High Performance Computing

Agenda. doelstelling situering voor- en nadelen functionaliteit opbouw voorwaarden besluitvorming

CPU scheduling : introductie

Windows XP Migratie opties. Bart van Dijk

Delft-FEWS & Web Services

Remote instrumentation

PROJECT: IRIS. (Plan van aanpak) Naam Functie Paraaf

computerarchitectuur antwoorden

HPC CLOUD INTRODUCTIE. Jan$Bot,$SURFsara$ 15$oktober$2015$

Cloud Computing. Bart van Dijk

Microsoft Office System Migraties. De impact van migraties op uw Office Business Applicaties

Three Ships CDS opschalingsdocument Overzicht server configuratie voor Three Ships CDS

Erik Poll Martijn Warnier.

Virtualizatie bij SIN

Opmerkingen bij het concept voorstel ontwerp LWP

Van Small Business Server naar Cloud Small Business Services. Uw vertrouwde Small Business Server in de cloud

HPC CLOUD INTRODUCTIE. Jan Bot, SURFsara 5 augustus 2015

Software Processen. Ian Sommerville 2004 Software Engineering, 7th edition. Chapter 4 Slide 1. Het software proces

CAD supersnel laten draaien

Het nieuwe werken nu ook voor zware grafische gebruikers

Aanmelden Na installatie wordt de service automatisch gestart en kunt u meteen aanmelden van op afstand:

VirtualBox: hoe werkt het?

5/9 PlateSpin. 5/9.1 PlateSpin Portability Suite

Data Acquisitie in een modern jasje. Wordt het de tablet of toch iets anders?

RESEARCH DATA MANAGEMENT & ACCESS OP RESEARCH WORKSPACES

BeCloud. Belgacom. Cloud. Services.

OpenVPN(-NL) Performance. Jan Just Keijser 9 November 2017

Het werken met policies onder samba3 Steve Weemaels

Meerdere warehouse implementaties te kostbaar?

Van dvd naar webserver. Marcel Nijenhof 18 Juli

IBM Tivoli Storage Manager Licentie structuur

Technische Specificaties nieuwe Unix Applikaties

studie waarmee we de principes van de analyse willen demonstreren. Een volledig beschrijving van de algoritmen en de resultaten zijn te vinden in

Virtualisatie. en KVM. Oscar Buse 14 februari 2017 NLUG

Hardwarevereisten RAID. Geheugen

Lesblok 34 Diskdump 157 Lesblok 35 Joomla! 161 Lesblok 36 Webmin 164 Lesblok 37 Samenvattende oefening 166

Zelftest Informatica-terminologie

Strategie Applicatie integratie Open.Amsterdam project. versie 1.0 juni 2008

informatica. hardware. overzicht. moederbord CPU RAM GPU architectuur (vwo)

Data quality tracking tool

Are you MAD? Containers en testen bij Kennisnet

emaxx Systeem eisen ManagementPortaal voor de ZakenMagazijn database

Right Availability voor Provincie Zeeland met Active Data Guard 11g

Onverwachte voordelen van Server Virtualisatie

Toekomstvisie HYMOS. Op basis van een lange historie. Astrid Janssen 29 mei 2008

REFERENCE CASE PZ GLM: VIRTUALISATIE ADMINISTRATIEF NETWERK

EIGENSCHAPPEN CONVERGED HARDWARE

UGent. 12 mei 2005 Steven Rogge DICT, Universiteit Gent. Agenda

ONTZORG DE ZORGPROFESSIONAL DOOR VIRTUALISATIE

Ontsluiten iprova via Internet Voorbeeld methoden

1 Client/Server. 2 Geschiedenis. 3 Toekomst

REACH. Meetgegevens zijn nuttig onder REACH

OTB Workshop. Van PDM naar PLM. Migratie van Intralink 3.x naar PDMLink of Intralink 8.0

Inleiding. We hopen dat u nog lang gebruik mag maken van onze software. Samen Wassen. Pagina 2

Automated Networks, IaaS en SaaS

CENTUM CS 3000 Revisie 3.04

Snuffelstage Exact. Kjell Ouwendijk Klas 2D. Stagebegeleiders : Dhr. Michael Vermeulen Dhr. Deyar Aljabbary Dhr. Olivier Deleye

hoogwaardige IaaS Cloudoplossingen

6/6 Native File Access

Virtual Desktop Infrastructure Een alternatief SBC concept? Jacco Bezemer

Upgrade van Oracle 10g naar 11g

CONTINUÏTEIT NA CALAMITEIT. Steven Adema Manuel Speksnijder

WERKBON Project-/bonnummer: WP 1.5 Omschrijving: Server installeren en configureren

ExaData : Beyond the myth. What does it take to implement exadata, and should i buy it? Robert de Laat

Wireless Leiden. Project Brief x

operating system beveiliging

Meten is weten? Performance benchmark bij een geo-ict migratietraject

Voor op afstand os installatie moeten de volgende onderdelen geïnstalleerd zijn op de Windows 2000 server.

End of Support. Windows XP Office maar ook: Exchange 2003 (oa gebruikt in SBS 2003) (link met gegevens) SQL 2000

TRAIN SERVICE & SHUNTING PLANNER

DYNAMIC INFRASTRUCTURE Helping build a smarter planet

Samba Windows Netwerken onder Linux

Een startersgids voor Citrix XenApp Architecturen. Wilco van Bragt

Interactief, real time security management

Testomgevingen beheer

Hyper-V vs ESX in het datacenter

Transcriptie:

Stoomboot & de toekomst W. Verkerke (ATLAS)

Wat is stoomboot Gebruikers definitie van concept stoomboot Op basis van gesprekken met ATLAS/LHCb/ALICE/Astro Lokale batch faciliteit met de volgende definierende (*) features Eenvoudige jobsubmissie dmv qsub/bsub een job moet kunnen worden gesubmit door enkel de command line te specificeren, of een eenvoudig script, dat exutables en toebehoren pakt van een (NFS) disk zie zowel vanaf de submitting node als het batch systeem zichtbaar is Toegang tot ruim O(Tb) NFS file systeem voor installatie software, (configuratie) data en andere job toebehoren Toegang (met beperkte bandbreedte) tot experimentele bulk data Beschikbaarheid van (minimaal 1) interactieve node met zelfde configuratie als het batch systeem

Wat is de rol van stoomboot in dagelijks gebruik Typische gebruikers activiteiten Snel analyseren van kleinere hoeveelheden data Non-event processing jobs (MC generators, theoretische berekeningen) Maximum-likelihood fits, toy MC generate-and-fit cycles Typisch gebruiks patroon Gebruiker bereidt analyse job voor op desktop of stbc-32. Installatie van software op /project of /data etc... Snelle test op klein sample op stbc-32/desktop Submit O(100-1000) jobs op stoomboot batch Stoomboot is complementair aan GRID Processing van grootschalige (LHC) data samples duidelijk domain van grid Kleinschalige, free-form computing activiteiten domein van stoomboot

Korte termijn stoomboot issues Configuratie van batch queues Origineel test queue (30 min) en qlong (48h). Elke groep kan maximaal 75% van totale capaciteit benutten. Veroorzaakt problemen in drukke tijden. Een gebruiker kan (legitiem) verhinderen dat alle andere gebruikers uit zijn groep jobs kunnen draaien gedurende 48 uur door langlopende jobs te submitten op het moment dat de farm leeg is Verbeterde configuratie: qlong queue van 8uur, xlong queue van 48h (max 25% van farm capaciteit). Iedereen krijgt toegang tot zijn fair share van stoomboot binnen 8 uur lijkt naar tevredenheid te werken. Capaciteit Recent verdubbeld van 128 256 nodes. Lijkt afdoende tot ~eind van jaar. Voor verdere uitbreiding (in enige vorm) is wat beter onderzoek nodig naar schaling van data I/O. Het is zeker nu al niet mogelijk om 256 I/O intensieve (ntuple analysis) jobs te draaien vanaf een /data disk. Nog geen effectieve capaciteits beperking omdat er ook veel CPU intensieve jobs draaien (toy MC generation, fitting, MC generators etc) Interactive access nodes Interactieve node stbc-32 wordt (om diverse redenen) als zeer nuttig ervaren. Voor meeste (alle) gebruikers zal het inruilen van de test queue (met 16 dedicated cores) voor extra 2 interactive nodes een verbetering zijn

Middellange termijn stoomboot issues Gerelateerde vraag - Wat is het (LHC) model voor data analyse op NIKHEF en wat is de rol van stoomboot hierin? Nu: stoomboot is voor (beperkte) simpele tests, GRID submission (ganga etc) voor large-scale processing Domeinen bijna volledig gescheiden (computer beheer, netwerk) Gebruikers zijn over het algemeen tevreden over het huidige stoomboot concept, modulo de bulk data access beperkingen, en vinden het zeer belangrijk dat dit blijft bestaan. Toekomst: meer synergie met GRID of meer synergie met desktop/interactive computing. Volgende slides: 2 (hypothetische) scenarios om over te discussieren.

Middellange termijn stoomboot issues Scenario 1: integreer stoomboot in GRID hardware ( GRID software & middelware) Beheer van stoomboot hardware in het administratieve domein van grid Tier1/2. Met behoud toegang via qsub/nsub & toegang tot lokale NFS disks (=essentie van het stoomboot concept) Nadelen voor gebruikers Waarschijnlijk nodig om eerst in te loggen op speciale host (ala bosui). Minder handig, maar veel gebruikers loggen nu eerst al in op stbc-32 voor job testing en submission, dus geen killer issue NFS disks gemount of stoomboot nodes aan grid kant waarschijnlijk niet zichtbaar op nikhef machines. Onhanding, maar overkomelijk als NFS disks op stoomboot groot genoeg zijn (zijn er techische oplossing mogelijk, e.g. sshfs die hier helpen?) Voordelen voor gebruikers Potentieel betere/snellere toegang tot LHC bulk data op Tier1/2? Betere groeimogelijkheden? Is het mogelijk om idle TierX CPUs te gebruiken via deze interface? Is financiering van toekomstige hardware makkelijker?

Middellange termijn stoomboot issues Scenario 2: houd stoomboot aan de nikhef kant Houd huidige constructie in stand, maar breid bv aantal interactieve nodes uit Migratie naar lxplus/lxbatch model van CERN. Een pool van batch machines en interactive machines van gelijke architectuur Nadelen voor gebruikers Blijvend beperkte bandbreedte naar Tier1/2 LHC bulk data. Blijvend kleinere capaciteit? Voordelen voor gebruikers Beschikbaarheid van veel multi-core machines voor interactief gebruik (a la lxplus) met uniforme architectuur. Goede omgeving op allerdaagse interactieve activiteiten te paralleliseren (bv make j8 voor parallel building, multi-core parellelizatie van likelihood fits, toy MC generation) Eenvoudige overgang op batch nodes van gelijke architectuur Beter en efficienter & uniform onderhouden machines dan huidige desktops Meer keuze vrijheid in desktop (in dergelijke omgeving kan lichte mac/windows desktop volstaan, zelfs als dagelijks werk op linux is)

Slotopmerkingen Voor en nadelen aan beide scenarios Gegeven scenarios uitsluitend ter illustratie, uiteraard vele andere mogelijkheiden Focus van deze presentatie uitsluitend op evolutie van stoomboot concept. Ongeacht de uitkomst van de stoomboot discussie zal ook meer aandacht nodig zijn om Nikhef gebruikers meer/efficienter gebruik te laten maken van de bestaande Tier1/2 hardware (via GRID interface)