De Grote Robotshow in NEMO, Amsterdam, 4 september 2009. Robots die voor je Vechten



Vergelijkbare documenten
Ank Bijleveld-Schouten

Militaire robots en politierobots zijn

7 november Onderzoek: Wapenindustrie

TRANSATLANTIC TRENDS 2004 NETHERLANDS

Opdracht Levensbeschouwing Doodstraf

Inleiding regeerakkoord Vertrouwen in de toekomst

ETHIEK VAN MILITAIRE ROBOTICA

TRANSATLANTIC TRENDS - NETHERLANDS

Interventie Syrië. Faculteit der Rechtsgeleerdheid Afdeling Internationaal en Europees recht

2016D17221 INBRENG VERSLAG VAN EEN SCHRIFTELIJK OVERLEG

Belangen: Wel of niet ingrijpen in Syrië?

Thinking War in the 21st Century. Introducing Non-State Actors in Just War Theory H.A. Noorda

Don zit naast Jamiro. Ze zit omgekeerd in haar stoel en kijkt door de achterruit.

8 6 Samenwerking in de wereld. Lees het verhaal Bijna de derde Wereldoorlog.

1red , NOS, Gesprek met de minister-president, Ned.2, uur

Dohmen advocaten techneuten, designers en kunstenaars die advocaat geworden zijn

Wij geloven dat je leven leuker is als je je eigen keuzes maakt.

3 september Onderzoek: Internationale spanningen en conflicten

Afghanistan. NAVO-militair gedood in Zuid-Afghanistan

INHOUDSOPGAVE INTRODUCTIE KIND ONDER VUUR FOTO S KIND ONDER VUUR 2016 FLESSENPOST HUMANITAIR OORLOGSRECHT DEELNEMERS KIND ONDER VUUR 2016 LINKS

Originele stereofoto: 'Douamont. Cheveaux morts'

Vraag 1 : maken de aanslagen van de laatste jaren je (heel) bang? Vraag 2 : Vrees jij dat terreurgeweld enkel zal toenemen?

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal Binnenhof 4 Den Haag

Het leger. Doel: Na deze opdracht weet je meer over het leger. Je kunt vertellen wat het leger doet en waarom we een leger hebben.

2016 HOOFDDOEL LEZEN

Zelfstandig werkkaart 1 ~ Wereldoriëntatie

Door kennis over cyber security met de politie te delen, bereik je

1 Soms vermijd ik situaties die me in contact brengen met mensen waar ik problemen mee heb.

Koude Oorlog. SE 3 Tijdvak 1 AVONDMAVO MIDDAGMAVO GESCHIEDENIS Deze toets bestaat uit 38 vragen

Militairen naar Afghanistan en de Nederlandse politieke crisis

Werkbladen voortgezet onderwijs. Naam leerling:

De vluchtelingencrisis: oplossingen en inzichten van kinderen

LESBRIEF. Laat uw leerlingen 10 minuten lezen in 7Days. Uw leerlingen mogen zelf weten welke artikelen ze deze 10 minuten lezen.

Feedback. in hapklare brokken

25 maart Onderzoek: Aanslagen in Brussel

rust zetten. rust gezet) Commandant der Strijdkrachten.

10 augustus Onderzoek: Rookverbod in Nederland?

Toekomst missie Uruzgan ( )

SEMINAR Het draagvlak voor de krijgsmacht anno 2014: Welke strategieën tot behoud en verbreding ervan?

De koude oorlog Jesse Klever Groep 7

Afghanistan docentenhandleiding

Dames en heren, Toespraak van de Commandant der Strijdkrachten Generaal P van Uhm, ter gelegenheid van het symposium op 5 mei 2012 te Wageningen.

Zeggen wat je precies bedoelt is vooral belangrijk als je niet goed kunt opschieten

de Voorzitter van de Tweede Kamer der Staten-Generaal Plein CR Den Haag

CBRN-DREIGING: DE NIEUWE UITDAGINGEN. CBRN-dag. 3 oktober 2017 Maj. O. ROUSSEAU

Achter gesloten ogen: Spencer

Straaljagers en politici; geen gelukkige combinatie. Hans Heerkens Faculteit Management & Bestuur

Handboek Politiek 2. Derde Kamer der Staten-Generaal

ONTWERPVERSLAG. NL In verscheidenheid verenigd NL 2014/2012(INI)

2 keer beoordeeld 22 maart Sociale filosofie gaat over de maatschappij, het gaat over hoe je een goede samenleving kan hebben.

29 oktober Onderzoek: Files en rekeningrijden

Winnaar van de verhalenwedstrijd De Octant oktober Olle van Damme (groep 6) Stickman. in het leger

DAGORDER. Twee mensen die de afgelopen jaren zo hebben gevochten voor Defensie, voor onze krijgsmacht.

Willen sterven. Wie anders dan ik zelf zou het recht hebben om te beslissen over mijn leven? Moment voor religieuze bezinning en waardevol leven

Henk Kamp - Minister van Defensie 4 mei 2006

Moeilijke besluiten voor de Europese Raad

Eindexamen geschiedenis en staatsinrichting vmbo gl/tl II

Bescherming van journalisten in het internationaal humanitair recht

Mede mogelijk gemaakt door de Iona Stichting en Vos/Abb

Wanneer je teveel over iets nadenkt, loop je de kans dat je fouten gaat maken.

Samenvatting Geschiedenis Hoofdstuk 2

2 maart maart Leerlingen groep 7 en 8 De Meeander Heelweg

WELKOM BIJ BOMBERBOT! LES 1: WAT IS PROGRAMMEREN LES 1: WAT IS PROGRAMMEREN WAAR GAAT DEZE LES OVER? INTRODUCTIE

Naam: NEDERLAND IN OORLOG Begin WO2 (1932 tot 1940)

Informatie voor de leerkracht Introductie nieuw concept (pagina 1) Programmeren met Bomberbot (pagina 1)

Congo: : van oorlog naar vrede. Informatiefiche 1

Naam: EEN BRUG TE VER De Slag om Arnhem

P L E I T A A N T E K E N I N G E N

filosofie havo 2017-II

Ethiek (ethos = gewoonte/zede) wil nadenken over en zich bezinnen op de levenshouding, het handelen en de gewoonte.

MH17 ramp: een aantal juridische vragen beantwoord

De robot die altijd raak schiet

HANDIG ALS EEN HOND DREIGT

Flitspeiling NAVO. Opinieonderzoek naar het draagvlak voor de NAVO onder het Nederlands publiek. Ministerie van Defensie

Waarom? Daarom! Professor Robbert Dijkgraaf & professor Louise O. Fresco

Ideeën presenteren aan sceptische mensen. Inleiding. Enkele begrippen vooraf

6,4. Werkstuk door een scholier 1810 woorden 11 maart keer beoordeeld

Vervoer gevaarlijke stoffen

2012 STAATSBLAD No. 169 VAN DE REPUBLIEK SURINAME

Werkstuk Maatschappijleer De doodstraf

13 februari Onderzoek: ZZP-ers en verplichte verzekering

Naar een inclusief design van technologie. Ton Wilthagen Tilburg University

Deel 1. De eerste oorlogsdagen

INSCHATTING VAN RELATIECONFLICTEN 1

Dagboek Nederland onder water?! Komt Nederland onder water te staan? En wat kunnen jij en de politiek doen om dit te voorkomen?

Opstel Aardrijkskunde Conflicten in Syrie

Review. robotstofzuiger thuiszorg door gemeenteraadsleden

2 september Onderzoek: Verkeer en veiligheid

Naam: En jij..? Esther durft! Kinderdienst 3 februari 2019 CHRISTELIJKE GEREFORMEERDE KERK NIEUWE PEKELA

Welke gevolgen hebben gewapende conflicten? Inleiding tot het internationaal humanitair recht BTC infocyclus april 2016.

HANDIG VERDEDIGEN VAN VOER EN SPEELTJES

'We stevenen rustig en al stuntelend af op een recessie'

Derde Kamer Handboek Politiek 2

Historische evolutie van de internationale regelgeving betreffende de middelen van oorlogvoering

pest eruit? De baas spelen

Ontmoetingskerk Laren NH - 16 juli Preek over Lucas 5: 1-11

Anita Nijboer, Partner. T: +31 (0) F: +31 (0) E: I:

Scratch les 3: Quiz! Je eigen spelshow

Eindexamen geschiedenis en staatsinrichting vmbo gl/tl I

Datum 13 augustus 2018 Onderwerp Antwoorden Kamervragen over Aangiftebereidheid van minderjarige slachtoffers mensenhandel

Transcriptie:

De Grote Robotshow in NEMO, Amsterdam, 4 september 2009. Robots die voor je Vechten Verslag van het debat Door Anouck Vrouwe Sprekers en panelleden Sanne Deurloo, hoofd programmering NEMO (moderator) Martijntje Smits, senior onderzoeker en projectleider sociale robots van het Rathenau Instituut Peter Hiemstra, programmaleider robotica bij TNO Defensie & Veiligheid Jan Wind, secretaris KIVI NIRIA Defensie en Veiligheid, voorheen werkzaam bij de Koninklijke Marine als directeur Wapensystemen. Lambèr Royakkers, universitair hoofddocent ethiek van de techniek aan de Technische Universiteit Eindhoven en militaire ethiek aan de Nederlandse Defensie Academie Rendert Algra, parlementariër, woordvoerder van het CDA voor Defensie Materiaal in de Tweede Kamer Inleiding: wat is de betekenis van militaire robots? Nadat gespreksleider Sanne Deurloo de avond heeft geopend, geeft Martijntje Smits een inleiding over de inzet van militaire robots. Zij geeft haar definitie van een robot: een technisch ding dat kan voelen, denken en handelen. Zo is een wasmachine geen robot, omdat hij wel iets doet, maar niet zelf kan beslissen. Een computer is geen robot omdat computers niet handelen. Smits benadrukt hoe hard de ontwikkelingen in de robottechnologie gaan; de apparatuur is verfijnder, sneller en accurater dan vroeger. Robots in opmars; volgens sommigen staan we aan de vooravond van een robotrevolutie. Robots zullen ook in het leger een belangrijke rol kunnen vervullen. Peter Singer, een Amerikaanse onderzoeker, schrijft over militaire robots: 'Een ontstellende revolutie vindt plaats op het slagveld. Het is dichterbij dan we denken remote controlled drones (op afstand bestuurde onbemande vliegtuigen) schieten op terroristen in Afghanistan, er zijn meer dan 12.000 grondrobots in Irak. Maar dit is slechts het begin.' Ook noemt Smits Noel Sharkey, een Britse robotwetenschapper, die kritische artikelen schrijft over militaire robots. Hij denkt dat robot wars werkelijkheid worden als robots autonoom kunnen schieten. Het leger wil volgens hem de macht over dood en leven overdragen aan 'domme robots zonder ratio of geweten'. Sharkey verwacht dat er door dalende prijzen en sterk verbeterde technologie binnenkort een wapenwedloop komt die nauwelijks te stoppen is. Andere deskundigen verwachten juist veel goeds van robottechnologie, zoals de Amerikaanse robotwetenschapper Ronald Arkin. Hij denkt dat het mogelijk wordt een ethische robot te bouwen. Ethische robots kunnen betere beslissingen nemen dan mensen. Sommige robots zijn al sterker, sneller en slimmer dan mensen. We willen uiteindelijk meer levens sparen. Smits: Ons beeld van robots is bepaald door films en boeken. De werkelijkheid van het slagveld is prozaïscher. Als we praten over militaire robots, dan gaat het vooral om onbemande boten, vliegtuigen en voertuigen. Robots worden ingezet voor werk dat gevaarlijk, saai of vies is. 1

Smits noemt de volgende bestaande militaire robots: wachtrobots: Zuid-Koreaanse robots bewaken de grens met Noord-Korea. Deze robots zouden ook met wapens uit te rusten zijn. Israël heeft mobiele wachtrobots ontwikkeld: de Guardium en de VIPER. packbots: karretjes die vooral worden gebruikt voor het ontmantelen van bermbommen een sensorrobot die radioactiviteit opspoort, [deze is nog in ontwikkeling. check] kleine vliegende robotjes om verkenningen uit te voeren. Deze zijn nog in ontwikkeling Talon Swords, robotkarretjes die explosieven opruimen. Bovendien uitgerust met machinegeweren en anti-tankraketten. Talon Swords zijn ingezet in Bosnië, op Ground Zero, Afghanistan en in Irak gebruikt bij hoog-risicosituaties. de Crusher: een onbemande tank die over auto's heen kan rijden, is uitgerust met camera's en sensoren zodat hij op grote afstand vijanden kan herkennen. Big Dog: een elegante robot op vier poten, voor het dragen van zwaar materieel. Hij is ook uit te rusten met gevechtstechnieken. Deze robot is nog niet in gebruik. Smits vertelt dat het Nederlandse Ministerie van Defensie vooral een ondersteunende taak ziet voor robots. Zij zien voorlopig niets in robots die met wapens zijn uitgerust. In de VS gaat dit jaar al 4 miljard dollar naar de ontwikkeling van robots. De Amerikaanse generaals geloven wel in de vechtfunctie. Smits vraagt zich af wat de ontwikkeling van militaire robots voor de verhoudingen tussen staten betekent. In dit debat wil het Rathenau Instituut het publiek graag de vraag voorleggen welke ontwikkelingen het wenselijk vindt en welke niet. Droombeelden en schrikbeelden De deskundigen, Peter Hiemstra, Lambèr Royakkers en Jan Wind worden één voor één naar voren gevraagd. Wat is hun droom- en schrikbeeld op het gebied van militaire robottechnologie? Zowel het droombeeld van Hiemstra als dat van Wind zijn ondersteunende robots. Hiemstra laat een plaatje van Bear zien, een robot die gewonde soldaten van het slagveld kan dragen. Hij hoopt dat robottechnologie het aantal dodelijke slachtoffers kan verminderen. Wind zou graag zien dat er snel betere robots komen voor ontmanteling van bermbommen. Het schrikbeeld van Hiemstra zijn robots die zelfstandig oorlog voeren in het veld. Winds grootste vrees is dat vechtende robots tegen mensen zullen worden ingezet. Waar hebben we een krijgsmacht voor? Om de belangen van de staat te verdedigen als de diplomaten zijn uitgepraat, om de vijand er van te overtuigen te doen wat de staat wil. Maar wat heeft het voor effect als robots elkaar afslachten? Dat vindt niemand erg, dus wat zou er dan gebeuren? Dan zouden die robots tegen mensen kunnen worden ingezet. Zijn andere schrikbeeld zijn nanobots, miniscule robotjes. Wat als je die door je eten krijgt gemengd en iemand ze op afstand kan bedienen? Wind benadrukt dat beide schrikbeelden nu nog niet actueel zijn: Dit zou pas in de verre toekomst kunnen. Ook filosoof Royakkers presenteert zijn droombeeld: een toenemende slagkracht van de Verenigde Naties (VN). Landen doen vrijwillig mee aan vredesmissies. Wanneer veel militairen dreigen te sneuvelen bij zo'n missie, zijn landen terughoudend bij hun deelname. Dat zie je in het geval van Darfur. Ook in Afghanistan sneuvelen nu veel militairen door bermbommen. Als de inzet van robots de kans op gesneuvelden kleiner maakt, dan zal er eerder draagvlak van de bevolking voor een missie zijn en kan de slagkracht van de VN toenemen. Er komt een reactie uit de zaal: Het draagvlak van de bevolking wordt ook bepaald door de kosten. Robots zouden wel eens duurder kunnen zijn dan militairen. Ook Wind denkt dat Royakkers droombeeld te 2

eenzijdig is: Als het door robottechnologie makkelijker wordt om blauwhelmen in te zetten, dan zullen ook de tegenstanders over dat soort robots beschikken. Dan zal ook voor hen de drempel verlagen om conflicten uit te vechten. Royakkers schrikbeeld is robotterrorisme: Veel robottechnologie is open source, dus het is redelijk makkelijk om militaire robots te maken. Mijn schrikbeeld is dat robots het strijdmiddel van terroristen worden. Een ander schrikbeeld gaat over de cubicle warrior soldaten die achter beeldschermen op afstand bedienbare systemen besturen. Deze soldaten kunnen niet worden vermoord. En zijzelf kunnen makkelijker de tegenstander vermoorden, omdat er een fysieke afstand wordt gecreëerd tussen hen en de tegenstander. Die afstand wordt ook een morele en emotionele afstand, die het doden vergemakkelijkt. Zij zien de tegenstanders slechts als puntjes, als in een game. Het lijkt zo een spelletje, terwijl ik wil dat als je iemand doodt, er een morele afweging achter zit. Iemand in de zaal merkt terecht op dat dit fenomeen al ouder is: ook het geweer schept afstand. Royakkers beaamt dit: Klopt, en ik wil dat het hier stopt. Ik wil dat gewapende robotsystemen verboden worden, dat robots alleen een ondersteunende rol krijgen. Robots zouden van hem niet bewapend mogen zijn. Mogen robots wapens dragen? De vraag of robots wapens mogen dragen, blijkt een belangrijk discussiepunten in het debat. Met robots die op het slagveld ondersteunende taken uitvoeren, heeft bijna niemand in de zaal moeite. Deurloo vraagt een van de weinige tegenstanders naar zijn motivatie. De man antwoordt dat hij het eng vindt om beslissingen op het slagveld aan robots over te laten. Als het bij ondersteuning blijft, vind ik het geen probleem, maar ik verwacht dat de robot zich dan ook als vechter zal ontwikkelen. Als Deurloo de zaal vraagt of een robot wapens mag dragen, blijkt dat bijna iedereen daartegen is. Blijkbaar loopt er een duidelijke grens tussen hoe ondersteunende en vechtende robots geaccepteerd worden. Deurloo vraagt een van de weinig voorstanders zijn standpunt uit te leggen. De man zegt dat hij het probleem niet ziet: Ik vind een robot met wapens niet erger dan bijvoorbeeld een atoombom. Een robot is geen massavernietigingswapen, dat, zoals een bom, een hele groep treft. Van mij mogen ze wapens dragen als ze onderscheid kunnen maken tussen wat een bedreiging is en wat niet. In de praktijk is dat moeilijk, benadrukken de experts. Hiemstra zei al eerder in het gesprek dat 'vechtende robots' een lastig begrip is. Voor hem zijn robots onbemande systemen die zelfstandig beslissingen nemen. De meeste systemen werken nu nog met een mens als operator. Toch bestaat er een systeem dat in de buurt komt, aldus Wind. Hij vertelt over de Goalkeeper, een verdedigingssysteem dat de Nederlandse marine al jaren gebruikt. Als een vijandige raket het schip nadert, herkent de Goalkeeper zelfstandig zijn doel en schiet het uit de lucht. Maar het systeem leert niet van situaties, het kan niet zelfstandig denken: het doet alleen wat de programmeurs hebben ingegeven. Al schiet het apparaat zonder dat er iemand op de knop drukt, volgens de definitie van robots is dit er geen. Zijn militairen ín control over robots? Royakkers wil nog iets toevoegen in reactie op de opmerking uit de zaal, dat robots verschil moeten kunnen maken tussen wat een bedreiging is en wat niet. Dat is een belangrijk punt, vindt de filosoof. Op basis van welke informatie neemt een robot een beslissing en in hoeverre heeft de mens nog controle over dat proces? Zijn mensen in staat om tegen de robot in te gaan? Dat probleem speelt volgens hem niet alleen bij autonome robots. Royakkers refereert weer aan de cubicle warrior, de soldaat die de wapens bedient vanachter computerschermen. Volgens Royakkers lijkt het slechts alsof de mens nog de controle heeft. Hier 3

komt zoveel informatie binnen, het is een farce te denken dat de mens hier in control is. Dit zijn eigenlijk autonome systemen, waarbij de mens alleen nog een veto heeft. Het is maar de vraag of ze dat gebruiken. Je moet sterk in je schoenen staan om niet te schieten als de computer zegt 'schiet'. Volgens een oud-militair in de zaal is dit echter niets nieuws onder de zon: Nu moeten mannen ook gewoon doen wat de commandant zegt. Die neemt de beslissing. Volgens Royakkers is dat echter een onjuist beeld van het leger; daarin is van 'Befehl ist Befehl' al langer geen sprake meer. Soldaten krijgen tegenwoordig een doel en mogen gedeeltelijk zelf bepalen, hoe ze dat bereiken. Wind reageert hier op: Dat is de theorie, in de praktijk gaat het met network centric warfare juist de andere kant op. De grotere hoeveelheid informatie die beschikbaar is, zorgt dat beslissingen verder naar boven kunnen worden verlegd, soms zelfs naar de minister; de hogere rangen hebben tegenwoordig toegang tot dezelfde informatie als de soldaat. Voor de pauze komt nog een laatste onderwerp aan bod. Deurloo vraagt de zaal of de nieuwe robottechnologie het makkelijker maakt een oorlog te beginnen. De meeste mensen stemmen tegen. Ook Royakkers vindt het onzin: Het starten van rechtvaardig oorlog doe je echt niet zomaar. Voordat je een oorlog begint heb je een volmacht nodig van de VN, en die drempel blijft. In de pauze mag het publiek zijn vragen en discussiepunten opschrijven. Deurloo nodigt een aantal van hen in de tweede helft van het debat op het podium. Debat met het publiek Zijn er al militaire systemen in gebruik met kunstmatige intelligentie? Silvester de Bruin wil van het panel weten of er al militaire systemen in gebruik zijn met kunstmatige intelligentie zelf denken is zijn eis. Volgens Hiemstra niet: Volgens mij staat kunstmatige intelligentie nog altijd in de kinderschoenen. In militaire systemen heb ik het nog helemaal niet gezien, hooguit in de promotiefilmpjes van producenten. Wind vraagt De Bruin of de Goalkeeper aan zijn eisen voldoet: Moderne marineschepen kunnen sinds 1999 zelf tot een aantal honderden kilometers alle luchtverkeer detecteren en classificeren in vijandig of niet. Die systemen berekenen zelf welk vijandige doelen het gevaarlijkst zijn. Als er een laagvliegende raket aankomt, vallen ze die aan. In mijn definitie is dat een automatische bewapende robot, is dat voldoende kunstmatige intelligentie? Nee, aldus De Bruin: Voor mij is dat geen robot, al die protocollen voor taken die voorheen door mensen werden gedaan, zijn nu opgenomen in een zwaar softwarepakket. Hiemstra vult aan: Dit systeem anticipeert niet, het leert niet van situaties. Dat lerende aspect is voor hem, en voor De Bruin, de kern van wat iets tot een robot maakt. Wat als een robot een fout maakt? De tweede op het podium is Elise. Zij vraagt zich af wat er gebeurt als een robot een technisch defect of kortsluiting krijgt. Kan hij dan zomaar gaan schieten? Dat kan, zo blijkt. Maar, zegt Elise, is dat dan geen reden om een robot nooit met wapens uit te rusten? Wind geeft aan dat dit probleem niet alleen voor robots geldt: Als je het contact met een onbemand vliegtuig kwijtraakt, dan gaat het ook helemaal mis. Royakkers vult aan: Dit is een belangrijk onderwerp. Als het systeem fouten maakt of een zelflerend systeem de verkeerde kant opgaat, wie heeft dan de verantwoordelijk? Dat is een belangrijke vraag voor VN-landen wie is er verantwoordelijk voor de fouten van een robot? De ontwerper, de monteur, de legerleiding? Iemand in de zaal wil weten of er al jurisprudentie is over robotten waarbij er iets fout is gegaan. Nog niet, aldus Royakkers. Maar het is wel bekend dát er dingen fout zijn gegaan. In Pakistan zijn er volgens berichten meer dan 600 burgers gedood toen Amerikaanse robots een verkeerd konvooi aanvielen ik weet 4

niet precies wat daar mis is gegaan. In Zuid-Afrika heeft een Sword 14 militairen gedood en een flink aantal gewonden gemaakt. Dat ding begon in het wilde weg om zich heen te schieten. Het probleem is dat de VS geen lid zijn van het Internationaal Strafhof. Mijn betoog is dan ook dat Europa de VS moet dwingen om lid te worden, want nu valt dit niet onder het internationale strafrecht. Toch zou Wind liever een robot als tegenstander willen, die is afgestemd op de Geneefse Conventie, dan een of andere gek. Royakkers twijfelt of die er ooit komt. Want hoe kan een robot onderscheid maken tussen een strijder en een burger? Hiemstra is hier ook pessimistisch over: De robot zou dan intenties en verdacht gedrag moeten herkennen, dat is lastig. Robotsystemen kunnen bijvoorbeeld wel zien of iemand zijn handen omhoog houdt, maar dan gaan de terroristen met hun handen omhoog de aanval aan. Een robot met een geweten Het onderwerp of robots onderscheid kunnen maken tussen burgers en militairen komt bij een andere vragensteller terug. Titus van der Valk (12 jaar) wil weten of je een robot met gevoel zou kunnen maken. Hiemstra: Tja, een robot met een geweten, volgens mij is het niet mogelijk. Wind: En als hij dan een geweten heeft, en hij doet het toch, kun je hem dan straffen? Royakkers: Als je een robot hebt die zich aan de wet houdt, dan heb je een goede robot. Zolang dit allemaal onmogelijk is, is het moeilijk om hierover na te denken, vindt hij. Smits presenteert hierop de drie robotwetten die schrijver Isaac Asimov geeft voor 'goede' robots. Deze wetten luiden als volgt: 1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt. 2. Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet. 3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet. Als je deze robotwetten volgt, benadrukt Smits, zijn vechtende militaire robotten in strijd met wet één en worden ze dus nooit goede robots. Wind: Nu kan het nog allemaal niet, maar over tien, twintig jaar, als robots verder zijn, dan denk ik dat we Asimov nog eens goed moeten lezen om te zien wat we met die wetten gaan doen. Noud van Klinken in de zaal waarschuwt dat ook deze wetten niet zaligmakend zullen zijn: Asimov introduceert die wetten wel, maar vervolgens schrijft hij vijf boeken waarin het in de praktijk toch altijd fout gaat. Het panel is het hier volledig met hem eens. Kan een robot onderscheid maken tussen burgers en combattanten? Jan van Die stelt een vraag over de opdracht die een robotvliegtuig meekrijgt. Stel dat het vliegtuig een kopstuk van de Taliban detecteert, tussen burgers? Hoe programmeer je dat? Optimist Ronald Arkin zou zeggen dat het vliegtuig niet schiet, of dat we het straks zo kunnen programmeren dat hij alleen die ene man raakt, aldus Royakkers. En hoe zit dat nu?, wil Van Die weten. Hiemstra vertelt dat er op onbemande vliegtuigen nu alleen camera's zitten die gegevens doorgeven. Het herkennen van personen vanuit een vliegtuig kan nog niet, en hij verwacht ook niet dat dit binnenkort wél kan. Moeten hyperintelligente robots mensenrechten krijgen? De volgende gast op het podium, Niels, is ervan overtuigd dat kunstmatige intelligentie over een tijdje wél zal bestaan. Als je dan een robot hebt of een denkend computersysteem, zouden dan ook de mensenrechten van toepassing moeten zijn op robots?, wil hij weten. Hiemstra lijkt het niets: Als ze zover worden 5

ontwikkeld, dan moeten we als mens heel bang zijn voor robots. Dan moeten we kijken of we die robots wel willen. Daarna ontstaat discussie over de vraag welke verantwoordelijkheden je zou kunnen overdragen aan robots. Royakkers vertelt dat hij is gestopt met de ontwikkeling van een rechtsprekende robot. Hij wil zelf door een mens worden beoordeeld, niet door een computersysteem. Wel ziet hij een toekomst voor medische robots, die een diagnose kunnen stellen op basis van symptomen en metingen - mits er een arts bij betrokken is ondersteuning en die verantwoordelijk is. Niels werpt daartegen in dat robotrechtspraak misschien wel eerlijker is: nu passen rechters vaak verschillende strafmaten toe voor vergelijkbare misdrijven. Maar Royakkers wil toch een mens. Deurloo vraagt of een robot fouten mag maken, net als een mens. Er komt een reactie uit de zaal: Nee, want dan hebben al die robots die fout. Volgens het panel is dat echter geen argument, omdat na een fout het ontwerp kan worden aangepast. Hoe verandert de oorlogsvoering wanneer er alleen robotslachtoffers vallen? De volgende vragensteller, AP, komt terug op een thema dat voor de pauze ook werd aangestipt. Hij vreest dat robots drempelverlagend zullen werken voor het voeren van een oorlog. Er gaat niemand dood. Wat zijn daarvan de consequenties? Een land kan oorlog voeren zonder zich zorgen te maken dat de eigen bevolking protesteert, omdat er teveel slachtoffers vallen aan de eigen kant. Een groot deel van de oorlogen zijn de laatste tijd tussen haves en have-nots. Hoe pakt dat uit als die robots straks massaal ingezet worden? Wind weet het ook niet: Als we apparaten naar Darfur of Afghanistan sturen, ja, dan zal dat misschien makkelijker zijn. Is dat dan beter? Ik weet niet hoe de Taliban het zouden vinden. AP verwacht dat er ook robots zonder ethisch besef komen, die voor 'slechte daden' worden ingezet. Wind vergelijkt het met de discussie over landmijnen: Een landmijn is geen robot, maar hij reageert wél automatisch en autonoom. Militairen hebben landmijnen altijd reuze handig gevonden, om gebieden mee te bewaken. Maar langzamerhand zijn ze er eraan toe dat we van dat verschrikkelijke wapen afkomen. We moeten nu al nadenken of we een conventie zoals die voor mijnen niet ook moeten doortrekken naar andere autonome systemen. Reactie van het Tweede Kamerlid Deurloo nodigt tot slot CDA-Kamerlid Rendert Algra op het podium en vraagt hem of Nederland iets moet doen aan autonome systemen. Algra is van mening dat die ontwikkeling niet te stoppen is en dat je dat ook niet moet willen. Vervolgens is de vraag: wil je als Nederland producten van de plank kopen, of zelf ontwikkelen? Ik heb vaak het idee dat we wel degelijk geïnteresseerd zijn in systemen die uit de VS komen. Hij verwacht dat de NAVO meer zal kunnen doen als robots gevaarlijke taken uit handen kunnen nemen. Deurloo wil weten of robots van Algra een geweer mogen bedienen. Hij antwoordt: Wie heeft de eindverantwoordelijkheid?, dat is voor mij de vraag. Die computer niet uiteindelijk zit er toch een mens aan de knoppen. Reacties van de panelleden De panelleden geven Algra ieder nog een advies mee. Smits adviseert onderzoek naar de huidige effecten van de bestaande robottechnologie in oorlogssituaties, zoals in Irak en Afghanistan. Wat is de invloed daarvan op de oorlogsvoering? Welke trends kunnen we op dit moment al bespeuren, die een indicatie geven voor de toekomstige effecten van robots op het slagveld? Ook vindt ze dat de internationale verdragen opnieuw moeten worden bekeken in het licht van de cubicle warrior. Het beginsel van proportionaliteit in het oorlogsrecht, waarbij doel en middel in verhouding moeten zijn, hoe ziet dat eruit met robottechnologie? Royakkers vindt dat het hoogste tijd is om de ontwikkeling te stoppen van autonome systemen met wapens. 6

Ik verwijt ons filosofen dat wij niet al tien jaar geleden met deze discussie zijn begonnen. Ik wil u vragen dat proces te remmen. Algra geeft aan dat hij niet de illusie heeft dat de politiek de ontwikkeling kan stoppen. Systemen die massavernietiging veroorzaken, en burgerslachtoffers, dat moet je niet willen. Dat is ook de maatstaf van militairen. Maar ondersteunen, bewaken, dat kun je misschien beter aan robots overlaten. Royakkers vindt dit nog geen antwoord op zijn vraag en dringt aan: Moet de politiek geen discussie starten in VN-verband over bewapende systemen? Ik vind dat moeilijk, ik weet niet of je dat moet willen, ik heb soms..., begint Algra zijn antwoord. Deurloo onderbreekt hem en zegt gevat: Zijn antwoord is nee. Waar Algra niet tegen ingaat. Hiemstra zou graag zien dat het onderzoek doorgaat - niet naar aanvallende systemen, maar juist naar verdedigende systemen. Robots kunnen levens redden, als we ze defensief inzetten. Verder wil hij dat Nederland nadenkt hoe we de VS meekrijgen in het statuut van het Internationaal Strafhof. Wind pleit voor internationaal overleg over hoe we met robots verder willen. Algra sluit de avond door te zeggen dat deze wensen grotendeels door de Nederlandse politiek worden onderschreven. De politiek werkt hieraan. Ook wij willen bijvoorbeeld dat de VS zich verantwoorden. 7