hoofdmenu
Sigers Weblog

none yet

Het Pentagon op zoek naar een geweten

25 mei 2014


 CHARLI-2 from Virginia Tech's Robotics & Mechanisms Laboratory

H

et Pentagon is vorige week begonnen aan een project om autonome wapens (robots, transportmiddelen, drones, ...) te voorzien van een ingebouwde moraal. Daartoe hebben ze 7,5 miljoen dollar uitgetrokken waarmee filosofen en computer- en roboticaspecialisten uit verschillende Amerikaanse universiteiten ingehuurd werden.

§

Terwijl men wapentuig bedenkt dat autonoom - zonder tussenkomst van mensen - opereert, zegt het Pentagon, groeit de nood aan wapens die zelf het verschil kunnen maken tussen goed en kwaad.

Men kan zich afvragen waarom een militair bedrijf dat geen graten zag in Guantanamo Bay, in de geheime CIA-gevangenissen, in het met de voeten treden van internationale ontwapeningsverdragen en oorlogsconventies, in foltering, in het produceren van valse bewijzen ten overstaan van de VN om criminele bombardementen recht te praten, en dat bovendien haar veteranen al even slecht behandelt als de dorpen waar ze huis hielden - waarom dit bedrijf waar het menselijk personeel nooit een greintje moreel besef heeft getoond, nu plots wil dat haar robots wél moreel besef hebben.

Het antwoord is eenvoudig: het Pentagon wil een goed verhaal klaar hebben als haar immoraliteit weldra geautomatiseerd, geïndustrialiseerd en op ongeremde schaal toegepast wordt. Beschuldigingen van blinde oorlogsmisdaden zullen met geen bommen de kop ingedrukt kunnen worden, maar de persattaché van het Pentagon zal er fijntjes op wijzen dat de VS het enige land ter wereld is wiens autonome wapens angstvallig begiftigd werden met moraal.

Zoals bij alle militaire spitsvondigheden, zullen andere landen de hardware en software al snel buitmaken, en zullen de nieuwe wapens die korte tijd suprematie uitstraalden blijken een nieuwe stap in de spiraal van bewapening te zijn.

Terwijl het Pentagon spreekt van landsverdediging, weten wapenhandelaars dat elk nieuw snufje snel de markt op gaat voor een zak zilverlingen. Cynisch genoeg kunnen de autonome automaten die nu ontwikkeld worden, nergens meer rendement vinden dan bij een aanval op de dichtbevolkte, hoogtechnologisch ontwikkelde samenleving van het westen. De persattaché zal ons dan op het hart drukken hoe verschrikkelijk immoreel die tuigen wel zijn?

Dat is de echte moraal van dit verhaal: het is boerenbedrog. Neem de eenvoudigste autonome wapens die vandaag helaas al massaal in gebruik zijn: landmijnen. Die worden in het veld geplaatst en aan hun lot overgelaten, net zoals elk meer gesofistikeerd autonoom wapentuig van de toekomst. En zoals elk ander autonoom wapen slaat een landmijn toe "op eigen houtje", volgens door haar makers geplande regels. Die makers hoeven hen niet te bedienen, meestal weten die zelfs niet goed waar ze uithangen of zijn ze hun bestaan vergeten - allemaal hetzelfde als met elk autonoom wapentuig.

Hoe zou men nu een moraal kunnen inbouwen in landmijnen, de eenvoudigste en bekendste autonome wapens? Dit is de simpelste vorm van het probleem, en toch onoplosbaar.

Om "moreel juist" te handelen zou een landmijn alvorens tot ontploffing te komen eerst moeten weten of wie haar aanraakt een kind is, een boer, een ezel, een vijandelijke soldaat enzovoort. Maar een boer is misschien een vijand, en een soldaat was misschien net aan het overlopen. En moet een moreel handelende bom feitelijk ook niet weten of er (niet, of in welke mate, onschuldige) omstaanders zijn, en moet die niet over een formule beschikken om te berekenen hoeveel "collateral damage"-burgerdoden moreel aanvaardbaar zijn in functie van het aantal gedode vijanden? Het is duidelijk: een morele oplossing is essentieel onmogelijk, voor landmijnen en voor om het even welk ander autonoom wapen. Er bestaan natuurlijk geen morele landmijnen.

Ofwel ontwikkelt men iets wat de noodzakelijke informatie kan verzamelen en verwerken binnen enkele ogenblikken, en dan heeft men meteen een moreel inplantje dat men in alle autonome wapens kan monteren of, indien die nog zouden bestaan, kan meegeven aan gewone soldaten. En als dat niet kan, is de enig mogelijke morele beslissing die een landmijn kan maken, niet afgaan. Daarvoor volstaat volgens Hollywood een doorgeknipt draadje. Een eenvoudig en spotgoedkoop onderdeel - iedereen kan het maken.

Verwante blogs:

Of nog beter, wees met moraal begiftigde mensen, dan hoef je geen bommen meer te maken. Je moet op voorhand kiezen tussen oorlog voeren of moreel goed doen. Beide zijn niet te combineren. Als je voor oorlog kiest, heb je nood aan camouflagenetten, niet in het minst de morele soort. Dat is altijd al zo geweest.

Misschien keren de ingehuurde filosofen en technici terug naar de oude Isaac Asimov. In Runaround, een verhaal uit I, Robot, geschreven in 1941 maar dat zich afspeelt volgend jaar, in 2015, staat een dialoog naar aanleiding van de flippende robot Speedy. Daarin worden drie wetten beschreven waaraan elke robot moet beantwoorden:

"Laten we beginnen met de drie fundamentele regels die diep in het positronische brein van elke robot ingebouwd zitten." In het donker tikte hij elk punt dat hij maakte af op zijn vingers.
"We hebben: een, een robot mag geen menselijk wezen schade toebrengen, of door laksheid toestaan dat een menselijk wezen schade oploopt."
"Juist"
"Twee," ging Powell verder, "moet een robot bevelen van een mens opvolgen, zolang die niet in conflict is met de eerste wet."
"Juist"
"En drie, een robot moet zijn eigen bestaan beschermen zolang deze bescherming niet in strijd is met de eerste of de tweede wet."

Het enige morele algoritme dat autonoom oorlogstuig nodig heeft is:

(launched) ➝ (turn back).




Bronnen:
Ender’s Game: A fictional future that the US military is terrifyingly close to realizing (extreme tech)
US military begins research into moral, ethical robots, to stave off Skynet-like apocalypse (extreme tech)
Moral Robots for the Pentagon? Let’s Work on Pentagon Morality First (Truth out)
Now The Military Is Going To Build Robots That Have Morals (Defence One)
I, robot (Isaac Asimov)



Tags: actueel, ethiek, pacifisme, samenleving, wetenschap

Zie ook het archief