PAX Don’t be evil

 

De ontwikkeling van dodelijke autonome wapens heeft aanleiding gegeven tot grote bezorgdheid en een internationaal debat over de wenselijkheid van deze wapens. Dodelijke autonome wapens, in de volksmond bekend als moordenaarsrobots, zouden in staat zijn om individuele doelen te selecteren en aan te vallen zonder betekenisvolle menselijke controle. In dit rapport wordt geanalyseerd welke technologiebedrijven mogelijk betrokken zouden kunnen zijn bij de ontwikkeling van deze wapens. Er wordt gewezen op werkgebieden die relevant zijn voor het leger en die mogelijkheden bieden voor toepassingen in dodelijke autonome wapens, met name bij het faciliteren van autonome selectie en aanval van doelwitten. Bedrijven zijn in dit rapport opgenomen vanwege koppelingen met militaire projecten en/of omdat de technologie die zij ontwikkelen potentieel gebruikt kan worden in dodelijke autonome wapens.

Dodelijke autonome wapens

Kunstmatige intelligentie (AI) heeft het potentieel om veel positieve bijdragen te leveren aan de samenleving. Maar om het potentieel ervan te realiseren, is het belangrijk om de negatieve effecten en backlashes van ongepast gebruik van AI te vermijden. Het gebruik van AI door militairen is op zich niet noodzakelijkerwijs problematisch, bijvoorbeeld wanneer het wordt gebruikt voor het zelfstandig opstijgen en landen, navigeren of tanken. Het gebruik van AI om wapensystemen in staat te stellen autonoom doelen te selecteren en aan te vallen is echter zeer controversieel. De ontwikkeling van deze wapens zou een enorm effect hebben op de manier waarop oorlog wordt gevoerd. Het wordt de derde revolutie in de oorlogsvoering genoemd, na buskruit en de atoombom. Veel experts waarschuwen dat deze wapens fundamentele juridische en ethische principes zouden schenden en de internationale vrede en veiligheid zouden destabiliseren. In het bijzonder wordt het delegeren van de beslissing over leven en dood aan een machine als zeer onethisch gezien.

Het autonome wapendebat in de technologiesector

De afgelopen jaren is er binnen de technologiesector steeds meer discussie ontstaan over de impact van nieuwe technologieën op onze samenlevingen. Er is bezorgdheid geuit over privacy, mensenrechten en andere kwesties die verband houden met privacy, mensenrechten en andere kwesties. De kwestie van wapensystemen met een toenemende mate van autonomie, die kan leiden tot de ontwikkeling van dodelijke autonome wapens, heeft ook geleid tot discussies binnen de technologiesector. De protesten van Google-medewerkers tegen het Pentagon-project Maven hebben er bijvoorbeeld toe geleid dat het bedrijf een beleid installeert waarbij het zich ertoe verbindt geen AI te ontwerpen of in te zetten in “wapens of andere technologieën waarvan het hoofddoel of de implementatie is om mensen letsel toe te brengen of direct te faciliteren”. Ook hebben meer dan 240 bedrijven en organisaties en meer dan 3.200 individuen een belofte ondertekend om nooit dodelijke autonome wapensystemen te ontwikkelen, produceren of gebruiken.

Technologiebedrijven hebben een maatschappelijke verantwoordelijkheid om ervoor te zorgen dat de snelle ontwikkelingen op het gebied van kunstmatige intelligentie worden gebruikt ten behoeve van de mensheid. Het is ook in het eigen belang van een bedrijf om ervoor te zorgen dat het niet bijdraagt aan de ontwikkeling van deze wapens, aangezien dit kan leiden tot ernstige reputatieschade. Zoals Diane Green, CEO van Google Cloud, zei: “Google zou er vandaag de dag niet voor kiezen om Maven na te streven, omdat de repercussies voor het bedrijf vreselijk zijn geweest”.

De technologiesector en steeds meer autonome wapens

Een aantal technologieën kan relevant zijn bij de ontwikkeling van dodelijke autonome wapens. Bedrijven die aan deze technologieën werken, moeten zich bewust zijn van dat potentieel in hun technologie en moeten een beleid hebben dat duidelijk maakt hoe en waar zij de grens trekken met betrekking tot de militaire toepassing van hun technologieën.

Het rapport bekijkt technische bedrijven vanuit de volgende invalshoeken:

– Grote technologie
– Hardware
– AI-software en systeemintegratie
– Patroonherkenning
– Autonome (zwermen-)antennesystemen
– Grondrobots

Mate van zorg

Vijftig bedrijven uit twaalf landen, die alle aan één of meer van de bovengenoemde technologieën werken, werden geselecteerd en gevraagd om deel te nemen aan een kort onderzoek, waarbij hen werd gevraagd naar hun huidige activiteiten en beleid in de context van dodelijke autonome wapens. Op basis van dit onderzoek en ons eigen onderzoek heeft PAX deze bedrijven gerangschikt op basis van drie criteria:

  1. 1. Ontwikkelt het bedrijf technologie die relevant kan zijn in de context van dodelijke autonome wapens?
  2. 2. Werkt het bedrijf aan relevante militaire projecten?
  3. 3. Heeft het bedrijf zich ertoe verbonden niet bij te dragen aan de ontwikkeling van dodelijke autonome wapens?

Op basis van deze criteria worden zeven bedrijven geclassificeerd als ‘best practice’, 22 als ‘medium concern’ en 21 als ‘high concern’. Om als ‘best practice’ te worden gerangschikt, moet een bedrijf zich er duidelijk toe hebben verbonden om ervoor te zorgen dat zijn technologie niet wordt gebruikt om autonome wapens te ontwikkelen of te produceren. Bedrijven die relevante technologie ontwikkelen, aan militaire projecten werken en zich er nog niet toe verbonden hebben om niet bij te dragen aan de ontwikkeling of productie van deze wapens, worden als zeer zorgwekkend beschouwd.

Aanbevelingen

Dit is een belangrijk debat. Technische bedrijven moeten beslissen wat ze wel en niet doen als het gaat om militaire toepassingen van kunstmatige intelligentie. Er zijn een aantal stappen die technologiebedrijven kunnen nemen om te voorkomen dat hun producten bijdragen aan de ontwikkeling en productie van dodelijke autonome wapens.

– Verbintenis om in het openbaar niet bij te dragen aan de ontwikkeling van dodelijke autonome wapens.
– Stel een duidelijk beleid vast waarin staat dat het bedrijf niet zal bijdragen aan de ontwikkeling of productie van dodelijke autonome wapensystemen, met inbegrip van uitvoeringsmaatregelen zoals:
o Elk nieuw project wordt beoordeeld door een ethische commissie;
o Het beoordelen van alle technologie die het bedrijf ontwikkelt en de mogelijke toepassingen en implicaties ervan. o Het beoordelen van alle technologie die het bedrijf ontwikkelt en de mogelijke toepassingen en implicaties ervan;
o In contracten, met name in samenwerking met de ministeries van Defensie en wapenproducenten, een clausule op te nemen waarin staat dat de ontwikkelde technologie niet mag worden gebruikt in dodelijke autonome wapensystemen.
– Ervoor zorgen dat werknemers goed geïnformeerd zijn over waar ze aan werken en open discussies mogelijk maken over eventuele problemen die daarmee verband houden.