Home Bots & Bullets Amerikaanse Ministerie van Defensie publiceert ethische richtlijnen voor AI

Amerikaanse Ministerie van Defensie publiceert ethische richtlijnen voor AI

door Pieter Werner

Als eerste militaire organisatie heeft het Amerikaanse Ministerie van Defensie ethische richtlijnen opgesteld voor het gebruik van AI en machine learning. Deze technologieën worden volgens het Department of Defense (DOD) steeds meer gebruikt in de organisatie om zowel strategisch als technologisch voorop te kunnen lopen. Dat vraagt echter wel om reflectie en zelfinzicht, om ervoor te zorgen dat innovatie met deze technologie op een veilige en ethische manier gebeurt.

Wapensystemen

Het Ministerie zegt in een verklaring dat de mannen en vrouwen die werken aan de verdediging van de Verenigde Staten ethiek hoog in het vaandel hebben staan. Ze streven ernaar burgerslachtoffers te vermijden, internationale humanitaire wetten na te leven, en werken samen om de internationale rechtsorde te ondersteunen. Dit betekent onder meer dat wapensystemen die gebruik maken van AI extra kritisch worden bekeken.

Vijf richtlijnen

Op basis van deze visie is de Defence Innovation Board aan de slag gegaan, wat heeft geleid tot vijf richtlijnen voor AI. Technologie moet responsible, equitable, traceable, reliable en governable zijn. In het document staat het als volgt geformuleerd:

Responsible. Human beings should exercise appropriate levels of judgment and remain responsible for the development, deployment, use, and outcomes of DoD AI systems.
Equitable. DoD should take deliberate steps to avoid unintended bias in the development and deployment of combat or non-combat AI systems that would inadvertently cause harm to persons.
Traceable. DoD’s AI engineering discipline should be sufficiently advanced such that technical experts possess an appropriate understanding of the technology, development processes, and operational methods of its AI systems, including transparent and auditable methodologies, data sources, and design procedure and documentation.
Reliable. DoD AI systems should have an explicit, well-defined domain of use, and the safety, security, and robustness of such systems should be tested and assured across their entire life cycle within that domain of use.
Governable. DoD AI systems should be designed and engineered to fulfill their intended function while possessing the ability to detect and avoid unintended harm or disruption, and for human or automated disengagement or deactivation of deployed systems that demonstrate unintended escalatory or other behavior.

Lees de ethische richtlijnen hier

Misschien vind je deze berichten ook interessant