Etyczne dylematy odpowiedzialności za działanie systemów sztucznej inteligencji na wojnie
DOI:
https://doi.org/10.34739/doc.2024.21.03Słowa kluczowe:
autonomiczne systemy bojowe, dylematy etyczne, konflikt, prawo, sztuczna inteligencjaAbstrakt
W artykule przeanalizowano kluczowe dylematy etyczne związane z zastosowaniem systemów sztucznej inteligencji (AI) w nowoczesnych konfliktach zbrojnych. W ostatnich latach AI zyskała na znaczeniu w sektorze militarnym, obejmując takie technologie, jak autonomiczne drony bojowe, systemy analizy danych wywiadowczych oraz symulacje bitewne. Wprowadzenie tych nowoczesnych technologii niesie ze sobą znaczące wyzwania etyczne, w tym odpowiedzialność za decyzje podejmowane przez autonomiczne systemy, ryzyko błędów i niewłaściwego użycia, zgodność z międzynarodowym prawem humanitarnym oraz potencjalne ryzyko eskalacji konfliktów. Artykuł przedstawia analizę tych problemów, proponuje praktyczne rekomendacje mające na celu minimalizację ryzyk oraz wskazuje obszary wymagające dalszych badań. Potwierdzono hipotezę, że użycie AI w wojsku wprowadza istotne dylematy etyczne, wymagające nowych ram regulacyjnych oraz zgodności z międzynarodowym prawem humanitarnym.
Pobrania
Pobrania
Opublikowane
Numer
Dział
Licencja
Prawa autorskie (c) 2024 Doctrina. Studia społeczno-polityczne
Utwór dostępny jest na licencji Creative Commons Uznanie autorstwa – Użycie niekomercyjne 4.0 Międzynarodowe.