A gépgyilkos szelleme folytatódik. Miben hisz Putyin elnök?
Technológia

A gépgyilkos szelleme folytatódik. Miben hisz Putyin elnök?

A katonai robotok hívei (1) azzal érvelnek, hogy az automatizált fegyverek több lehetőséget kínálnak az emberi élet védelmére. A gépek képesek közelebb kerülni az ellenséghez, mint a katonák, és helyesen felmérik a fenyegetést. Az érzelmek pedig néha megbénítják a helyes döntések meghozatalának képességét.

A gyilkos robotok használatának számos híve szilárdan meg van győződve arról, hogy a háborúk kevésbé lesznek véresek, mert kevesebb katona fog meghalni. Megjegyzik, hogy a robotok, bár nem éreznek szánalmat, immunisak az olyan negatív emberi érzelmekre, mint a pánik, a harag és a bosszú, amelyek gyakran háborús bűnökhöz vezetnek.

Az emberi jogi aktivisták azt az érvet is használják, hogy a katonaság az elmúlt fél évszázadban a polgári áldozatok számának óriási csökkenéséhez vezetett, és a hadsereg robotizálása lehetővé teszi a háborús törvények szigorúbb betartatását szolgáló mechanizmust. Azt állítják, hogy a gépek etikussá válnak, ha olyan szoftverrel látják el őket, amely arra kényszeríti őket, hogy engedelmeskedjenek a háború törvényeinek.

Természetesen rengeteg ember, köztük nagyon híresek is, évek óta nem osztják ezt a véleményt. 2013 áprilisában nemzetközi kampány indult a szlogennel (2). Ennek keretében a civil szervezetek az autonóm fegyverek használatának teljes betiltását követelik. Számos ország szakértői először 2014 májusában Genfben, az ENSZ leszerelési konferenciáján ültek le megvitatni ezt a témát. A Human Rights Watch és a Harvard Egyetem tudósai néhány hónappal később közzétett jelentése szerint az autonóm egyedek túl veszélyesek lennének – saját célpontjaikat választották és embereket öltek meg. Ugyanakkor nem nagyon világos, hogy kit kell felelősségre vonni.

2. Bemutató a "Stop gyilkos robotok" akció részeként

Mire képes egy kis drónraj

A gyilkos robotok (ROU) körüli viták évek óta folynak, és nem múlnak el. Az elmúlt hónapok újabb kísérleteket hoztak a katonai robotok megállítására, és számos bejelentés érkezett az ilyen típusú új projektekről, amelyek egy részét még valós harci körülmények között is tesztelik.

2017 novemberében egy videó, amelyen látható halálos mini-drónrajok ., félelmetes akcióban. A nézők látták, hogy már nincs szükségünk a Predators által dobott nehéz harci gépekre, tankokra vagy rakétákra, hogy tömegesen és géppuskával gyilkoljanak. Stuart Russell vezető rendező, a Berkeley mesterséges intelligencia professzora szerint:

-

Tavaly tavasszal ötven professzor A világ vezető egyetemei felhívást írtak alá a Korea Institute of Advanced Science and Technology (KAIST) és partnere, a Hanwha Systems felé. bejelentették, hogy nem működnek együtt az egyetemmel és nem látnak vendégül KAIST vendégeket. Ennek oka az volt, hogy mindkét intézmény „autonóm fegyvereket” épített. A KAIST cáfolta a sajtóértesüléseket.

Nem sokkal ezután az Egyesült Államokban több mint 3 Google-alkalmazott tiltakozott a cég katonaságért végzett munkája ellen. Aggodalomra ad okot, hogy a Google a Maven kódnevű kormányzati projekttel társult, amelynek célja, hogy mesterséges intelligenciát használjon tárgyak és arcok felismerésére katonai drónvideókban. A cég vezetése szerint a Maven célja életek megmentése és emberek megmentése a fárasztó munkától, nem pedig az agresszió. A tüntetőket nem győzték meg.

A csata következő része a nyilatkozattétel volt mesterséges intelligencia szakértők, beleértve egy Google projekten dolgozik és Elon Musk. Azt ígérik, hogy nem fejlesztenek robotokat. Arra is felszólítják a kormányokat, hogy fokozzák erőfeszítéseiket e fegyverek szabályozására és korlátozására.

A nyilatkozat részben azt mondja, hogy "az emberélet kioltására vonatkozó döntést soha nem szabad gépnek meghoznia". Bár a világ hadseregei számos, esetenként nagyfokú autonómiával rendelkező automata eszközzel vannak felszerelve, sok szakértő attól tart, hogy a jövőben ez a technológia teljesen autonómmá válhat, lehetővé téve a gyilkosságot emberi kezelő és parancsnok közreműködése nélkül.

A szakértők arra is figyelmeztetnek, hogy az autonóm gyilkológépek még veszélyesebbek is lehetnek, mint az "nukleáris, vegyi és biológiai fegyverek", mert könnyen kicsúszhatnak az irányításuk alól. Tavaly júliusban összesen 170 szervezet és 2464 magánszemély írt alá egy levelet az Élet Jövője Intézet (FGI) égisze alatt. 2019 első hónapjaiban az FLI-hez kapcsolódó orvostudósok egy csoportja ismét új levél kidolgozását kérte, amely betiltja a mesterséges intelligencia (AI) által vezérelt fegyverek fejlesztését.

Sikerrel zárult az ENSZ tavaly augusztusi gniewói ülése a katonai „gyilkos robotok” esetleges jogi szabályozásáról... gépek. Országok egy csoportja, köztük az Egyesült Államok, Oroszország és Izrael blokkolta az e fegyverekre vonatkozó nemzetközi tilalom bevezetésével kapcsolatos további munkát (Egyes hagyományos fegyverek használatának tilalmáról vagy korlátozásáról szóló egyezménytervezet, CCW). Nem véletlen, hogy ezek az országok az autonóm és robotfegyverek fejlett rendszereivel kapcsolatos munkájukról ismertek.

Oroszország a harci robotokra összpontosít

Vlagyimir Putyin elnököt gyakran idézik a katonai AI-rendszerekről és a harci robotokról:

-.

nyíltan beszél az autonóm fegyverek fejlesztéséről. Fegyveres erőinek vezérkarának főnöke, Valerij Geraszimov tábornok a közelmúltban az Interfax-AVN katonai hírügynökségnek azt mondta, hogy a jövőbeni háborúk egyik fő jellemzője lesz a robotok alkalmazása. Hozzátette: Oroszország próbálkozik teljesen automatizálja a csatateret. Hasonló megjegyzéseket tett Dmitrij Rogozin miniszterelnök-helyettes és Szergej Sojgu védelmi miniszter is. Viktor Bondarev, a Szövetségi Tanács védelmi és biztonsági bizottságának elnöke elmondta, hogy Oroszország fejlődésre törekszik Roju technológiákez lehetővé tenné, hogy a drónhálózatok egyetlen egységként működjenek.

Ez nem meglepő, ha emlékszünk arra, hogy az első teletankokat a Szovjetunióban fejlesztették ki a 30-as években. A második világháború elején használták őket. Ma Oroszország is alkot tank robotok egyre autonómabbá válnak.

Putyin állama nemrégiben elküldte a magáét Szíriának Uran-9 pilóta nélküli harcjármű (3). az eszköz elvesztette a kapcsolatot a földi irányítási pontokkal, problémák voltak a felfüggesztési rendszerrel, fegyverei nem működtek tökéletesen és nem találtak el mozgó célpontokat. Nem hangzik túl komolyan, de sokan jó harci tesztnek tartják a szír törlőkendőt, amivel az oroszok fejleszthetik a gépezetet.

A Roszkozmosz jóváhagyta azt az előzetes tervet, hogy idén augusztusig két robotot küldenek a Nemzetközi Űrállomásra. Fedor (4) a pilóta nélküli Unióban. Nem úgy, mint egy teher, de. Akárcsak a RoboCop című filmben, Fedor fegyvert forgat, és halálos lövészetet mutat be a lövésgyakorlatok során.

A kérdés az, hogy miért lenne felfegyverkezve egy robot az űrben? Fennáll a gyanú, hogy nem csak a földi alkalmazásoknál van a dolog. Eközben a Földön az orosz Kalasnyikov fegyvergyártó vizualizációt mutatott be robot Igorekamely bár sok nevetést keltett, azt jelzi, hogy a cég komolyan dolgozik az autonóm harcjárműveken. 2018 júliusában Kalasnyikov bejelentette, hogy olyan fegyvert épít, amellyel „lő vagy nem lő” döntéseket hoz.

Ehhez az információhoz hozzá kell adni azokat a jelentéseket, amelyek szerint az orosz fegyvermester, Digtyarev kifejlesztett egy kis autonóm tank Nerekht amely hangtalanul képes elindulni a célpontja felé, majd hatalmas erővel felrobban, hogy más vagy egész épületet elpusztítson. Szintén Tank T14 hadsereg , az orosz fegyveres erők büszkesége, lehetséges távirányításra és pilóta nélküli vezetésre tervezték. A Szputnyik azt állítja, hogy orosz hadmérnökök azon dolgoznak, hogy a T-14-est teljesen autonóm páncélozott járművé tegyék.

Kifogásolási irányelv

Maga az amerikai hadsereg is meglehetősen világos korlátot szabott fegyverei autonómiájának szintjére. 2012-ben az Egyesült Államok Védelmi Minisztériuma kiadta a 3000.09 irányelvet, amely kimondja, hogy az embereknek jogukban áll tiltakozni a fegyveres robotok cselekedetei ellen. (bár lehet néhány kivétel). Ez az irányelv érvényben marad. A Pentagon jelenlegi politikája az, hogy a fegyverhasználatban mindig a személy legyen a döntő tényező, és ez az ítélet is az. megfelel a háború törvényeinek.

Bár az amerikaiak évtizedek óta használnak repülőt, Predatort, Reapert és sok más szupergépet, ezek nem voltak és nem is autonóm modellek. Ezeket a kezelők távolról, esetenként több ezer kilométeres távolságból irányítják. A prototípus premierjével heves vita kezdődött az ilyen típusú gépek autonómiájáról. drón X-47B (5), amely nemcsak önállóan repült, hanem repülőgép-hordozóról is fel tudott szállni, rászállni és a levegőben tankolni. Jelentése az is, hogy emberi beavatkozás nélkül lőni vagy bombázni. A projekt azonban még tesztelés és felülvizsgálat alatt áll.

5. A pilóta nélküli X-47B tesztjei egy amerikai repülőgép-hordozón

2003-ban a védelmi minisztérium kísérletezni kezdett egy kis tankszerű robottal. SPOES géppuskával felszerelve. 2007-ben Irakba küldték. a program azonban véget ért, miután a robot szabálytalanul kezdett viselkedni, és szabálytalanul mozgatni a puskáját. Ennek eredményeként az amerikai hadsereg sok éven át felhagyott a fegyveres földi robotokkal kapcsolatos kutatásokkal.

Ugyanakkor az amerikai hadsereg a műveletekre fordított kiadásait a 20-es 2014 millió dollárról 156-ra 2018 millió dollárra növelte. 2019-ben ez a költségvetés már 327 millió dollárra ugrott. Ez néhány év alatt összesített 1823%-os növekedést jelent. Szakértők szerint már 2025-ben csatateret kaphat az amerikai hadsereg több robotkatona, mint ember.

Az utóbbi időben sok vitát váltott ki és hirdetett meg az amerikai hadsereg ATLAS projekt () - automatikus. A médiában ezt a fent említett 3000.09 irányelv megsértésének tekintették. Az amerikai hadsereg azonban tagadja, és biztosítja, hogy egy személy kizárása a döntéshozatali ciklusból szóba sem jöhet.

Az AI felismeri a cápákat és a civileket

Az autonóm fegyverek védelmezőinek azonban új érveik vannak. prof. Ronald Arkin, a Georgia Institute of Technology robotikusa publikációiban kijelenti, hogy A modern hadviselésben az intelligens fegyverek elengedhetetlenek a polgári áldozatok elkerüléséhez, mivel a gépi tanulási technikák hatékonyan segíthetnek megkülönböztetni a harcosokat és a civileket, valamint a fontos és nem fontos célpontokat.

Ilyen mesterséges intelligencia-készségekre példa az ausztrál tengerpartokon való járőrözés. drónok Little Rippera Sydney-i Műszaki Egyetem által kifejlesztett SharkSpotter rendszerrel. Ez a rendszer automatikusan cápákat keres a vízben, és figyelmezteti a kezelőt, ha valami nem biztonságos dolgot lát. (6) Képes azonosítani az embereket, delfineket, csónakokat, szörfdeszkákat és tárgyakat a vízben, hogy megkülönböztesse őket a cápáktól. Körülbelül tizenhat különböző fajt képes nagy pontossággal észlelni és azonosítani.

6. Felismert cápák a SharkSpotter rendszerben

Ezek a fejlett gépi tanulási módszerek több mint 90%-kal növelik a légi felderítés pontosságát. Összehasonlításképpen: egy hasonló helyzetben lévő emberi kezelő a légifelvételeken a tárgyak 20-30%-át pontosan felismeri. Ezen túlmenően, az azonosítást egy ember továbbra is ellenőrzi a riasztás előtt.

A csatatéren a kezelő a képernyőn látható képet látva alig tudja megállapítani, hogy a földön tartózkodók vadászgépek-e AK-47-esekkel a kezükben, vagy például farmerek csukákkal. Arkin megjegyzi, hogy az emberek hajlamosak "látni, amit látni szeretnének", különösen stresszes helyzetekben. Ez a hatás hozzájárult ahhoz, hogy a USS Vincennes 1987-ben véletlenül lelőtt egy iráni repülőgépet. Természetesen szerinte az AI által vezérelt fegyverek jobbak lennének, mint a jelenlegi „okosbombák”, amelyek nem igazán érzőek. Tavaly augusztusban egy szaúdi lézervezérelt rakéta eltalált egy iskolásokkal teli buszt Jemenben, negyven gyerek halálát okozva.

„Ha egy iskolabuszt megfelelően felcímkéznek, viszonylag könnyű azonosítani egy autonóm rendszerben” – érvel Arkin a Popular Mechanics-ban.

Úgy tűnik azonban, hogy ezek az érvek nem győzik meg a kampányolókat az automatikus gyilkosok ellen. A gyilkos robotok fenyegetése mellett még egy fontos körülményt kell figyelembe venni. Még egy "jó" és "figyelmes" rendszert is feltörhetnek és átvehetnek nagyon rossz emberek. Ekkor minden érv a katonai felszerelés védelmében elveszíti erejét.

Hozzászólás