No t’ho pregunto jo, sinó que ho pregunta (i també respon) Wavell Room, blog britànic dedicat a reflexionar sobre temes militars que deu el seu nom a Archibald Wavell, mariscal de camp britànic que va servir en conflictes des de la Segona Guerra Bòer fins a la Segona Guerra Mundial.
Potser a molts la pregunta els resulta xocant, perquè podrien pensar que el futur de la guerra va en la línia de màquines amb intel·ligència artificial barallant contra altres màquines, sense humans pel mig o amb aquests manant als ‘robots’ (segurament amb una mica d’imatgeria popular procedent de la saga Terminator pel mig), però com l’article de Wavell Room bé explica el seu final, molt del treball de les forces armades modernes en diferents conflictes, no té res a veure amb lluitar en el camp de batalla, sinó que es basa en la relació amb els civils.
És el que els nord-americans van batejar com “winning hearts and minds” (guanyar-se els cors i les ments), i malgrat que a ells a Vietnam i l’Iraq no els va acabar de funcionar del tot bé, això no significa que aquest tipus de campanya per a guanyar-se el favor de la població civil no sigui vàlida, si s’acompanya del que podríem definir com una “guerra per causa justa”.
Continuant amb l’article de Wavell Room, aquest posa un exemple pràctic d’un vehicle autònom i amb IA de transport de tropes que porta en el seu interior soldats humans fins a un punt avançat del camp de batalla, i que ostenta el rang de cap. Una vegada arribats al seu destí, aquest dona ordres als soldats per a iniciar un atac sobre un objectiu, mentre el mateix vehicle els cobreix amb les seves armes.
La reflexió principal de l’article és que el problema que presenta acceptar ordres d’una IA és social. L’exemple contrari, alterant l’ordre dels factors perquè sigui un cap humà el que doni ordres a soldats robòtics amb IA pròpia, seria probablement acceptat per qualsevol soldat humà, així com per l’opinió pública, probablement amb l’excepció d’aquelles persones que temen una rebel·lió de les màquines al més pur estil – i tornem sobre els nostres passos – Terminator.
Una primera pregunta que podríem fer-nos és si una intel·ligència artificial sentiria remordiments o podria fins i tot ser punida, per manar directament a la mort a soldats humans, sigui aquesta decisió fruit d’un error, una informació equivocada, o bé un càlcul premeditat. Molts generals i mandataris humans han pres, en el transcurs de la història, decisions que han enviat a una mort gairebé segura a un grapat d’homes per a salvar a uns altres.
Però això, posat en una IA, és una cosa que ens espanta, col·lectivament parlant, ja que un ordinador no té por a la mort (almenys, en el moment actual del desenvolupament de la intel·ligència artificial).
D’altra banda, les IA milloren algunes de les qualitats que tenim els humans i que defineixen el lideratge, fins i tot en el camp de batalla. Per a començar, no sucumbeixen a la pressió de la situació, i no es bloquegen per aquesta, podent prendre decisions en situacions molt difícils en molt poc temps, reaccionant més ràpidament que líders humans.
La seva visió del camp de batalla en l’àmbit global, tenint en compte no només les accions i la situació de la unitat que comanden, sinó de la resta, és molt superior a la dels éssers humans, i poden sospesar les accions a prendre segons aquesta visió global d’una forma més freda.
Adequadament desenvolupades, les intel·ligències artificials poden tenir en compte la seguretat dels soldats humans per a protegir les seves vides, responent al temor i al rebuig anteriorment descrit de la por al fet que puguin enviar soldades directament cap a la mort.
I amb els sistemes d’aprenentatge automatitzat (machine learning) són capaços d’aprendre de les seves experiències i millorar, alguna cosa que els éssers humans hem demostrat moltes vegades que no podem fer bé, repetint els nostres propis errors. L’existència de conflictes armats per sobre del diàleg pacífic, que persisteix des de fa segles, bé el demostra.
La introducció de la IA en el camp de batalla presenta els seus avantatges, com evitar les baixes per “foc amic”, ja que una màquina no es posa nerviosa i utilitza tots els mitjans possibles per a identificar el que passa davant els seus sistemes de visió abans de disparar, al contrari del que moltes vegades passa amb els soldats humans, que primer disparen… i després pregunten.
Un camp en el qual l’article indica que les màquines serien acceptades socialment, tant pels militars com per la societat civil, disposant aquestes de rang (i, per tant, podent donar ordres a soldats humans), seria en les tasques adjacents a les de camp de batalla, tan necessàries com la lluita, però que no siguin pròpiament aquestes.
Em refereixo, per exemple, a la logística, cuina, o vigilància d’instal·lacions entre altres.
.- Aquest és un article de tecnonews.info i AMIC per a Sa Revista.