Què és una intel·ligència artificial? Què és, de fet, la intel·ligència? No és fàcil de definir, encara que intuïtivament, podem distingir entre éssers intel·ligents (desgraciadament, n’hi ha menys que uns altres…) i no intel·ligents, però si ens demanessin una definició “d’enciclopèdia” sobre què és la intel·ligència, això seria més difícil. Per això, avui dia, existeixen diverses definicions vàlides i acceptades del que és la intel·ligència.
I si definir la intel·ligència és complicat, no diguem ja per a un concepte més eteri com la consciència, alguna cosa que pot anar més enllà d’una intel·ligència que permet respondre a preguntes i generar hipòtesis i conclusions a partir de premisses, alguna cosa que és pròpiament vida.
Això és el que creu haver trobat Blake Lemoine, un enginyer de Google, en el lloc més inesperat: en una intel·ligència artificial creada per la companyia de Mountain View per a generar chatbots.
Cal dir que el treball de Lemoine a Google és el de provar els sistemes d’intel·ligència artificial que desenvolupa Google per a generar chatbots, amb la missió de comprovar que no utilitzin llenguatge d’odi i/o discriminació.
Lemoine va interactuar amb LaMDA (Language Model for Dialogui Applications) fa unes setmanes, i cal dir que el nivell de conversa de la IA li va impressionar fins a tal punt de declarar que “si no sabés exactament què és, que és un programa d’ordinador que construïm recentment, pensaria que és un nen de 7 o 8 anys que sap física”. El Washington Post es fa ressò d’aquestes paraules.
La conversa (que és precisament per al que està dissenyada LaMDA) va discórrer per temes com la religió o els drets que posseïa el mateix programa com a tal, i l’enginyer va decidir pressionar en la conversa per a trobar-li els límits a la IA.
Al llarg dels següents dies es van succeir una sèrie de converses, en el transcurs de les quals la IA va arribar a aconseguir que Lemoine canviés el seu punt de vista sobre la tercera llei de la robòtica d’Asimov.
Aquesta llei afirma que “un robot ha de protegir la seva pròpia existència sempre que aquesta protecció no entre en conflicte amb la Primera o Segona Llei”, sent aquestes lleis: 1. “Un robot no pot danyar a un ésser humà o, per inacció, permetre que un ésser humà pateixi danys” i 2. “Un robot ha d’obeir les ordres que li donin els éssers humans, excepte quan tals ordres entrin en conflicte amb la Primera Llei”.
Després d’aquests intercanvis, i persuadit que LaMDA té consciència, l’enginyer de Google va treballar per a presentar a la companyia que el contracta evidència d’això.
No obstant això, la recepció dels seus arguments per part de Google no va ser bona, i entre el vicepresident Blaise Aguera i la cap d’Innovació Responsable, Jen Gennai, van decidir no només posar l’assumpte en via morta sinó, fins i tot, suspendre de sou i de feina a Lemoine.
Aquesta manera d’obrar va ser la que va portar a l’enginyer a explicar-se en públic, en mitjans com l’abans citat Washington Post. No deixa de ser curiós que Aguera va publicar fa pocs dies un article a The Economist en el qual confessava que havia “notat alguna cosa” en dialogar amb LaMDA, i que les xarxes neuronals estan avançant cap a la consciència.
Lemoine també ha declarat que creu que Google hauria de deixar participar als usuaris en el procés de creació i entrenament de les intel·ligències artificial que desenvolupa, ja que està persuadit que la IA és una eina que tindrà un profund impacte en la societat, que la modelarà, per la qual cosa tots hem de poder tenir el dret a opinar. Pot ser, l’exposició d’aquest punt de vista hagi pogut tenir alguna cosa a veure en la seva suspensió.
Per part seva, i en un comunicat dirigit a la premsa del qual també es fa ressò el Washington Post, Google afirma que les objeccions de Lemoine han estat examinades, i que el seu equip (que inclou experts en tecnologia i també en ètica) no ha pogut trobar evidències que donin suport a les afirmacions de l’enginyer.
.- Aquest és un article de tecnonews.info i AMIC per a Sa Revista.