Papa Francisc participă la Sesiunea G7 despre inteligenţa artificială (14 iunie 2024)
Un instrument fascinant şi teribil
Stimate doamne, iluştri domni!
Mă adresez vouă, lideri ai Forumului Interguvernamental G7, cu o reflecţie asupra efectelor inteligenţei artificiale asupra viitorului omenirii.
"Sfânta Scriptură atestă că Dumnezeu a dăruit oamenilor pe Spiritul său pentru ca să aibă «înţelepciune, pricepere şi ştiinţă pentru tot felul de lucrări»" (Ex 35,31)[1]. Aşadar, ştiinţa şi tehnologia sunt produse extraordinare ale potenţialului creativ al nostru, fiinţe umane[2].
Ei bine, tocmai din utilizarea acestui potenţial creativ pe care Dumnezeu ni l-a dăruit iese în evidenţă inteligenţa artificială.
Aceasta din urmă, aşa cum se ştie, este un instrument extrem de puternic, folosit în foarte multe zone ale acţiunii umane: de la medicină la lumea muncii, de la cultură la domeniul comunicării, de la educaţie la politică. Şi acum este permis să se facă ipoteza că folosirea sa va influenţa tot mai mult modul nostru de a trăi, relaţiile noastre sociale şi în viitor chiar şi maniera în care concepem identitatea noastră de fiinţe umane[3].
Totuşi, tema inteligenţei artificiale este percepută adesea ca ambivalentă: pe de o parte, entuziasmează pentru posibilităţile pe care le oferă, pe de altă parte, generează teamă pentru consecinţele pe care le lasă să se presimtă. În această privinţă se poate spune că noi toţi suntem, chiar dacă în măsură diferită, străbătuţi de două emoţii: suntem entuziaşti, când ne imaginăm progresele care pot deriva din inteligenţa artificială, dar, în acelaşi timp, suntem înfricoşaţi când constatăm pericolele inerente folosirii sale[4].
De altfel, nu putem să ne îndoim că venirea inteligenţei artificiale reprezintă o adevărată revoluţie cognitivă-industrială, care va contribui la crearea unui nou sistem social caracterizat de transformări epocale complexe. De exemplu, inteligenţa artificială ar putea permite o democratizare a accesului la ştiinţă, progresul exponenţial al cercetării ştiinţifice, posibilitatea de a delega maşinilor muncile care uzează; dar, în acelaşi timp, ea ar putea aduce cu sine o nedreptate mai mare între naţiuni avansate şi naţiuni în curs de dezvoltare, între grupuri sociale dominante şi grupuri sociale oprimate, punând astfel în pericol posibilitatea unei "culturi a întâlnirii" în folosul unei "culturi a rebutului".
Însemnătatea acestor transformări complexe este desigur legată cu dezvoltarea tehnologică rapidă a inteligenţei artificiale însăşi.
Tocmai această avansare tehnologică viguroasă face inteligenţa artificială un instrument fascinant şi teribil în acelaşi timp şi impune o reflecţie la înălţimea situaţiei.
În această direcţie probabil s-ar putea porni de la constatarea că inteligenţa artificială este înainte de toate un instrument. Şi vine în mod spontan să se afirme că binefacerile sau daunele pe care ea le va aduce vor depinde de folosirea sa.
Acest lucru este cu siguranţă adevărat, pentru că aşa a fost pentru orice ustensilă construită de fiinţa umană încă din noaptea timpurilor.
Această capacitate a noastră de a construi ustensile, într-o cantitate şi complexitate care nu are egal între fiinţele vii, face să vorbească despre o condiţie tehno-umană: fiinţa umană a menţinut dintotdeauna o relaţie cu ambientul mediată de instrumentele pe care le producea treptat. Nu este posibil să se separe istoria omului şi a civilizaţiei de istoria acestor instrumente. Cineva a voit să citească în toate acestea un soi de lipsă, un deficit, a fiinţei umane, ca şi cum, din cauza acestei lipse, ar fi constrânsă să dea viaţă tehnologiei[5]. În realitate, o privire atentă şi obiectivă ne arată opusul. Trăim într-o condiţie de ulterioritate faţă de existenţa noastră biologică; suntem fiinţe dezechilibrate spre în-afara-noastră, ba chiar în mod radical deschise spre dincolo. De aici ia origine deschiderea noastră spre alţii şi spre Dumnezeu; de aici se naşte potenţialul creativ al inteligenţei noastre în termeni de cultură şi de frumuseţe; de aici, în cele din urmă, are origine capacitatea noastră tehnică. Tehnologia este astfel o urmă a acestei ulteriorităţi a noastre.
Totuşi, folosirea ustensilelor noastre nu este mereu îndreptată univoc spre bine. Chiar dacă fiinţa umană simte înăuntrul său o vocaţie spre dincolo şi spre cunoaşterea trăită ca instrument de bine în slujba fraţilor şi a surorilor şi a casei comune (cf. Gaudium et spes, 16), nu se întâmplă întotdeauna asta. Dimpotrivă, adesea, tocmai graţie libertăţii sale radicale, omenirea a pervertit scopurile fiinţei sale transformându-se în duşmană a ei înseşi şi a planetei[6]. Aceeaşi soartă pot s-o aibă instrumentele tehnologice. Numai dacă va fi garantată vocaţia lor în slujba umanului, instrumentele tehnologice vor revela nu numai măreţia şi demnitatea unică a fiinţei umane, ci şi mandatul pe care aceasta din urmă l-a primit de "a cultiva şi a păzi" (cf. Gen 2,15) planeta şi pe toţi locuitorii săi. A vorbi despre tehnologie înseamnă a vorbi despre ce înseamnă a fi umani şi, prin urmare, despre unica noastră condiţie între libertate şi responsabilitate, adică înseamnă a vorbi despre etică.
De fapt, atunci când înaintaşii noştri au şlefuit pietre de cremene pentru a construi cuţite, le-au folosit fie pentru a tăia pielea pentru haine, fie pentru a se ucide unii pe alţii. Acelaşi lucru s-ar putea spune despre alte tehnologii mult mai avansate, cum este energia produsă de fuziunea atomilor aşa cum se întâmplă pe soare, care ar putea să fie utilizată desigur pentru a produce energie curată şi renovabilă, dar şi pentru a reduce planeta noastră într-o grămadă de cenuşă.
Însă inteligenţa artificială este un instrument şi mai complex. Aş spune că este vorba aproape de un instrument sui generis. Astfel, în timp ce folosirea unei ustensile simple (cum este cuţitul) este sub controlul fiinţei umane care o foloseşte şi depinde numai de aceasta din urmă o bună folosire a sa, inteligenţa artificială, în schimb, se poate adapta autonom la misiunea care îi este încredinţată şi, dacă este proiectată cu această modalitate, să facă alegeri independente de fiinţa umană pentru a obţine obiectivul prestabilit[7].
Merită de amintit mereu că maşina poate, în unele forme şi cu aceste noi mijloace, să producă alegeri algoritmice. Ceea ce face maşina este o alegere tehnică între mai multe posibilităţi şi se bazează ori pe criterii bine definite, ori pe inferenţe statistice. În schimb, fiinţa umană nu numai că alege, ci în inima sa este capabilă să decidă. Decizia este un element pe care l-am putea defini mai mult strategic al unei alegeri şi cere o evaluare practică. Uneori, adesea în misiunea dificilă de conducere, suntem chemaţi să decidem cu consecinţe şi asupra multor persoane. Dintotdeauna reflecţia umană vorbeşte în această privinţă despre înţelepciune, phronesis din filozofia greacă şi cel puţin în parte înţelepciunea din Sfânta Scriptură. În faţa minunilor maşinilor, care par să ştie să aleagă în manieră independentă, trebuie să ne fie foarte clar că fiinţei umane trebuie mereu să-i rămână decizia, şi cu tonurile dramatice şi urgente cu care uneori aceasta se prezintă în viaţa noastră. Am condamna omenirea la un viitor fără speranţă, dacă am sustrage persoanelor capacitatea de a decide cu privire la ele însele şi la viaţa lor condamnându-le să depindă de alegerile maşinilor. Avem nevoie să garantăm şi să tutelăm un spaţiu de control semnificativ al fiinţei umane asupra procesului de alegere a programelor de inteligenţă artificială: însăşi demnitatea umană este în joc.
Tocmai asupra acestei teme permiteţi-mi să insist: într-o dramă ca aceea a conflictelor armate este urgent să se regândească dezvoltarea şi utilizarea de dispozitive cum sunt aşa-numitele "arme letale autonome" pentru a interzice folosirea lor, începând deja de la o angajare reală şi concretă pentru a introduce un control uman tot mai mare şi semnificativ. Nicio maşină n-ar trebui să aleagă vreodată dacă să ia viaţa unei fiinţe umane.
În afară de asta, trebuie adăugat că folosirea bună, cel puţin a formelor avansate de inteligenţă artificială, nu va fi pe deplin sub controlul nici al utilizatorilor, nici al programatorilor care le-au definit scopurile originare în momentul creării lor. Şi acest lucru este cu atât mai adevărat cu cât este foarte probabil ca, într-un viitor nu prea îndepărtat, programele de inteligenţe artificiale vor putea comunica direct unele cu altele, pentru a îmbunătăţi performance-ul lor. Şi, dacă în trecut, fiinţele umane care au modelat ustensile simple au văzut existenţa lor modelată de acestea din urmă – cuţitul le-a permis să supravieţuiască în frig, dar şi să dezvolte arta războiului – acum când fiinţele umane au modelat un instrument complex vor vedea pe acesta din urmă cum modelează şi mai mult existenţa lor[8].
Mecanismul de bază al inteligenţei artificiale
Acum aş vrea să mă opresc pe scurt asupra complexităţii inteligenţei artificiale. În esenţa sa, inteligenţa artificială este o ustensilă desenată pentru rezolvarea unei probleme şi funcţionează prin intermediul unei înlănţuiri logice de operaţii algebrice, efectuată pe categorii de date, care sunt confruntate pentru a descoperi corelaţii, îmbunătăţind valoarea lor statistică, graţie unui proces de auto-învăţare, bazată pe căutarea de date ulterioare şi pe auto-modificarea procedurilor sale de calcul.
Inteligenţa artificială este astfel desenată pentru a rezolva probleme specifice, dar pentru cei care o folosesc este adesea irezistibilă tentaţia de a scoate, pornind de la soluţiile precise pe care ea le propune, deducţii generale, chiar şi de ordin antropologic.
Un exemplu bun este folosirea programelor desenate pentru a-i ajuta pe magistraţi în deciziile referitoare la acordarea de arest la domiciliu deţinuţilor care ispăşesc o pedeapsă într-o închisoare. În acest caz, se cere inteligenţei artificiale să prevadă probabilitatea de recidivă a delictului comis din partea unui condamnat pornind de la categorii prestabilite (tip de delict, comportament în închisoare, evaluare psihologică şi altele), permiţând inteligenţei artificiale să aibă acces la categorii de date inerente vieţii private a deţinutului (origine etnică, nivel educativ, linie de credit şi altele). Folosirea unei astfel de metodologii – care riscă uneori să delege de facto unei maşini ultimul cuvânt cu privire la destinul unei persoane – poate aduce cu sine în mod implicit referinţa la prejudecăţile implicite în categoriile de date utilizate de inteligenţa artificială.
Faptul de a fi clasificat într-un anumit grup etnic sau, mai prozaic, faptul de a fi comis cu ani înainte o infracţiune minoră (de exemplu, faptul de a nu fi plătit o amendă pentru o oprire interzisă) va influenţa, de fapt, decizia cu privire la acordarea de arest la domiciliu. Dimpotrivă, fiinţa umană este mereu în evoluţie şi este capabilă să surprindă cu acţiunile sale, lucru de care maşina nu poate să ţină cont.
Apoi trebuie afirmat că aplicaţii asemănătoare cu aceasta citată mai înainte vor suferi o accelerare graţie faptului că programele de inteligenţă artificială vor fi tot mai dotate cu capacitatea de a interacţiona direct cu fiinţele umane (chatbots), susţinând conversaţii cu ele şi stabilind raporturi de apropiere cu ele, adesea foarte plăcute şi asiguratoare, deoarece aceste programe de inteligenţă artificială vor fi desenate pentru a învăţa să răspundă, în formă personalizată, la nevoile fizice şi psihologice ale fiinţelor umane.
A uita că inteligenţa artificială nu este o altă fiinţă umană şi că ea nu poate propune principii generale, este adesea o gravă eroare care îşi trage originea ori din necesitatea profundă a fiinţelor umane de a găsi o formă stabilă de companie, ori din presupunerea lor subconştientă, adică din presupunerea că observaţiile obţinute printr-un mecanism de calcul sunt înzestrate cu calităţi de certitudine incontestabilă şi universalitate neîndoielnică.
Totuşi, această ipoteză este riscantă, aşa cum demonstrează examinarea limitelor intrinseci ale calculului însuşi. Inteligenţa artificială foloseşte operaţii algebrice pentru a fi efectuate conform unei secvenţe logice (de exemplu, dacă valoarea lui X este mai mare decât cea a lui Y, înmulţeşte X cu Y; în caz contrar împarte X cu Y). Această metodă de calcul – aşa-numitul "algoritm" – nu are nici obiectivitate, nici neutralitate[9]. De fapt, fiind bazat pe algebră, nu poate examina decât realităţi formalizate în termeni numerici[10].
În afară de asta, nu trebuie uitat că algoritmii desenaţi pentru a rezolva probleme foarte complexe sunt atât de sofisticaţi, încât este dificil pentru programatorii înşişi să înţeleagă exact cum reuşesc să obţină rezultatele lor. Această tendinţă spre sofisticare riscă să se accelereze considerabil odată cu introducerea computerelor cuantice care nu vor funcţiona cu circuite binare (semiconductori sau microcipuri), ci conform legilor, destul de complexe, ale fizicii cuantice. Pe de altă parte, introducerea continuă a microcipurilor din ce în ce mai performante a devenit deja una dintre cauzele predominării utilizării inteligenţei artificiale de către puţinele naţiuni care sunt dotate cu aceasta.
Fie că sunt sofisticate sau nu, calitatea răspunsurilor pe care le oferă programele de inteligenţă artificială depind în cele din urmă de datele pe care le folosesc şi de modul în care sunt structurate de acestea.
În sfârşit, îmi permit să subliniez un ultim domeniu în care se remarcă în mod clar complexitatea mecanismului aşa-numitei inteligenţe artificiale generative (Generative Artificial Intelligence). Nimeni nu se îndoieşte că astăzi sunt la dispoziţie instrumente magnifice pentru accesarea cunoştinţelor care permit chiar şi self-learning şi self-tutoring într-o multitudine de domenii. Mulţi dintre noi au fost impresionaţi de aplicaţiile uşor disponibile online pentru a compune un text sau a produce o imagine pe orice temă sau subiect. În mod deosebit atraşi de această perspectivă sunt studenţii care, atunci când trebuie să pregătească lucrări, le folosesc în mod disproporţionat.
Aceşti elevi, care sunt adesea mult mai pregătiţi şi obişnuiţi cu utilizarea inteligenţei artificiale decât profesorii lor, uită, totuşi, că aşa-numita inteligenţă artificială generativă, în sens strict, nu este tocmai "generativă". Acesta din urmă, într-adevăr, caută informaţii în big data şi le împachetează în stilul care le este cerut. Nu dezvoltă concepte sau analize noi. Le repetă pe cele pe care le găseşte, dându-le o formă atractivă. Şi cu cât o noţiune sau o ipoteză se repetă mai mult, cu atât este considerată mai legitimă şi mai validă. Mai mult decât "generativă", ea este, aşadar, "întăritoare", în sensul că reordonează conţinuturile existente, contribuind la consolidarea acestora, adesea fără a controla dacă acestea conţin erori sau preconcepţii.
În acest fel, se riscă nu numai să se legitimeze fake news şi să se întărească avantajul unei culturi dominante, ci să se submineze de asemenea procesul educaţional aflat in nuce. Educaţia care ar trebui să ofere studenţilor posibilitatea unei reflecţii autentice riscă să se reducă la o repetare a noţiunilor, care vor fi din ce în ce mai evaluate ca incontestabile, pur şi simplu din cauza repropunerii lor continue[11].
A repune în centru demnitatea persoanei în vederea unei propuneri etice împărtăşite
O observaţie mai generală trebuie adăugată acum la cele spuse deja. De fapt, sezonul inovaţiilor tehnologice pe care îl trăim este însoţit de o conjunctură socială aparte şi fără precedent: este din ce în ce mai uşor să se găsească acorduri pe problemele majore ale vieţii sociale. Chiar şi în comunităţile caracterizate printr-o anumită continuitate culturală, deseori apar dezbateri şi confruntări aprinse care îngreunează producerea de reflecţii politice comune, care vizează căutarea a ceea ce este bine şi drept. Dincolo de complexitatea viziunilor legitime care caracterizează familia umană, apare un factor care pare să unească aceste diferite instanţe. Se înregistrează ca o pierdere sau cel puţin o eclipsă a simţului umanului şi o aparentă nesemnificaţie a conceptului de demnitate umană[12]. Se pare că se pierde valoarea şi semnificaţia profundă a uneia dintre categoriile fundamentale ale Occidentului: categoria de persoană umană. Şi aşa se face că, în această perioadă în care programele de inteligenţă artificială interoghează fiinţa umană şi acţiunea sa, însăşi slăbiciunea ethos-ului legată de percepţia valorii şi a demnităţii persoanei umane riscă să fie cea mai mare vulnus în implementarea şi dezvoltarea acestor sisteme. De fapt, nu trebuie să uităm că nicio inovaţie nu este neutră. Tehnologia se naşte cu un scop şi, în impactul ei asupra societăţii umane, reprezintă întotdeauna o formă de ordine în relaţiile sociale şi o dispoziţie de putere, care permite cuiva să desfăşoare acţiuni şi îi împiedică pe alţii să facă altele. Această dimensiune constitutivă de putere a tehnologiei include întotdeauna, într-un mod mai mult sau mai puţin explicit, viziunea despre lume a celor care au realizat-o şi au dezvoltat-o.
Acest lucru este valabil şi pentru programele de inteligenţă artificială. Pentru ca acestea din urmă să fie instrumente pentru construirea binelui şi a unui viitor mai bun, ele trebuie să fie întotdeauna orânduite spre binele fiecărei fiinţe umane. Trebuie să aibă o inspiraţie etică.
De fapt, decizia etică este aceea care ţine cont nu numai rezultatele unei acţiuni, ci şi de valorile aflate în joc şi de îndatoririle care derivă din aceste valori. Pentru aceasta am salutat cu favoare semnarea la Roma, în 2020, a Rome Call for AI Ethics[13] şi sprijinul său pentru acea formă de moderare etică a algoritmilor şi a programelor de inteligenţă artificială pe care am numit-o "algoretică"[14]. Într-un context plural şi global, în care sunt afişate şi diferite sensibilităţi şi ierarhii plurale în scalele de valori, ar părea dificil de găsit o singură ierarhie a valorilor. Dar în analiza etică putem folosi şi alte tipuri de instrumente: dacă ne este greu să definim un singur set de valori globale, putem totuşi să găsim principii comune cu care să facem faţă şi să rezolvăm eventuale dileme sau conflicte ale vieţii.
Din acest motiv a luat naştere Rome Call: în termenul de "algoretică" se condensează o serie de principii care se dovedesc a fi o platformă globală şi plurală în măsură să găsească sprijinul culturilor, al religiilor, al organizaţiilor internaţionale şi al marilor companii protagoniste ale acestei dezvoltări.
Politica de care este nevoie
Nu putem, aşadar, ascunde riscul concret, întrucât este inerent mecanismului său fundamental, că inteligenţa artificială limitează viziunea despre lume la realităţi exprimabile în cifre şi închise în categorii preambalate, excluzând aportul altor forme de adevăr şi impunând modele uniforme antropologice, socio-economice şi culturale. Paradigma tehnologică întrupată de inteligenţa artificială riscă atunci să facă loc unei paradigme mult mai periculoase, pe care am identificat-o deja cu denumirea de "paradigmă tehnocratică"[15]. Nu putem permite unui instrument aşa de puternic şi aşa de indispensabil precum inteligenţa artificială să consolideze o astfel de paradigmă, ci mai degrabă trebuie să facem din inteligenţa artificială un bastion împotriva expansiunii sale.
Şi tocmai aici este urgentă acţiunea politică, aşa cum aminteşte enciclica Fratelli tutti. Cu siguranţă, "Pentru mulţi astăzi politica este un cuvânt urât şi nu se poate ignora că în spatele acestui fapt există adesea erorile, corupţia, ineficienţa unor politicieni. La asta se adaugă strategiile care tind s-o slăbească, s-o înlocuiască cu economia sau s-o domine cu vreo ideologie. Şi totuşi, poate funcţiona lumea fără politică? Poate găsi o cale eficace spre fraternitatea universală şi pacea socială fără o politică bună?"[16].
Răspunsul nostru la aceste ultime întrebări este: nu! Politica este de folos! Vreau să reafirm în această ocazie că "în faţa atâtor forme de politică meschine şi orientate spre interesul imediat […], măreţia politică se arată atunci când, în momente dificile, se acţionează pe baza marilor principii şi gândind la binele comun pe termen lung. Puterii politice îi este greu să primească această îndatorire într-un proiect de naţiune şi chiar mai mult într-un proiect comun pentru omenirea prezentă şi viitoare"[17].
Stimate doamne, iluştri domni!
Această reflecţie a mea despre efectele inteligenţei artificiale asupra viitorului omenirii ne conduce astfel la considerarea importanţei "politicii sănătoase" pentru a privi cu speranţă şi încredere la viitorul nostru. Aşa cum am spus deja în altă parte, "societatea mondială are carenţe structurale grave care nu se rezolvă cu petice sau soluţii rapide pur şi simplu ocazionale. Există lucruri care trebuie să fie schimbate cu restabiliri de fond şi transformări importante. Numai o politică sănătoasă ar putea să fie călăuza sa, implicând cele mai diferite sectoare şi cele mai diferite ştiinţe. În acest mod, o economie integrată într-un proiect politic, social, cultural şi popular care tinde spre binele comun poate «deschide drumuri pentru oportunităţi diferite, care nu implică oprirea creativităţii umane şi a visului său de progres, ci mai degrabă canalizarea acestei energii în mod nou» (Laudato si’, 191)"[18].
Acesta este tocmai cazul inteligenţei artificiale. Revine fiecăruia să o folosească bine şi revine politicii să creeze condiţiile pentru ca o astfel de bună folosire să fie posibilă şi rodnică.
Mulţumesc.
Franciscus
Traducere de pr. Mihai Pătraşcu
Note:
[1] Mesaj pentru a LVII-a Zi Mondială a Păcii din 1 ianuarie 2024, 1.
[2] Cf. ibid.
[3] Cf. ivi, 2.
[4] Această ambivalenţă a fost deja descoperită de Sfântul Papă Paul al VI-lea în Discursul adresat personalului de la "Centrul Automatizare Analiză Lingvistică" de la Aloysianum, din 19 iunie 1964.
[5] Cf. A. Gehlen, L’uomo. La sua natura e il suo posto nel mondo [Omul. Natura sa şi locul său în lume], Milano, 1983, 43.
[6] Scrisoarea enciclică Laudato si’ (24 mai 2015), 102-114.
[7] Cf. Mesaj pentru a LVII-a Zi Mondială a Păcii din 1 ianuarie 2024, 3.
[8] Intuiţiile lui Marshall McLuhan şi ale lui John M. Culkin sunt deosebit de pertinente pentru consecinţele folosirii inteligenţei artificiale.
[9] Cf. Discurs adresat participanţilor la Adunarea Plenară a Academiei Pontificale pentru Viaţă, 28 februarie 2020.
[10] Cf. Mesaj pentru a LVII-a Zi Mondială a Păcii din 1 ianuarie 2024, 4.
[11] Cf. ivi, 3 şi 7.
[12] Cf. Dicasterul pentru Doctrina Credinţei, Declaraţia Dignitas infinita despre demnitatea umană (2 aprilie 2024).
[13] Cf. Discurs adresat participanţilor la Adunarea Plenară a Academiei Pontificale pentru Viaţă, 28 februarie 2020.
[14] Cf. Discurs adresat participanţilor la întâlnirea "Promoting Digital Child Dignity – From Concet to Action", 14 noiembrie 2019; Discurs adresat participanţilor la Adunarea Plenară a Academiei Pontificale pentru Viaţă, 28 februarie 2020.
[15] Pentru o expunere mai amplă, fac trimitere la scrisoarea mea enciclică Laudato si’ despre îngrijirea casei comune din 24 mai 2015.
[16] Scrisoarea enciclică Fratelli tutti despre fraternitatea şi prietenia socială (3 octombrie 2020), 176.
[17] Ivi, 178.
[18] Ivi, 179.