AArekiko lilurari eutsi eta erantzutea behar ditugun galderak egitea dagokio kazetaritzari

HDEH2023: Adimen artifiziala auzitan jardunaldian kontatu nituenak

HDEH2023, kazetaritza mahaia Jon Tornerrekin batera. Txabi Landabidea aurkezle/moderatzaile (argazkia: Ana Galarraga Aiestaran)

Lehenik eta behin, eskerrik asko jardunaldi honetarako gonbidapenagatik. Aitortu behar dut onartu nuela planteamenduan “altu pentsatzera” gentozela aipatu zenidatelako, nagusiki; adimen artifizialean aditua ez naiz, eta altu pentsatu baino gutxi gehiago egiteko moduan nagoela iruditzen zait, beraz. Aitortu behar dut, baita ere, gaiak pixka bat nekatuta naukala dagoeneko, nahiz eta kontziente naizen seguruena hasi besterik ez garela egin. Baliteke beraz gaur hemen esatera noanetik asko ezaugarri hauek mugatuta, edo behintzat neurri batean kutsatuta, izatea.

Banator beraz adimen artifizialak (AAk) deitzen diegun horien eta kazetaritzaren arteko elkar-eragiteaz, edo batak bestearengan sortzen dituen erronkez, “altuan pentsatzera”. Bi ikuspuntu nagusitatik nahi nioke heldu gaiari: lehenik, komunikazioaren talaia pixka bat zabalagotik begiratuko diet AAei, eta bestetik, kazetaritzaren funtzioen testuinguruan nola kokatzen diren, edo nola kokatu ditzakegun.

Komunikazioa, hizkuntza, AAk

Komunikazioaren ikuspegitik, berreskuratu nahi nuke jakinduriaren piramidea, ezagutzaren hierarkia, ulermenaren continuum-a1 gisa ezagutzen den eredua, baliagarria izan daitekeena ulertzeko jakinduria edo ezagutza nola eraikitzen den.

Eredu honen arabera (paragrafo honen azpian irudikatua2), badugu errealitate bat, eta errealitate horren behaketa bidez eskuratzen (eraikitzen litzateke termino zehatzagoa) ditugu datuak. Datu horiek aztertuz eta landuz, egituratu eta antolatuz, bihurtzen dira informazioa; datuak egituratzeko edo antolatzeko moduaren arabera, informazio ezberdinak eratuko dira. Informazio hori da komunikatzen duguna, eta informazioaren aurkezpen horrek eragin dezake ezagutza, beste hainbat elementurekin elkarreragiten duela: narratibak, esperientzia, interakzioak… Segidaren azken geltokia izango litzateke ulermena edo jakinduria, ezagutzen gaineko hausnarketa eta pentsamenduaren ondorioz sor daitekeena. Gero ulermen horrek eragin ditzake erabakiak edo bestelako ekintzak, gizartean edo komunitatean, errealitatean, aldaketak sortzeko gaitasuna dutenak; eta berriz itzuliko ginateke segidaren hasierara.

Morelli-ren DIKW-C diagramatik egokitua

Hierarkia edo segida honetan garrantzizko elementu bat da komunikatzen den haraz gaindi, fenomeno humanoa dela, prozesuaren parte hauek (ezagutza eraikitzea, hausnarketa bidez ulermen bihurtzea) bakarrik gizakion garunean ematen direla. Horrainokoak –datuak, informazioa– giza-garunetik kanpoko soporte fisikoetan biltegiratu eta garraiatu daitezke (papera, euskarri digitalak…).

Hau, noski, sinplifikazio bat da eta prozesua ez da (ia inoiz) lineala: gizakiak tartean diren gehienetan gertatzen den moduan, honakoaren: antza gehiago izaten du.

Morelli-ren DIKW-C diagramatik egokitua

Hala eta guztiz ere, prozesu edo segida honetako fase edo elementu guztiak mantentzen dute lotura aurreko guztiekin, eta hala, errealitatetik abiatutako eraikuntza bat gertatzen da. Funtsa errealitatean du prozesu guztiak, eta errealitatearekin kontrastean du jarraipena eta zentzua.

Transformazio hauetako gehienetan, guztietan ez esateagatik, paper garrantzitsua (ezinbestekoa) jokatzen du hizkuntzak. Datuen egituraketa eta antolaketa, adibidez, ezberdina izango da hizkuntzaren arabera, eta hizkuntzak neurri batean markatzen ditu informazioaren egituraketa honetarako eskura ditugun aukerak; informazio hori komunikatzeko garaian ere hizkuntza da eramaile nagusia. Giza-garunaren baitan ematen diren prozesu horietan ere, urteetako ikerketa ugarik aurkitu dutenez, hizkuntza da gailu nagusia: hausnarketa hizkuntzaren bitartez egiten dugu3.

Hau esanda, hizkuntzak, errealitatearen abstrakzio eta interpretazio bat den neurrian, erreferente komun batzuk baldin baditugu bakarrik funtzionatzen du, adierazle eta adieraziaren, hitza eta esanahiaren arteko loturak komunean jarri eta adostasun minimo bat baldin badugu haien gainean4. Adostasun minimo hau eduki ezean, elkarrizketa edo eztabaida hutsala bihurtzen da, alferreko hizketa. Giza-komunikazioak behar du elkarrekikotasun hori, hizkuntzaren eta errealitatearen arteko harremanari buruzko adostasun minimo hori, testuinguruak eta esperientzia partekatuak ematen duena.

Guzti honekin esan nahi dudana da hitzek garrantzia dutela, eta bereziki garrantzia dutela esanahi bat duten heinean. Zentzu horretan, adimen artifizialaz ari garela, komeni da zehaztea zertaz ari garen, zeri esaten diogun adimen artifiziala. Adimen artifiziala terminoa erabiltzen dugunean, ikuspegi antropomorfikoa ematen diogu algoritmo bati, eta giza-adimenaren elementuak esleitzen dizkiogu, oso kontziente izan gabe: irudikatzen dugu gai direla ulermenerako, esanahiekin aritzeko edo, termino linguistikotan, adierazle bitartez aritzeko adieraziei buruz.

ChatGPT-ren moduko tresnentzat, adimen artifiziala baino termino zehatzagoa da hizkuntza-eredua (ingelesez LLM erabiltzen da, hizkuntza-eredu handiak), iturburuko datu-base handietan oinarrituta hitz baten ondoren beste zein etor daitekeen proposatu “besterik” egiten ez dutenak. Hizkuntza-sorkuntza probabilistikoa egiten dute, itxurazkoa, inongo kontrasterik egiten ez duena errealitatearekin. Ez dituzte esanahiak manipulatu eta haiekin ulermena edo ezagutza sortu ondoren, horien inguruko errelatoak komunikatzen, giza-komunikazioan egiten dugun moduan: forma hutsarekin aritzen dira, adierazleekin soilik. Beste era batera esanda, eta lehengo segidaren eredua erabiliz, adimena5 izenarekin ulertzen dugunaren plano ezberdin batean kokatzen dira hizkuntza-eredu hauek.

Morelli-ren DIKW-C diagramatik egokitua

Lehen esan bezala, adimen artifizialak deitzen diegunean, ezaugarri guzti horiek esleitzen dizkiegu horrelako tresnei, haien gaitasunen errepresentazio zehaztasun gutxiko bat osatuz. Emaitza ikusgarriak lor ditzakete horrekin, ez dut nik ukatuko; baina hortik ulermenera edo esanahiak erabiltzera, kontzientzia hartzera, adimenera, jauzi kualitatibo bat dago (eta ez txikia), entrenamendurako datu-iturriak infinituraino handitzeak ere eragingo ez duena.

Jauzi kualitatibo hau oso ondo azaltzen du Washingtongo Unibertsitatean hizkuntzalaritza konputazionaleko irakasle den Emily M. Bender-ek. Pentsamendu-esperimentu bat proposatzen du6: irudikatu Thailandiako Liburutegi Nazionalean zaudela. Liburutegiko liburu guztiak dituzu eskuragarri, irudiak dituztenak edo thailandieraz idatziak ez daudenak izan ezik. Denbora mugagabea duzu, eta zure behar fisiko guztiak aseta daude, baina ezin duzu inorekin jardun. Thailandiera idatzia ikas zenezakeela uste duzu? Erantzuna ezezkoa da: ezinezkoa da. Kanpo-erreferentziarik gabe, partekatutako erreferentzia komunen inguruko adostasun horren laguntzarik gabe, ezingo zenuke sekula thailandiera ikasi. ChatGPT bezalako hizkuntza-eredu bati galderak egiten dizkiogunean, gogoan izan behar dugu antzeko egoeran daudela. Bender-en hitzetan, “ez du ulertzen zer galdetu diozun, ezta zer erantzuten ari zaizun ere, eta are gutxiago ari da “arrazoitzen” zure galderatik + bere “ezagutza"tik abiatuta, ematen dizun erantzunera iristeko. Duen ezagutza bakarra hizkuntza-formaren banaketari buruzkoa da”.

Testuinguru honetan erabiltzen ditugun (hedatu diren, hedatu dituzten) beste termino askorekin antzeko gertatzen da: entrenamenduaz hitz egiten da, edo ikasketaz, edo haluzinazioez, eta horrelako terminoekin erreferentzia egiten zaionean ChatGPT-k egiten duenari, automatikoki giza-entrenamendua datorkigu gogora, edo giza-ikasketa, edo giza-haluzinazioak, eta gizakiaren esperientzia horiek dituzten ezaugarriak esleitzen dizkiegu tresna hauei. Irudikapen hori ilusio bat da, eta ez kasualitatez sortua.

Kazetaritza eta AAk

Kazetaritza komunikazio mota zehatz bat bezala ulertzen dut, funtzio jakin bat betetzen duena: Kovach eta Rosenstiel-en hitzetan, “norbanakoei euren bizitzak era aske eta autonomoan gidatzeko [norbere bizitzaren gaineko erabakiak hartzeko] beharrezko duten informazioa helaraztea”7. Funtzio horretan, kazetaritzak konpromiso bat dauka egiarekin, diziplinaren parte du egiaztatze-lana, boterearen kontrolatzaile eta kontu-eskatzaile aritu behar du.

Funtzio hori betetze aldera, azken urteetan asko larritu da fake news edo albiste faltsuen auzia. Terminoen zehaztasunari helduz berriro, albiste faltsuak izen hori ere nahasgarria izan daiteke. Lehen esaten nuen konpromiso bat duela kazetaritzak egiarekin, eta egia uler dezakegu modu askotara: badugu egiaren ikuspegi filosofikoa (baina hau agian Filosofo Euskaldunen I. Bilkurarako utziko dugu); zentzu praktikoan, egia uler dezakegu errealitatearen errepresentazio zintzo bat egiten duena bezala. Hiztegiko definizioetara jotzen badugu, gehienetan gezurra ukazio gisa definitzen da: egia ez dena.

Gezurra = egia ez dena

Gezurrak, beraz, nolabaiteko aitortza egiten dio egiari: egiaren existentzia aitortzen du, eta haren erreferentzian, edo kontra-erreferentzian, definitzen da. Paradigma honetan koka genezake albiste faltsuak terminoa: egia ez diren albisteak.

Baina egungo errealitatea harago doa: albiste faltsuen ugaritze bat baino gehiago, edo horrez gain, egia-ostea dugu, gezurra eta egiaren dikotomia horretaz gaindi kokatzen dena: “errealitate faktual eta objektiboa erlatibizatuz, sinesmenak eta emozioak egia balio nagusitzat hartzen dituzten egoera eta fenomeno soziopolitikoen multzoa”8. Eta horretan gaude, egiaren garrantzia gutxiesten den aro batean.

Testuinguru hau ChatGPT bezalako tresnak loratzeko ezin aproposagoa da, ez baitaukate errealitatearen (egiaren) inongo erreferentzia edo kontrasterik—eta egia-oste testuinguru honetan, hori ondo dago, ez da arazo bat, OK iruditzen zaigun garai batean bizi gara. Ez da, beraz, hizkuntza-ereduek gezurrak esaten dituztela; ez dute gezurraren (edo egiaren) noziorik ere. Hizkuntza-eredu hauek ez dute sortzen duten edukia errealitatearekin kontrastatzeko gaitasunik, eta beraz desinformazio-iturri ahaltsu bihur daitezke, gainbegiraketa zorrotz bat ezartzen ez bada.

Ezin dugu ahaztu hizkuntza-eredu hauek tresna probabilistikoak direla: entrenamendurako datuetan oinarrituta, hitz baten ondoren probableena zein izan litekeen emateko daudela diseinatuta, eta ez interpretazioak egin edo edonolako esanahiekin aritzeko. Ez dute, beraz, kazetaritzaren funtzioa betetzen; baina, aldi berean, asko zailtzen diote kazetaritzari bere funtzioa betetzea, funtzio horren balioa bera gutxiesten duen paradigma bat indartzen dutelako, hain zuzen.

Lehenago ere aipatu dudan Emily M. Bender irakasleak “liluratzeko bultzadari eustea” gomendatzen die, kazetaritzari eta politikagile edo erregulatzaileei9. Hizkuntza-eredu handien gaitasunen eta arriskuen inguruan dugun irudikapena ilusio bat da10, eta ez da kasualitatez sortua. Gauza ikusgarriak egiten dituzte, baina liluratik, desaktibatu egiten zaizkigu kazetaritzak berezkoak behar dituen alderdi interesatuek emandako informazioa egiaztatzeko sena, botereari kontuak eskatzeko borondatea. Eraiki dugun ChatGPT-ren irudia haren sortzaileek helarazi digutena da hein oso handi batean: haiek sorrarazi nahi izan diguten lilurak harrapatu gaitu. Eta lilura horren menpe, ezinezkoa da kazetaritzak bere funtzio soziala betetzea, gizarteari erabaki autonomoak hartu ahal izan ditzan behar duen informazioa helaraztea, hain zuzen.

Eraikitako ilusio horrek ertz asko ditu, eta errelato oso bat eratu da AAren inguruan. Ilusio horiek deseraikitzea ere bada kazetaritzaren lana. Adibidez, Naomi Klein idazleak adierazi zuen bezala, “AAek ez dute haluzinatzen”: akatsak egiten dituzte11. Baina _haluzionazioa_ren terminologiak mistika bat ematen die akats horiei, adimen animatu edo kontziente baten ilusioa sorrarazten digu. Eta ilusio horren baitan, Doctorow idazleak ohartarazi duenez12, AAren arrisku nagusia baldin bada kontzientzia hartzear dagoela, ulertu ezin dugun botere bat eskuratzear, egungo araudi eta legeek ez dute balio; baina “AA akastuna baldin bada besterik gabe, merkaturatzeko prest ez dagoen teknologia heldugabea, ezin diogu droneak edo autoak gidatzeko, aseguruei edo maileguei buruzko erabakiak hartzeko ardurarik eman—eta akabo negozioa”.

Lilura hori gogotik eta irmo eraikitzen ari dira, bereziki ChatGPT-ren sortzaile den OpenAI enpresako zuzendari exekutiboa, Sam Altman. Joan den maiatzean AEBko senatuan izan zen ChatGPT-ren moduko hizkuntza-ereduentzat erregulazio eske, zehazki horrelako teknologiak garatzeko enpresentzat baimenak emango dituen gobernu-agentzia baten sorrera proposatzeko (noski, bere enpresari emango diona baimena). Bezperan, itxuraz tradiziozkoa den afari batean bildu zen Altman senatari batzuekin. CNBC kateak honako titulua jarri zion albisteari: “Sam Altmanek legegileak liluratu ditu [wows lawmakers] AAri buruzko afari itxi batean”. Hau da, senatarien aurrean bere proposamena egin aurretik prestidigitazio-ikuskizun liluragarri bat antolatzen da senatariekin beraiekin. AEBko senatura erregulazio eske joan eta egun gutxira, Europar Batasunean zehar itzuli bat ere egiten aritu zen. Europar Batasunak urteak daramatza AI Act edo AA erregulatzeko araudiaren garapenean, baina itxuraz erregulazio mota hori ez da Altmanek eskatzen zuenaren modukoa, eta baldintza horietan OpenAI-k ezingo omen luke Europan jardun.

Eraikitako ilusio paradigma honetan kokatu daiteke baita ere ikuspegi apokaliptikoa, katastrofe existentzialera garamatzana, AAren (hizkuntza-ereduen) etengabeko hobekuntza eta hobekuntza oso azkarra ikuskatzen dituena, gizakiaren desagerpena ekartzeraino. Liluran mantentzen gaitu, edo beldurrean (beste lilura mota bat, azken batean). Esango nuke egungo kazetaritza batez ere lilura islatzen ari dela gehien bat, baina badira OpenAI-ren marketin estrategiatik haratago doazen azterketa sakonagorako saiakerak ere.

Uste dut kazetaritzak tresnaren gaitasunekiko lilura eta etorkizuneko arrisku apokaliptikoen arteko txundidura gainditu beharra duela, eta gogoan hartu zein den bere funtzioa. Hizkuntza-ereduen arriskuetan zentratu baino, izan arrisku existentziala edo bestelakoa, dagoeneko sortzen dituen kalteen behaketan baduela nahiko lan kazetaritzak: hizkuntza-ereduak, erabaki-sistema automatikoak etab., gizakiengan kalteak eragiten ari dira orain, ez tresna hauek balizko garapen ikusgarri bat lortzen duten etorkizun hipotetiko batean.

Testuinguru zehatz honetan, esango nuke kazetaritzari eskatu behar geniokeena dela behatzea, besteren artean, horrelako tresnek dituzten mugak eta dagoeneko eragiten dituzten arazoak edo kalteak ikertu eta jakinaraztea. Adibidez, ikuskera sexistak edo arrazistak erreproduzitzen, automatizatzen, anplifikatzen dituztela gehiegitan13. Edo entrenamendu edo _ikasketa automatiko deitzen zaion horren parte, hegoalde globaleko langileen esplotazioa baliatu izan dutela14. Edo hizkuntza-eredu hauen prestaketak eta erabilerak baliabide kopuru izugarriak eskatzen ditu15, eta honek ingurumenean duen eragina, kolapso energetikoaren atarian gauden honetan, jasanezina da.

Funtsean, uste dut AA deitzen diegun horien inguruan eragindako liluraren bultzadari eutsi eta erantzutea behar ditugun galderak egiteko eginkizuna, eta gaitasuna, duela kazetaritzak.


  1. Shedroff, Nathan (1994). Information Interaction Design: A Unified Field Theory of Design ↩︎

  2. Morelli, Angela (2016). 3 Powerful Lessons I have learnt as an Information Designer ↩︎

  3. Jackendoff, Ray (1996). How language helps us think. Pragmatics & Cognition, Volume 4, Issue 1, 1-34 orr. https://doi.org/10.1075/pc.4.1.03jac ↩︎

  4. Tomasello, Michael (2008). Origins of human communication. MIT press. ↩︎

  5. Euskaltzaindiaren Hiztegiaren arabera: adimen iz. Ulertzeko edo ikasteko gaitasuna; pentsamenduaren bidez norbaitek bere buruaz eta inguruaz jabetzeko duen ahalmena. ↩︎

  6. Bender, Emily M. (2023). Thought experiment in the National Library of Thailand ↩︎

  7. Kovach, Bill, & Rosenstiel, Tim. (2021). The Elements of Journalism: What Newspeople Should Know and the Public Should Expect (4. Ed.). Random House. ↩︎

  8. Gizapedia: egia-ostea ↩︎

  9. Bender, Emily M. (2022). On NYT Magazine on AI: Resist the Urge to be Impressed ↩︎

  10. Bender, Emily M. & Gebru, Timnit & McMillan-Major, Angelina & Mitchell, Margaret. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. FAccT ‘21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623 orr., https://doi.org/10.1145/3442188.3445922 ↩︎

  11. Klein, Naomi. (2023). AI machines aren’t ‘hallucinating’. But their makers are. The Guardian ↩︎

  12. Doctorow, Cory. (2023). Ayyyyyy Eyeeeee ↩︎

  13. Milmo, Dan & Hern, Alex (2023). Discrimination is a bigger AI risk than human extinction – EU commissioner. The Guardian↩︎

  14. Perrigo, Billy. (2023). Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. Time Magazine↩︎

  15. McLean, Sophie. (2023). The Environmental Impact of ChatGPT: A Call for Sustainable Practices In AI Development ↩︎

Datuen kazetaritza eta komunikazioa, alfabetatze numerikoa, gaitasun digitala.

Mastodon Mastodon