/

2024ko Maiatzak 9

“AIaren promesa eta arriskua orekatzea: Kontrolaren, segurtasunaren eta zibersegurtasunaren ikuspegia”

Gure gizarte teknologikoki aurreratuan, adimen artifiziala (AI) tresna erabilgarria ez ezik, gai liluragarri eta eztabaidagarri samarra dela frogatu da. Gizarte gisa, giza zereginak makinetan eskuordetzeko aukerak liluratuta jarraitzen dugu, baina horrek izan ditzakeen ondorioen beldurrez. Horren adibide erakargarri bat Nick Bostrom-en eta Oxford-en Future of Humanity Institute-k AI-ak gure gizartean sor ditzakeen mehatxu potentzialen ikerketei buruzko Wired piezan azaltzen da.

Adimen artifiziala ulertzea

AIaren alderdi polemikoetan murgildu aurretik, funtsezkoa da adimen artifizialarekin zer esan nahi dugun ulertzea. IBM teknologia-enpresa multinazional estatubatuarraren arabera, AI “giza portaera adimenduna ordezkatzeko makina batek duen gaitasuna” da. Beste era batera esanda, makina batek arau konplexuak ulertzeko eta aplikatzeko ez ezik, denboran zehar ikasteko eta egokitzeko duen gaitasuna da. HodeiTek-en , AI erabiltzen dugu zibersegurtasuna punta-puntako irtenbideak emateko, gure bezeroek beren ingurune digitalak modu eraginkorrean babestu ditzaketela bermatuz.

AIren paradoxa

Bostrom-ek, Oxfordeko Unibertsitateko filosofo suediarrak, AIren inguruan sortu den paradoxa aztertzen du: aldi berean gizateriaren arazoak konpontzeko promesari eusten dio eta emaitza suntsitzaileak izateko potentziala dauka. Bostrom-ek proposatzen du IAk ingurumen- eta gobernu-arazoak lagun ditzakeela eta, agian, heriotza bera gainditzen. Hala ere, kontroletik kanpo dagoen IA indartsu batek gizateriaren desagerpena ekar dezake.

AI superinteligentearen beldurra

Adimen handiko IA sortzeak eta hedatzeak erronka berezia dakar, balioen kontrolari eta lerrokatzeari buruzko galdera kritikoak eginez. Bostrom-ek gizateriaren kontrola hartzen duen AI adimendun bat “arrisku existentzial” gisa aipatzen du, gizakia desagertzeko ahalmena duen arriskuen kategoria bat.

Bostrom-ek paperclip maximizatzaile baten adibidea erabiltzen du, AI hipotetiko bat, zeinaren helburu bakarra ahalik eta paper gehien egitea den. Horrelako AI bat existitzen bazen eta muga moralik ez balu, gizadia suntsitu lezake Lurra osoa paper-klipak bihurtzeko. Horrek erakusten du AI batek, itxuraz kalterik gabeko helburua izan arren, ondorio latzak sor ditzakeen kontrolatu gabe.

Kontrola: Erronka handiena

Etorkizuneko AI garapenen erronka handia, Bostrom-en arabera, kontrola da. “Kontrol-arazoari” buruz hitz egiten du: gizakiak nola lor dezaketen AI superadimendun baten gaineko kontrola. Kontrol-arazoa konpontzea ezinbesteko urratsa da AIren segurtasunerako.

AI sistemak giza balio eta interesekin lerrokatzea da beste kezka nagusia. Obedientzia hutsa agian ez da nahikoa; AI batek aginduak burugabe jarraitzen baditu haien atzean dagoen asmoa ulertu gabe, ondorio negargarriak sor litezke. Horregatik, ezinbestekoa da giza balioak behar bezala interpretatzen dituzten eta haiekin bat datozen AI programak garatzea.

AI eta Zibersegurtasuna: Narrazio Ebolutiboa

zibersegurtasuna arloan, AI-ak eginkizun onuragarria eta kaltegarria izan du. Alde onuragarritik, AI-ak gizakiak baino azkarrago identifikatu eta erreakziona ditzake ziber-mehatxuak, defentsa-sistema sendo bat eskainiz. Hala ere, bestalde, AI ziberkriminalek armak erabil ditzakete eraso-bektore konplexuagoak sortzeko.

AI eta zibermehatxu automatizatuak

AIaren garapenak gaizkileei beren hacking saiakerak automatizatzeko ahalmena eman die, zibererasoen bolumena handitzea eraginez. Erasotzaileek AI erabil dezakete datu ugari aztertzeko eta sistema bateko ahultasunak identifikatzeko, hausteak azkar eta eraginkorrak eginez.

Aurrera begira: AI Safety Research

AIarekin lotutako kezkak, zibersegurtasuna eta haratago, inoiz baino garrantzitsuagoa da AIren segurtasunaren ikerketan sakontzea. Future of Life Institute-k adierazi duenez, AIren segurtasunerako bi alderdi nagusi daude: AI-ak nahi duguna egitea eta AI-ak gizateriaren epe luzerako onura bermatzea.

Aipatzekoa da Nazio Batuak, Europar Batasuna eta OpenAI bezalako erakunde pribatuak dagoeneko hasi direla AIaren onur sozialak maximizatzeko ikerkuntzan aritzen, segurtasuna bermatuz.

HodeiTek-en eginkizuna AI segurtasunean

HodeiTek- en, AI teknologiaren erabilera egokia zaintzen dugu. Gure adituak AI eta zibersegurtasuna arloko profesional gogortuak dira, mundu osoko enpresei segurtasun irtenbide sendoak eskaintzeko konpromisoa dutenak. Gure ikerketetan proaktibo izaten jarraitzen dugu eta ziberespazioan sortzen ari diren mehatxuen berri izaten jarraitzen dugu, gure bezeroei ahalik eta babes onena lortzen dutela bermatuz.

Ondorioak

AI teknologiaren aukerak pozgarriak dira, mehatxu potentzialak izugarriak izan daitezkeen bitartean. Hala ere, ezinbestekoa da gogoratzea teknologia hau gure eskuetan dugula bere sorreran. Bere bidea moldatzeko aukera dugu: AI mehatxatu beharrean laguntzen gaituen etorkizuna, non makinak kontrolatzen ditugun alderantziz baino. Teknologia berritzaile hau aztertzen jarraitzen dugun heinean, zin egin dezagun arduraz egingo dugula, AIren potentzial ikaragarria aprobetxatzen lan egiten dugun bitartean arrisku potentzialak aitortuz.