Behovet for å bruke kunstig intelligens etisk
Som mennesker gjenskaper vi ofte fantasien om å konfrontere visse typer intelligens som handler mot våre interesser. Når det gjelder å møte utfordringen med å bruke kunstig intelligens (AI) etisk, befinner vi oss på et vippepunkt. Fordi dette teknologiske fremskritt lover enestående utvikling. Men det gir også visse utfordringer og vanskeligheter som krever refleksjon og fortjener handling.
Disse akselererte endringene har generert en rekke problemer av sosial karakter som sliter med å holde tempoet oppe i denne nye formen for intelligens. Hvilke tiltak bør vi ta?
Til å begynne med må vi etablere moralske, og sannsynligvis også juridiske, grenser ved bruk av kunstig intelligens. Hvis vi ikke gjør det, vil vi utsette oss selv for det faktum at utviklingen av sivilisasjonen ville blitt det stikk motsatte.
Å bruke kunstig intelligens etisk
Debatten rundt AI og bruken av den er bred og kompleks. Når det er sagt, er det en viss enighet om visse moralske normer i denne forbindelse.
1. Kunstig intelligens til tjeneste for menneskelige interesser
En artikkel publisert i Real Academia de Ciencias Morales y Politicas hevder at fra et humanistisk synspunkt har AI som oppgave å minimere den unngåelige lidelsen til mennesker. Det er her begrepet ondsinnet bruk av kunstig intelligens kommer inn i bildet. Det refererer til de potensielle farene som misbruk av disse programmene utgjør for samfunnet.
Derfor må sikkerheten til mennesker garanteres, samt personvernet og identiteten til miljøet. Ellers ville prinsippet i denne delen bli brutt.
2. Unngå datadiktatur
Innsamlingen av massive data (big data) er motoren til fremskritt i grener så forskjellige som medisinsk teknologi og økonomisk utvikling. Men når data brukes til å skyve befolkningen og separere den, snakker vi om «datadiktatur», hevder en bulletin fra CSIC.
Videre med dette eksemplet, kan AI samle enorme utvalg av resultatene av en ny medisinsk behandling eller forekomsten av helseproblemer. I dette scenariet må vi spørre oss selv i hvilken grad det er etisk for et forsikringsselskap å ha tilgang til disse dataene for å gi oss tilbud eller gi oss dekning.
3. Respektere nevrorettigheter
Big data kan også brukes til å lage spådommer om menneskelig atferd. Dette kan virkelig utnyttes innen markedsføring. Derfor, for å bruke kunstig intelligens etisk, bør ikke slike data være et verktøy som påvirker identiteten til brukere eller deres kognitive frihet. Dette er våre nevrorettigheter.
Innenfor kunstig intelligens er det viktig å sikre at nevrorettigheter respekteres ved innsamling, lagring, analyse og bruk av hjernedata. Dette innebærer å innhente informert og eksplisitt samtykke fra enkeltpersoner før de samler inn data fra hjernen deres. I tillegg må personvernet og konfidensialiteten til dataene beskyttes, og de skal brukes etisk og ansvarlig.
Videre må respekt for nevrorettighetene våre sikre at AI ikke brukes til å manipulere eller på urimelig måte påvirke vår identitet, kognitive frihet eller autonomi.
Dette omfatter å unngå diskriminering, stigmatisering eller manipulasjon basert på hjernedata. Dessuten innebærer det å sikre at AI-baserte beslutninger og handlinger er transparente, forklarbare og rettferdige. Dette er imidlertid litt av en utfordring, siden de fleste modellene som kunstig intelligens jobber med er ugjennomsiktige. De gir gode resultater, men vi vet ikke hvorfor.
4. Bevare menneskeverdet
Enkelte jobber, spesielt de som gir omsorg, anses som uegnet for AI og roboter. Det er fordi de krever kapasitet til empati og respekt. For eksempel ville det ikke være etisk å utsette et individ for terapi rettet av kunstig intelligens, og heller ikke å ha det til å fungere som politi eller dommere.
Konseptet med empati i roboter byr på ekstremt interessante utfordringer, på grunn av naturen til menneskelige følelser og bevissthet. Selv om roboter kan programmeres til å gjenkjenne og reagere på menneskelige ansiktsuttrykk, tonefall og andre emosjonelle signaler, har de ikke evnen til å oppleve følelser og forstå på samme måte som vi gjør.
Et arbeid publisert i Economía y Sociedad forklarer at intelligente teknologier får funksjoner som er iboende for å håndtere følelser. Følgelig, i likhet med mennesker, faller de inn i en motsetning mellom moralsk plikt og scenariet den er implementert i.
5. Holde kilder åpne
Det er en uttalelse som råder om emnet kunstig intelligens. Det er ideen at koden deres skal være åpen og offentlig. Dessuten bør utviklingen ikke være i hendene på noen få, siden det er en teknologi som direkte påvirker folks liv, sosiale konfigurasjon og til og med deres kultur. Åpenhet må garanteres og ondsinnet bruk av AI forhindres.
Hvorfor skal vi bruke kunstig intelligens etisk?
Fra nasjonal sikkerhet til bruk av en app, fra politikk til medisin, må bruken av kunstig intelligens gjennomgås etisk på en objektiv måte. Enhver ondsinnet bruk av det vil ikke bare forårsake eller øke trusler mot samfunnet vårt, men også forsterke dets negative konsekvenser.
Siden AI endrer vår verden og kultur, må passive agenter parallelt utvikle en kultur med ansvar og god bruk. I motsetning til hva mange tror, innebærer dette ikke bare læring og bruk av cybersikkerhetstiltak.
Faktisk er det å fremme en slik ansvarlig kultur bare det første skrittet. Det er viktig at myndigheter og selskaper iverksetter tiltak for etisk ledelse av AI. Moralsk refleksjon har allerede begynt, og det har vært noen fremskritt i denne forbindelse, som uttalt i Derecho Global.
Effektiviteten av konklusjonene av denne refleksjonen vil avhenge av om de oppfyller sitt humanistiske mål. For øyeblikket er de som virkelig dominerer oss menneskene bak robotene. For nå, bak all kunstig intelligens, ligger menneskelig intelligens.
Alle siterte kilder ble grundig gjennomgått av teamet vårt for å sikre deres kvalitet, pålitelighet, aktualitet og validitet. Bibliografien i denne artikkelen ble betraktet som pålitelig og av akademisk eller vitenskapelig nøyaktighet.
- The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. https://doi.org/10.17863/CAM.22520
- Cortina Orts, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias Morales y Políticas, 379-394. Ministerio de Justicia. https://www.boe.es/biblioteca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2019-10037900394
- García Pastor, E. (2022). Definiendo una inteligencia artificial más ética. Consejo Superior de Investigaciones Científicas. https://www.csic.es/es/actualidad-del-csic/definiendo-una-inteligencia-artificial-mas-etica
- González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la inteligencia artificial. Economía y Sociedad, 25(57), 93-109. https://dx.doi.org/10.15359/eys.25-57.5
- Fernández Fernández, J. L. (2021). Hacia el Humanismo Digital desde un denominador común para la Cíber Ética y la Ética de la Inteligencia Artificial. Disputatio. Philosophical Research Bulletin, 10(17), 107-130. https://dialnet.unirioja.es/servlet/articulo?codigo=8018155
- Porcelli, A. (2020). La inteligencia artificial y la robótica: sus dilemas sociales, éticos y jurídicos. Derecho global. Estudios sobre derecho y justicia, 6(16), 49-105. Epub 27 de enero de 2021.https://doi.org/10.32870/dgedj.v6i16.286
- Recomendación sobre la ética de la inteligencia artificial. (2021). Unesco.org. Recuperado 11 de abril de 2023. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
- Terrones Rodríguez, A. L. (2018). Inteligencia artificial y ética de la responsabilidad. Cuestiones de Filosofía, 4(22). https://www.researchgate.net/publication/326907301_Inteligencia_artificial_y_etica_de_la_responsabilidad