Fremtid

AI kommer med flere moralske hovedpiner. Men vi har lært af historien, mener professor

Stor sandsynlighed for fejl, diskrimination og en kamp mellem menneske og maskine gør, at implementeringen af AI kommer i en etisk farezone. Men Thomas Ploug, der er professor på Aalborg Universitet og forsker i AI og Etik er ikke bekymret. Læs her hvorfor:

Foto: Unsplash

Når AI med hastige skridt indtager en plads i vores samfund, er det vigtigt, at vi har styr på etikken bag.

Historien viser nemlig, at mennesket ikke har praksis for at vende de konsekvenser, der kommer med de fremskridt som ny teknologi giver.

Et eksempel på det er klimakrisen, hvor overvejelser om konsekvenserne af vores teknologiske udvikling først er dukket op på bagkant.

”Det gør, at vi nu står overfor nogle meget store miljøproblemer, som vi skal løse på bagkant. Det er mere kompliceret end, hvis man har tænkt etikken med fra begyndelsen,” forklarer Thomas Ploug, der er professor på Aalborg Universitet og forsker i etikken omkring AI.

Han mener dog også, at vi har lært af den kamp, vi kæmper mod klimaforandringerne nu.

”Klimakrisen har givet os en bevidsthed om, at vi skal tænke etikken ind fra begyndelsen. Og det er AI et godt eksempel på. Man har i EU siden 2018 arbejdet på at få indført nogle juridiske reguleringer, som ender med at blive indført nogenlunde på samme tid, som de fleste virksomheder skal til at forholde sig til, hvordan de vil bruge AI,” siger han.

EU AI Act kommer til at inddele AI-systemer i risikokategorier i forhold til vores sikkerhed, sundhed, tryghed og andre menneskerettigheder, der kunne komme i konflikt med systemet. Kategorierne bliver “nul risiko”, “lav risiko”, “høj risiko” og “uacceptabel risiko”.

Foto: Scanpix Denmark

Fejl og andre mangler

Der er da også god grund til at lave disse reguleringer, for de mange nye AI-systemer

”Det væsentligste er, at systemerne ikke er perfekte. Det er for eksempel helt tydeligt med Chat GPT, som de fleste efterhånden har prøvet. Du kan spørge Chat GPT om det meste, men halvdelen af gangene svarer den med noget vrøvl,” siger professoren.

I forlængelse af det kan der også nemt opstå et problem i forhold til diskrimination af forskellige befolkningsgrupper.

”Det kan være et problem, hvis man har et system til diagnostik, der siger at kvinder med disse symptomer skal have en bestemt medicinsk behandling, mens mænd med samme symptomer bare skal gå hjem og passe dem selv,” forklarer Thomas Ploug.

Hvis man skal have et bedre system, kræver det, at man indsamler større datamængder. Det betyder, at man skal have tænkt GDPR ind i systemet, da det ofte vil kræve personlige data.

Ingen grund til dobbeltarbejde

Derudover er det værd at overveje, hvad AI skal bruges til. For eksempel kunne Chat GPT godt skrive den her artikel.

”Så kunne man enten fyre dig, eller sætte dig til at hverve abonnenter, men det ville gå ud over din arbejdsglæde. Der har virksomheden et ansvar i forhold til at overveje, hvilke gevinster man får ud af AI,” siger Thomas Ploug.

For hvis man for eksempel sætter Chat GPT til at skrive artikler, vil det typisk kræve et menneske, der tjekker for fakta og korrektur. Og så kan det være, at gevinsten ikke er særlig stor.

”Det eneste vi så har opnået er, at vi har taget arbejdsglæden fra folk,” siger han.

Respekt for reglerne

Selvom listen med etiske problemer er lang, er Thomas Ploug dog ikke bekymret, for han tror på, at den opmærksomhed, der er omkring etik og AI nu kommer til at holde ved.

”Når EU’s AI Act træder i kraft i slutningen af året, tror jeg, det bliver ligesom da databeskyttelsesloven trådte i kraft. Den har jo haft en kolossal indflydelse på, hvordan vi håndterer data. Man kan næsten ikke sige GDPR uden, at folk ser skræmte ud, så meget respekt har vi for det. Og sådan tror jeg også, det bliver med de etiske problemer i forhold til AI,” fortæller professoren.