Publisert: 06. juli 2017

Roboter kan neppe ta ansvar

Produkter og tjenester finner mer effektive distribusjonskanaler, og sammen med systematisering av store datamengder blir det et konkurransefortrinn for næringslivet. Hvem har ansvar for et robotsystem som kan volde skade? Hvis beslutninger fattes uten tilstrekkelig konsekvensutredning vil det kunne oppstå alvorlige skader ved bruk av autonome beslutningsprosesser. Vi må se forskjellen mellom erkjennelsesbasert dømmekraft og algoritmestyrte beslutninger.

De enkleste oppgavene i prosessindustrien er allerede rasjonalisert bort i vår del av verden. Rutinemessige oppgaver knyttet til informasjonsprosessering, for eksempel innen finansnæringen og logistikk, er på full fart samme vei. Vi er i startgropen på utviklingen av autonome systemer, og selvkjørende biler er et eksempel.

Beslutninger gir ansvar

Svært mange yrker i Norge innebærer å løse mer sammensatte oppgaver. Som arbeidstagere er vi ikke bare operatører som mottar instrukser om å utføre spesifikke operasjoner; vi er også ansvarssubjekter som skal produsere et resultat og unngå feil. I den sammenheng tar vi mange beslutninger i løpet av en dag, beslutninger som berører kolleger, kunder og andre.

Vi ser en rask utvikling i bruk av analytiske støttesystemer som hjelper mennesker til å ta beslutninger på bredest mulig grunnlag. Trenden vil trolig fortsette, nettopp fordi mennesket fortsatt står ansvarlig for de valg som gjøres.

Vi ser også en utvikling mot selvbetjeningsløsninger, der kunden eller brukeren selv tar beslutninger basert på det maskinen foreslår.

Vi er bare i startgropen

Kassebetjenten i dagligvarebutikken blir på sin side rasjonalisert bort, fordi det ikke tas noen beslutninger i kassen som ikke kan tas av kunden selv.

Vi er i startgropen på utviklingen av autonome systemer, og selvkjørende biler er et eksempel. Teknologien vil utvilsomt kunne utføre mer komplekse operasjoner i fremtiden, men alt som er teknisk mulig lar seg ikke nødvendigvis realisere i kommersiell sammenheng.

Dette ble omtalt i DNs leder 3. november. Fra media blir vi fortalt at det fra EU-hold diskuteres å gi roboter en form for status som «elektronisk person» med selvstendige rettigheter og plikter. En slik tanke møter imidlertid noen krevende problemstillinger. Å gjøre autonome roboter til ansvarssubjekter vil kreve at kunstig intelligens får en helt annen evne til å legge vekt på betydningen av hva som utføres.

Det å ta ansvar handler også om motivasjon til å unngå negative konsekvenser, og da kommer subjektivitet og bevissthet inn i ligningen.

Dette er ikke noe som oppstår ved dagens algoritmer og maskinlæring, selv om det av og til kan se slik ut fra utsiden (jf. den amerikanske filosofen John Searle sin kritikk av Turing-testen, som omtalt i artikkelen «Robotens banemann» i Morgenbladet 21. oktober 2016). Noen av oss tror fortsatt at bevisst forståelse og erkjennelse er forbeholdt levende individer og ligger utenfor teknologiens potensial.

Før man kan slippe roboter løs i den fysiske virkelighet, må man ha undersøkt i hvilken grad menneskelig refleksjon er nødvendig for å utøve oppgaven. Dette krever kanskje andre typer kompetanse enn den teknologiske.

Hvis ikke man vil se forskjellen mellom erkjennelsesbasert dømmekraft og algoritmestyrte beslutninger, vil der kunne det kunne oppstå alvorlige skader ved bruk av autonome beslutningsprosesser, beslutninger som er igangsatt uten tilstrekkelig konsekvensutredning. Dette viser betydningen av at vi på forhånd avklarer hvem som har ansvar for systemer som potensielt kan utføre skadevoldende prosesser.

At ting kan gå galt i komplekse systemer, er neppe noen nyhet. Derfor vil man i mange tilfeller finne det ulønnsomt å skape for stor avstand mellom ansvarssubjekt og effekt.

Arbeidstagere blir nok satt til å bruke teknologien snarere enn å bli erstattet av den.

google maps
Dette nettstedet bruker informasjonskapsler (cookies) slik at vi kan yte deg bedre service. Informasjonskapslene blir hovedsakelig benyttet for trafikkmåling og optimalisering av tjenesten. Du kan også lese mer om vår bruk av informasjonskapsler.