20.01.2020

Autonomi og selvbygde roboter

Jeg har brukt deler av helga på å forberede et konferanseinnlegg om elever som bygger og koder automatoner, det vi kaller auditolocomotiver. Når kommer nok selve innlegget (link kommer) til å ha betydelig fokus mot det å bygge tredimensjonale former, og hvordan elevene låner og "remikser" populærkulturelle uttrykk.

Dermed får jeg si litt om de perspektivene som det nok blir mindre plass til, nemlig betydningen av å kode egenskaper i stedet for funksjoner.

Det finnes helt sikkert mange unntak, men inntrykket mitt er at mye av det som skjer knyttet til koding i skolen handler om å kode funksjoner. Et eksempel kan være å få en robotbil til å kjøre en bestemt rute. Dette er noe annet enn å kode egenskaper, dvs hvordan roboten skal oppføre seg i ulike situasjoner, samt hva den skal gjøre når den ikke klarer å finne ut hva den skal gjøre.

For noen dager siden kom Nasjonal strategi for kunstig intelligens, kort kommentert her. I forordet til strategien stiller digitaliseringsminister Nikolai Astrup en rekke spørsmål, som finner gjenklang i en debatt som har gått i Bergens Tidende, knyttet til at Bybanen i Bergen ønsker å utrede førerløse vogner.
En behøver ikke være ingeniør for å skjønne at om noen kjøretøy skal bli førerløse, så ligger skinnegående transport svært høyt oppe på lista. Vurderinger knyttet til hastighet og reaksjon ved uventede hendelser er på ingen måte trivielle, men alle former for unnamanøver er i utgangspunktet utelukket. Om vi forutsetter at teknologier for selvkjøring utvikler seg videre, noe alt tyder på, vil trikk bli selvkjørende. Spørsmålet er ikke om det skjer, men når.

Kari Wærness, professor emerita i sosiologi, spør "Hvem skaper trygghet på en førerløs bybane?". Langt fra noe dårlig spørsmål, men som mange av kommentarene har tatt opp: det er i alle fall ikke sjåføren. Tvert imot kunne vi se for oss et positivt samvirke mellom menneske og maskin, dersom føreren i stedet hadde jobbet som en form for konduktør. Maskinen gjør det den er best til, og mennesket kan bruke tid på mennesker. Litt billettkontroll innimellom kunne dessuten gjort noe med de 6% som sniker, men det er en annen sak. Konduktører er bra, men den delen av sjåførjobben som likevel handler om å håndtere maskinen, den  kan like gjerne gjøres av en maskin.

Ragnar Fjelland, professor emeritus og tidligere medlem av Teknologirådet, skriver sitt innlegg i denne debatten under tittelen "Vi er vel ikke i ferd med å slippe opp for mennesker, er vi?" Fjelland skriver at vi ennå er langt unna at kunstig intelligens består Turing-testen, altså at et menneske ikke klarer å avsløre at vedkommende kommuniserer med en maskin. Turing-testen er en test som har menneskelig adferd som premiss. Det er neppe særlig relevant i forhold til å styre en trikk, selv om et menneske vil kunne tolke og dermed delvis forutsi en rekke situasjoner før de faktisk oppstår. Det samme kan imidlertid maskiner, og maskinene vil lære av hverandre på helt andre måter enn hvordan mennesker opparbeider seg individuell erfaring som sjåfører. Teknologirådet har forresten en gen rapport om selvkjørende biler.

Anbefaler Teslas gjennomgang av sin teknologi, om ikke annet fordi det gir en god innføring i hvordan denne formen for maskinlæring fungerer.

Lars Nyre, fremdeles professor i medievitenskap ved Universitetet i Bergen, får være sistemann ut i debatten. "Teknologi tek over", skriver Lars. Videre "... teknologiar er berre underordna menneska viss dei er nøydde å ha same typen handlekraft og åtferd som menneska, for å få tilkjent status som ein handlande agent." Det er et viktig poeng. "Teknologiar har makt til å ta over arbeid som menneska gjorde før, og denne makta aukar år for år. Vi er små menneske med stadig større teknologiar, og vi kan ikkje fortsetje å tenkje som før."

Selv om det er veldig primitivt, sammenlignet med et virkelig autonomt kjøretøy, er auditolocomotivene en bitte liten introduksjon til hvordan en kan begynne å tenke på roboten som en selvstendig aktør. Vi får dem til å tegne, men siden alle automatonene har litt forskjellige egenskaper, blir møtet mellom dem grunnleggende uforutsigbart. Forstår vi dette som en form for kommunikasjon snakker vi om ekte emergens.

De tegningene som maskinene produserer kan vi utvikle videre, på ulike måter. Enten ved å interagere med maskinen underveis, eller jobbe videre med resultatet. Det bør kunne gi noen muligheter for refleksjon omkring hva maskiner kan bidra med, og hvordan det skjer. Å kunne være i dialog med maskinen, både gjennom å kode den og interagere med maskinen i det den utfører koden, er begeg deler vesentlige deler av det kunnskapsgrunnlaget elever bør få innblikk i.

Jeg interesserer meg jo også for hvordan roboter kan kodes for tale. I den forbindelse: Amazon har mål om at det skal være mulig å ha en 20 minutters samtale med deres Alexa. Jeg finner ikke det aktuelle intervjuet akkurat nå, men for en tid tilbake leste jeg en av Amazons hovedutviklere uttale at de overhodet ikke var opptatt av at maskinen skulle består Turing-testen. Det er helt ok å vite at en snakker med en maskin, så lenge selve konversasjonen er givende.

Vi bør venne oss til å snakke med maskiner, men hverken strebe etter eller forvente en respons som fra et menneske:

Ingen kommentarer:

Legg inn en kommentar