(17.10.2019)
Send epost til arnfinn.christensen@gmail.com hvis du har forslag til endringer eller forbedringer i dette innlegget!
Deklarasjon: Denne artikkelen har en SGI (Sur Gubbe-Indeks) på 60.
Ville jeg våge å kjøpe og kjøre en Tesla? Jeg er veldig usikker. Hvorfor? På grunn av autopiloten.
Jeg har vært i disputt med den norske informasjonssjefen til Tesla, Even Sandvold Roland, om Teslas autopilot. I artikler i forskning.no beskrev jeg Tesla som “selvkjørende”. Der protesterte han, og insisterte på at autopiloten bare var et hjelpemiddel, og at føreren hele tiden måtte ha kontrollen og hånden på rattet.
Denne argumentasjonen holder han fortsatt fast på overfor andre journalister. Da sjåfører fortalte at deres Model 3 plutselig kan bråbremse uten forståelig grunn, understreket han fortsatt at føreren hele tiden under kjøringen har ansvaret. Men hvilken sjåfør har åndsnærværelse til å reagere raskt nok når bilen gjør plutselige, uventede og potensielt farlige manøvre på egen hånd? Sandvold og Tesla ber sjåføren ha hånden på rattet til enhver tid, men skal sjåføren også konstant måtte ha foten på bremsepedalen? Hva med gassen? Hva kan egentlig Teslaen finne på?
Nå er det kanskje feil å henge ut bare Tesla i denne sammenhengen. Også andre bilprodusenter – blant dem Volvo – arbeider iherdig med å utvikle selvkjørende biler. Men Tesla er trolig den produsenten som har kommet lengst i denne utviklingen. Dermed er Tesla-sjåførene også delvis testpiloter i teten av det store selvkjøringsracet. Kan de være komfortable med det?
Selv om jeg er skeptisk til autopiloten i Tesla – i sin nåværende utgave – er jeg ingen Tesla-hater. Snarere tvert imot. Her er jeg bak rattet i min hittil eneste tur med Tesla – en model S. Det var en opplevelse! (Foto: Glenn Østling, eieren av Teslaen.)
I kjernen av svaret på dette spørsmålet ligger en ganske foruroligende svakhet i datahjernen som styrer – unnskyld, “assisterer” – kjøringen av en Tesla på autopilot – eller i tilfellet med bråbremsingen, adaptiv cruisekontroll. Denne datahjernen er programmert etter prinsipper utviklet gjennom det som kalles “dyp læring”.
“Dyp læring” har gitt store framskritt innen kunstig intelligens. Prinsippet er – grovt forklart – at datamaskinen lærer gjennom å mates med mange eksempler på riktig og galt – en slags digital prøving og feiling – slik et barn lærer å gå eller å snakke. “Programmeringen” av et barn tar mange år, delvis også fordi barnets hjerne fortsatt utvikler seg. Programmeringen av Teslas autopilot skjer ved at Teslaer hele tiden er koblet opp i nettverk og sender inn kjøreinformasjon. Tesla-bilene lærer av hverandre.
Dyp læring har gitt fantastiske resultater innen mange områder, for eksempel bildegjenkjenning. Hvis du mater datamaskinen med millioner av bilder av hunder, så vil datamaskinen etterhvert kunne skille hund fra katt med høy sannsynlighet. Men – og det er viktig i kjøresammenheng – treffsikkerheten er høy, men ikke hundre prosent.
Og her kommer det virkelig skumle med dyp læring, hvis du betror livet ditt til den på landeveien. Forsøk har vist at hvis du bare endrer ørlite grann på et hundebilde, risikerer du at den dype læringen misforstår helt og tror det er en katt. Det vil si – “misforstår” er feil ord. Den dype læringen “forstår” ingen ting. Den vet ikke hva en hund er, eller hva et vikepliktskilt er, for den saks skyld.
Den dype læringen ligner på det vi kan kalle vår reptilhjerne – den som såkalt “instinktivt” reagerer lynraskt – mye raskere enn når vi analytisk må ta stilling til en situasjon og reagere bevisst.
Det er reptilhjernen som befrir oss fra å måtte tenke gjennom hvert skritt når vi går, og dermed ende i grøfta – “exhausted in the ditch, not knowing how to run”, som poeten Katherin Craster humoristisk har beskrevet tusenbeinets mislykkede forsøk på å tenke gjennom sin egen framferd.
Uten reptilhjernen hadde vi vært hjelpeløse i hverdagen. Vi hadde snublet på søndagsturen og satt maten i halsen – ethvert hverdagslig gjøremål ville vært en uoverstigelig intellektuell utfordring. De stolte, menneskespesifikke beslutningene til vårt analytiske, bevisste jeg er som en tropisk solskinnsøy, hvilende på fundamentet av et enormt undersjøisk fjell av reptilhjernens ubevisste momentane og komplekse vurderinger.
Utviklingen av kunstig intelligens viser dette prinsippet tydelig. Det er mange år siden en datamskin slo en sjakkmester. Sjakk er hovedsakelig basert på bevisst tankeaktivitet. Først i det siste har robotene til Boston Dynamics klart noe så tilsynelatende enkelt som å gå i ulendt terreng. Dataprogrammene som styrer gåroboten er mye mer komplekse enn sjakkprogrammet. Det meste av aktiviteten i hjernen er ubevisst – reptilsk. Vår spesifikt menneskelige bevissthet er bare en liten, men likevel unik del av det stolte organ vi huser i hodeskallen.
Men – det undersjøiske fjellet av automatisert reptilhjerne-læring er vulkansk. Noen ganger skjelver det, der nede i dypet. Noen ganger forplanter skjelvene seg opp og gir uventede utbrudd.
Det er i slike tilfelle at den dype læringen gir uforutsigbare og helt feil resultater – både i menneske og maskin. Ett tragisk eksempel kan vi hente fra havarikommisjonens analyse av en flyulykke i Vestfold i nyere tid.
Et småfly gjorde akrobatiske øvelser over et jorde. Flygeren fløy loddrett opp, og flyet mistet fart og tippet over og inn i et baklengs spinn. I et slikt spinn vil flyets bevegelser kunne lure flygeren til å tro at det spinner motsatt vei av hva det faktisk gjør. Siden situasjonen var farlig og tiden knapp, slo reptilhjernen til flygeren inn i et forsøk på å rette opp spinnet, slik den hadde lært seg av tidligere eksempler. Men i dette tilfellet reagerte reptilhjernen feil. Flyet gikk i bakken og begge ombord omkom.
Tilsvarende har kinesiske “hackere” klart å “lure” en Tesla til å gjøre en brå sving på en rett vei med strategisk plasserte fargede klistremerker på fil-markeringene.
Det farlige med en slik situasjon er at sjåføren – tross pålegg om å holde hendene på rattet – ikke er mentalt forberedt på plutselige og uventede manøvre som strider mot enhver fornuft. Det tar et sekund for hjernen å omstille seg til handling, og det sekundet kan være ett sekund for mye.
Jeg har møtt en forsker som mente at denne uklarheten i rollefordelingen mellom autopilot og bilfører er så farlig at ratt og pedaler bør fjernes helt. Først når rollefordelingen er hundre prosent avklart og bilen er hundre prosent selvkjørende, vil selvkjøring være sikkert nok – forutsatt at teknologien i seg selv da også er hundre prosent sikker. Og blir den noensinne det?
Kanskje. Noen av de som forsker på kunstig intelligens er i ferd med å gjenoppdage en tidligere metode som kom i miskreditt fordi den viste seg å være umulig å tilpasse virkelighetens kompleksitet i alle dens avskygninger. Denne metoden prøver å lære datamaskinen å tenke og handle fornuftig ved å lære den hvordan verden er bygget opp, omtrent slik voksne mennesker lærer språk gjennom å forstå grammatikken – eller å bake kake ved å lese oppskriften.
Forenklet kan man si at denne tilnærmingsmåten er å lære datamaskinen sunn fornuft og grunnleggende årsakssammenhenger. Det er å gjenopplive det som kalles klassisk kunstig intelligens, der forskerne prøvde å lage dataprogrammer som simulerte verden slik vi forstår den med vår tolkende bevissthet.
Klassisk kunstig intelligens er læring ovenfra og ned ved abstrakte forklaringer, mens dyp læring og barnets læring rett inn i reptilhjernen er læring nedenfra og opp, ved utallige erfaringer gjennom eksempler.
Når en Tesla brått kan skifte fil på grunn av litt snedig plassert markeringstape eller brått bremse uten forvarsel på åpen og fri landevei, er det tydelig at bilen trenger sunn fornuft. Er det et ekstra lag av impulskontroll fra klassisk kunstig intelligens som er løsningen?
Kanskje. Andre forskere tror at når den dype læringen er kommet langt nok – når meta-eksempler former dyp læring på stadig høyere abstraksjonsnivåer – så vil dyp læring også få allmenn forståelse nok til at den kan kvalifisere som sunn fornuft.
Uansett hvilken vei som fører fram – det er lang vei igjen før vi kan være sikre på at autopiloten til Tesla ikke plutselig kjører av veien i spesielle tilfelle. Bør vi av den grunn sette denne teknologien på vent – til den er hundre prosent tilregnelig?
Svaret avhenger like mye av hvordan vi mennesker vurderer, som av teknologien i seg selv. Vi er – av evolusjonært forståelige årsaker – mer eller mindre kontrollfreaks. Vi vil ha kontrollen – og særlig i situasjoner der hvert brøkdels sekunds oppmerksomhet teller, som i en bil.
Da hjelper det lite at eksemplene med autopilot på ville veier er få, og sjåfører av kjøtt og blod langt oftere gjør liknende og mer alvorlige feil. Alt i dag gir trøtte eller rusede eller testosteronsprengte eller chattegale eller suicidale sjåfører langt flere ulykker enn autopiloter – Teslas eller andre produsenters.
Slik statistikk taler til fornuften, men frykt er ikke fornuftig. En autopilot som uten forvarsel gjør vanvittige ting, er som å spille russisk rulett – riktignok med svært liten sannsynlighet for å få det dødlige skuddet. Men de fleste vil helst ha full kontroll over pistolen.
Så – hva med meg? Ville jeg være en bedre sjåfør enn autopiloten til Tesla? Ikke er jeg suicidal, ikke kjører jeg i rus, testosteronnivåene er dalende med alderen, å chatte er ikke min favoritthobby og jeg svinger inn til siden og sover et kvarter hvis jeg blir for trøtt bak rattet. Med andre ord – jeg regner meg som en sikrere sjåfør enn mange av de som drar ulykkesstatistikken til manuelt styrte biler oppover.
Min hittil eneste tur i en Tesla svingte blant annet forbi gamle Rokke skole mellom Halden og Sarpsborg. Her bodde jeg med moren min i skolehuset fra 1961 til 1963. Hun var eneste lærer, også for meg i første til tredje klasse. Det var rart å stå her foran den gamle skolebygningen med en bil som den gangen ville vært reneste science fiction – selv om GPS av naturlige årsaker ikke ville virket! Nå er skolebygningene grendehus. (Foto: Glenn Østling)
På den andre siden – jeg vet for lite om hvilke situasjoner som får autopiloten til å klikke. Og hvordan arter klikkene seg? Hvis bilen plutselig svinger inn i motgående fil – hvor raskt gjenvinner jeg manuell kontroll? Er autopiloten kraftigere i klypa enn jeg? Hvis jeg og autopiloten drar rattet hver vår vei – hvem vinner? Kan jeg gi gass og sjalte ut bremsen raskt nok til at bilen bak ikke gir meg nakkesleng ved en plutselig oppbremsing?
Disputten mellom meg og Teslas informasjonssjef Even Sandvold Roland dreide seg egentlig om bruken av ordet “autopilot”. Jeg mente at man måtte kunne kreve at ordet lever opp til etymologien. “Auto” betyr “selv”, og “pilot” er avledet av det latinske ordet “pilotus”, igjen avledet av det greske pēdon, som betyr “åre” eller “ror”, noe man styrer med.
“Autopilot” betyr altså omtrent “selvstyring”. Da er det er farlig misvisende å kalle Teslas kjøreassistanse for “autopilot”. Noen dødsulykker med altfor tillitsfulle sjåfører underbygger dette.
Det er ekstra farlig, fordi “autopilot” egentlig er et ord som er hentet fra flyterminologien. I flyet er autopiloten nettopp i stand til å ta over styringen av flyet – og gjør det rutinemessig helt og fullt.
Oppe i lufta er en slik autopilot langt mindre problematisk enn på veien. For det første er oppgaven til autopiloten mye enklere. De første autopilotene var i drift lenge før datamaskiner var små nok til å gjøre nytte for seg i fly eller biler. De var analogt koblet til fartsmåler, høydemåler og gyroskop – og holdt fart, høyde og kurs.
For det andre er tidsmarginene mye større i et fly enn i en bil – i alle fall når flyet er i marsjfart og -høyde. Skulle en digital autopilot få en raptus, er det ingen andre fly få meter unna å kollidere med. Og likevel – selv i store trafikkfly har det vært eksempler på hvordan instrumentfeil har ført til autopilotfeil som igjen har vippet erfarne piloter av pinnen – for eksempel i ulykkene med Boeing 737 Max eller Air France flight 447 som i 2009 krasjet i Atlanterhavet underveis fra Rio de Janeiro til Paris – trolig fordi lufthastighetsmåleren var gjentettet av is og både autopilot og piloter misforsto situasjonen.
Det er noe grunnleggende trygt over en bil der rattet er koblet mekanisk direkte til hjulene og bremsepedalen til bremsene – uten innblanding fra elektronikk. Ratt og bremser er mekaniske forlengere av mine hender og min bremsefot – selv om servostyring og ABS-bremser alt lenge har vært første steg på veien som nå fører mot selvstyring.
Og likevel – hvem vil jeg helst møte i motsatt fil – en Tesla på autopilot eller en gærning som utfordrer meg til kyllingleken? Hvem av dem er det mest sannsynlig at jeg vil kræsje med?
PS: Jeg har aksjer i Tesla. Men kjører Suzuki Jimny!
Arnfinn Sørensen 2019. Public domain – men oppgi gjerne kilde med lenke.