Självkörande bilar: Varför de fortfarande kraschar
Självkörande bilar lovade länge att vara framtidens stora transportrevolution; du skulle lugnt kunna luta dig tillbaka med kaffekoppen i hand medan bilen säkert och effektivt körde dig från punkt A till punkt B. Tekniken har onekligen gjort enorma framsteg under de senaste åren, både i radarsensorer, avancerade AI-system och kartläggningsteknik. Ändå envisas självkörande bilar fortfarande med att skapa rubriker – ofta av mindre smickrande anledningar, till och med nu anno 2024. Hur kommer det sig att maskiner som besegrar stormästare i schack ändå krockar med lyktstolpar och cyklar omkull oskyldiga elsparkcyklar på trottoarerna?
Tekniken på vägen framåt – men kör den faktiskt bättre än du?
På pappret verkar självkörande bilar vara den ultimata trafiklösningen; de brusar inte upp i trafiken, håller sig strikt inom hastighetsbegränsningarna och blir aldrig trötta efter en lång arbetsdag. Men ny forskning från 2024 visar att även de mest avancerade autonoma systemen fortfarande har långt kvar innan de når människans intuitiva och situationsanpassade beslutsfattande.
En studie publicerad i Wired avslöjar att självkörande programvara nu kan hantera över 90 procent av vardagliga trafikscenarier med utmärkt säkerhet, vilket imponerar tills man inser att de resterande procenten består av exceptionella situationer där läget snabbt blir kritiskt. Exempelvis misslyckas avancerade AI-system markant med att korrekt bedöma och förutse osäkerheten hos mänskliga medtrafikanter, speciellt gång- och cykeltrafikanter, som inte alltid har förutsägbara rörelsemönster.
”När människor kör bil kompletteras den analytiska förmågan av en intuitiv känsla för hur andra trafikanter beter sig. AI har än så länge visat sig vara hopplöst oförmögen att läsa kroppsspråk och mänskliga avsikter.” – Dr. Magnus Karlsson, forskare vid Chalmers Tekniska Högskola.
Samtidigt är det lätt att glömma bort att mänskliga förare knappast är felfria de heller. Den gamla Volvon i din garageuppfart kanske gnäller för minsta småhinder med rattskakningar, men när älgen plötsligt kliver ut ur dimman på riksväg 52, är dina reflexer och din erfarenhet oftast snabbare än såväl varningslampor som kameror och algoritmer.
”Årets haverier” – självkörande bilar som blev rubriker av fel anledning
År 2024 erbjöd dessvärre flera spektakulära exempel på att AI ännu är mindre driftssäker än reklambroschyrerna ger sken av. I januari hamnade Waymos självkörande bilar på löpsedlar över hela världen sedan en av deras robotiserade taxibilar fattat det spektakulärt fatala beslutet att försöka passera rakt genom ett pågående vägarbete på en gata i San Francisco. Bilen, vars system enligt företaget själva borde upptäckt och undvikit hindret, navigerade ändå rakt ner i ett nymålat dagvattenavlopp. Krisresponsen blev än mer absurd — bilen försökte upprepade gånger köra vidare trots att den nu satt fast i färskt cement.
I mars exploderade reaktionerna på sociala medier när en Tesla i självkörande läge abrupt bromsade för vad dess sensorer tyckte var ett stort hinder, men som i själva verket visade sig vara reflektioner från en ovanligt hög vattenpöl på motorvägen. Incidenten orsakade en kedjereaktion där flera bilar bakom var tvungna att väja undan till vägrenen. Olyckan resulterade tack och lov inte i några allvarliga skador, men satte ytterligare strålkastarljus på oförmågan hos autonoma system att bedöma skeenden realistiskt i situationer där mänskliga ögon och naturliga instinkter enkelt skulle ha uppfattat sammanhanget annorlunda.
Här börjar man undra varför en AI, som vann över världens främsta schackmästare på bästa sändningstid, inte kan inse att tre meter järnrör och ett dussin neonklädda vägarbetare framför bilen kanske innebär att man borde bromsa istället för att öka gasen?

Etiken i algoritmen: vem bestämmer egentligen över liv och död?
Förutom tekniska brister finns ett ännu mer obekvämt hinder i vägen för de autonoma bilarnas framfart – nämligen de etiska dilemman som uppstår när olyckor oundvikligen inträffar. Vem avgör egentligen hur programvaran ska reagera i en kritisk sekund, då valet står mellan att värna om bilens passagerare eller att skydda det lilla barnet som springer ut i vägen för att fånga en boll? Redan 2023 larmade TechCrunch om att teknologiföretag fortfarande duckar för sådana frågor, eftersom varje tänkbart svar väcker starka reaktioner hos allmänheten. Det vi kallar ”vagnsproblemet” – ett klassiskt tankexperiment inom moralfilosofin – har lämnat universitetsdomänerna och förflyttats till Silicon Valleys mötesrum, där programmerare och jurister obekvämt kliar sig i huvudet.
Årets debatter har nått nya nivåer efter att en panel med experter, rapporterat av Svenska Dagbladet, öppet diskuterade algoritmiska beslut om liv och död vid World Economic Forum i Davos. Google, Tesla och Volvo var inbjudna, men ingen av jättarna ville ge ett rakt svar på frågan om vem som egentligen sitter på beslutsmakten vid en potentiell katastrofsituation. Istället hänvisades till ”branschgemensamma riktlinjer” och att ”inget system i världen kan garantera noll risker”. Bristen på klara svar och transparens bekymrar såväl kritiker som förespråkare eftersom vi alla förr eller senare, frivilligt eller ej, kan bli passagerare i någon form av autonomt styrt fordon.
”Till skillnad från mänskliga beslut i paniksituationer kan vi förutse och påverka hur AI fattar sina beslut. Därför blir frågan extra känslig och företagen extra obenägna att komma till skott och vara raka om hur deras algoritmer egentligen är programmerade.” – Anna Lindstedt, professor i tekniketik vid Lunds universitet, intervjuad i DN.

”Tekniken i autonoma bilar springer snabbt framåt – men verkligheten är fortfarande väggbygget den inte lyckas väja för.”
Självkörande bilar har på senare tid visat imponerande framsteg, men årets incidenter illustrerar tydligt att det fortfarande finns både tekniska och etiska hinder kvar att lösa. Enligt Wired klarar autonoma system nu över 90 procent av trafikförhållanden säkert, men problemen uppstår alltjämt vid komplicerade eller exceptionella fall – som hastiga förändringar i omgivningen eller oklarheter kring mänskliga medtrafikanters beteende. Forskare vid Chalmers bekräftar också att AI-tekniken ännu saknar människors intuitiva förståelse för kroppsspråk och avsikter. Årets uppmärksammade haverier, som Waymos betongfiasko i San Francisco och Teslas bromsmiss på grund av vägreflektioner, visar hur avgörande denna intuition är när situationer snabbt går utanför det normala.
Utöver tekniken ligger en etisk skugga kvar kring hur algoritmerna i dessa fordon fattar livsavgörande beslut. Paneldebatten vid World Economic Forum i Davos, rapporterad av Svenska Dagbladet, avslöjade att industrin saknar tydliga riktlinjer. Risken med denna tystnad är påtaglig; den osäkerhet som kvarstår kan bidra till olyckor och tveksamhet hos allmänheten.
Sammanfattning av källor: Wired, TechCrunch, Svenska Dagbladet, DN, forskare från Chalmers och Lunds universitet.
Hur läsvard var denna artikel?
Beklagar att du inte gillade denna artikel.
Vi arbetar alltid på att försöka förbättras.
Hur kan vi göra den bättre?