Titta

UR Samtiden - Robotdagen 2015

UR Samtiden - Robotdagen 2015

Om UR Samtiden - Robotdagen 2015

Det har sagts att vi står på tröskeln till en ny era. På allt fler områden tar maskinerna plats jämte oss. Vad innebär det för människan, samhället och våra arbeten? Behöver vi ompröva arbetslinjen eller är robotiseringen kanske en ny industriell revolution, som kommer att skapa många nya arbetstillfällen? Ledande experter i robotik, filosofi och ekonomi belyser robotarnas genombrott tillsammans med politiker och arbetsmarknadens parter. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Till första programmet

UR Samtiden - Robotdagen 2015 : Vems är skulden när en robot gör fel?Dela
  1. Det är dags att fortsätta. Och den här
    programpunkten blir på engelska.

  2. Vi ska diskutera vems ansvaret är
    när en robot gör fel.

  3. Jag vill presentera Anders Sandberg,
    som ni känner igen.

  4. Han är forskare.

  5. Du forskar kring
    nåt i stil med neurovetenskap-

  6. -på Future of Humanity-institutet men
    även på Institutet för framtidsstudier.

  7. Vi har även med oss
    Michael Laakasuo.

  8. Han är doktor i kognitionsvetenskap
    vid Helsingfors universitet.

  9. Vi ska diskutera två frågor.

  10. Vem bär ansvaret om
    en självständig robot beter sig fel?

  11. Är det designern eller ägaren?
    Vi ska även diskutera-

  12. -om vi kan skapa regler för robotar.

  13. Kan man programmera dem
    att alltid bete sig på rätt sätt?

  14. Först får ni fem minuter var.

  15. -Anders, du får börja.
    -Tack.

  16. Vad gör vi när en robot handlar fel?

  17. Om den där samurajroboten
    börjar hugga ner människor-

  18. -vem kan vi då skylla på?

  19. Jag är gift med en åklagare,
    och rent juridiskt verkar det enkelt.

  20. Ansvaret ligger
    hos den som äger roboten.

  21. Förutsatt att ägaren inte kommer och
    säger att programvaran är problemet.

  22. "Vi gav bara roboten ett svärd
    och ställde den bredvid en människa."

  23. I ett sånt läge hade nog rätten tyckt-

  24. -att ägaren ändå
    är den som bär ansvaret.

  25. Men så finns det situationer
    där det är mindre uppenbart-

  26. -att ägaren har betett sig försumligt.
    Man trodde att systemet var säkert-

  27. -och litade på program- och
    maskinvaran, men så gick nåt snett.

  28. Det här blir särskilt intressant
    med till exempel förarlösa bilar.

  29. Om en förarlös bil kör på nån
    har inte personen i bilen handlat fel.

  30. Förutsatt att vederbörande inte kunde
    bromsa är skulden nog tillverkarens.

  31. Jag läste att Volvo har gått ut med-

  32. -att de tar på sig ansvaret för
    alla förarlösa bilar som de tillverkar.

  33. Då blir frågan i stället
    vem inom företaget som bär ansvaret.

  34. Jag träffade några ingenjörer
    för ett par år sen-

  35. -som ville veta
    vad de skulle säga i rätten-

  36. -för de visste
    att de hamnar där förr eller senare-

  37. -och då är det bäst att vara förberedd.

  38. I vissa fall är det uppenbart. Man
    bygger nåt och testar det noggrant-

  39. -och kanske kan man visa vad
    systemet klarar och inte klarar av.

  40. Problemet uppstår när en komplex
    maskin möter en komplicerad värld.

  41. Det är väldigt svårt att förutsäga
    hur maskinen kan anpassa sig.

  42. Biltillverkaren kanske
    har med sig tiotusen sidor till rätten-

  43. -för att visa
    varför bilen gjorde som den gjorde.

  44. Då måste rätten avgöra om det är bevis
    för att tillverkaren agerat rätt.

  45. Rätten skulle förmodligen
    ge dokumenten-

  46. -till nån expert som får avgöra om
    tillverkaren har gjort vad den kunnat.

  47. Så vi kanske löser det
    på nåt vanligt, lite halvnonchalant vis-

  48. -och det fungerar för oss i de flesta
    fall. Det verkliga problemet är etiskt.

  49. Bilen kör, och plötsligt
    hoppar ett barn ut i gatan.

  50. Ska bilen köra in i en vägg och riskera
    passagerarna för att rädda barnet?

  51. Det här är ett etiskt problem där vi
    kan diskutera vad föraren borde göra.

  52. Borde en mänsklig förare offra sig själv
    för att rädda nån annan?

  53. Om det är programvaran som styr
    fattar den beslutet.

  54. Men då är det ju nån
    som har skapat programvaran-

  55. -och då kan vi diskutera huruvida man
    fattade rätt beslut å bilägarens vägnar.

  56. Olika bilar kanske har olika system. En
    Volvo vill rädda så många liv den kan-

  57. -med en sociopatisk sportbil
    bara tänker på ägaren-

  58. -eller på sin egen lack, som är
    viktigare än några människoliv...

  59. Den etiska frågan
    är skild från den juridiska.

  60. Kanske bestämmer vi oss
    för en gemensam trafiketik.

  61. Och så kanske det faktiskt blir-

  62. -för det är många avtal
    som måste slutas-

  63. -för ett samhälle med förarlösa bilar.

  64. Problemet är att bilen
    inte är en moralisk agent.

  65. Den följer bara instruktioner.

  66. För en filosof måste en moralisk agent
    inse att den gör nånting-

  67. -och inse att den kanske borde agera
    annorlunda av nån anledning-

  68. -och sen ändra beteende
    i enlighet med anledningen.

  69. Det finns också moraliska patienter,
    som vi måste bry oss om.

  70. Småbarn är ett bra exempel.
    De har inte hunnit bli agenter än.

  71. Vissa djur är också såna som vi inte
    anser oss få skada alltför mycket.

  72. Det lär dröja
    innan robotar blir patienter-

  73. -även om vissa kan få oss
    att bete oss vänligt mot dem.

  74. Det blir ännu svårare
    att göra dem till agenter.

  75. Kanske kommer vi få dela världen med
    väsen som kan se ut som agenter-

  76. -och som kanske representerar
    nån annans moraliska beslut-

  77. -i form av kod,
    men som ändå inte är agenter.

  78. Det kommer vi nog in på sen. Men jag
    vill gärna höra resten av berättelsen.

  79. -Michael, resten av berättelsen.
    -Jag önskar att jag hade den.

  80. Du tog nog upp
    alla generella frågor i diskussionen-

  81. -när man diskuterar förarlösa bilar
    ur det vanligaste perspektivet.

  82. Men även om de juridiska problemen
    antas vara lösta nu-

  83. -tror jag inte att det är fullt så
    enkelt, för lagar förändras ständigt.

  84. Så när det gäller robotlagar
    och etik kring robotar-

  85. -som sen kanske
    påverkar lagstiftningsprocessen-

  86. -så är det fortfarande
    en demokratisk process.

  87. Vi måste kunna fråga medborgarna
    hur de vill att robotar ska bete sig-

  88. -och våra parlamentsledamöter
    måste känna till-

  89. -våra åsikter kring robotars beteende.
    Det perspektivet får inte glömmas bort.

  90. Det får inte bara bli
    nåt tjänstemannabeslut-

  91. -där nån berättar
    hur det kommer att bli.

  92. Det är en av de största utmaningarna
    på det här området.

  93. Och för att avgöra var ansvaret ligger-

  94. -krävs det mer
    än att bara fråga ett antal jurister.

  95. Det krävs
    att medborgarna får säga sitt-

  96. -och att vi forskar kring mänsklig
    intuition vad gäller ansvarsfördelning.

  97. När den här sortens frågor är lösta...

  98. ...genom forskning,
    samtal och politik...

  99. ...kanske vi även måste ha...

  100. ...en robotmoral
    baserad på öppen källkod.

  101. I framtiden - och förhoppningsvis
    dröjer det inte så länge-

  102. -kan vi få en FN-förordning-

  103. -som kräver att all kod som gäller
    moraliskt beteende för robotar-

  104. -måste finnas på nätet
    tillgänglig för alla-

  105. -och det skulle gälla
    såväl stater som företag.

  106. Man skulle kunna ha
    en Wikipedia-liknande diskussion-

  107. -där man debatterade robotmoral
    med stöd av forskningen-

  108. -och så ser man vilken del av koden
    som härrör från vilken diskussionsdel-

  109. -och med nån expert som förklarar
    varför koden gör som den gör.

  110. För att kunna svara på
    vem som bär ansvaret-

  111. -bör vi ha en samhällsdiskussion-

  112. -om etiska och forskningsmässiga
    hänsynstaganden.

  113. Vidare tror jag att för att hitta svar
    på dylika frågor...

  114. ...måste vi se på moral
    lite som matematik:

  115. Att det är nåt som existerar
    oberoende av människor.

  116. Så om vi ger robotar moral
    kommer den att bestå av kod-

  117. -som bygger på den här moralen som
    existerar oberoende av människor.

  118. Därför måste vi angripa problemet
    på ett nytt sätt.

  119. Om vi tror att jurister och utvecklingen
    av ny teknik i sig löser problemet-

  120. -så misstar vi oss. Vi måste göra
    de här andra framstegen-

  121. -för att kunna lösa det här problemet
    som tidigare inte har existerat.

  122. Det är väl mina första tankar.

  123. Tack. Så om vi börjar med
    den första frågan...

  124. ...om vem som bär ansvaret
    när en robot gör fel.

  125. Är det nån skillnad på det
    och en bilolycka i dag-

  126. -där felet kan vara
    antingen förarens eller tillverkarens?

  127. Uppstår det nya frågor
    vad gäller ansvarsfördelningen-

  128. -när det i stället involverar robotar?

  129. Man kan jämföra, och det är ju
    väldigt vanligt inom juridiken.

  130. När man behöver en ny lag-

  131. -vill man gärna utgå
    från en liknande gammal lag.

  132. Vad gäller föremål-

  133. -finns det lagar
    som lägger ansvaret på individen.

  134. Men robotar kan
    i viss mån vara självständiga.

  135. De kan agera för att "de vill".

  136. De har information inom sig
    som får dem att göra nåt-

  137. -utan att man har bett dem att göra det.

  138. Det här kan jämföras
    med lagar om djur.

  139. Vi har rätt många lagar
    om hur vi ska hantera våra olika djur.

  140. Och vi har ansvaret för dem.

  141. Om ens hund biter nån
    bär man själv ansvaret.

  142. Det är inte hunden, som förvisso kan
    vara illa ute eftersom den är farlig-

  143. -utan det är man själv som straffas.
    Och ofta har man ett moraliskt ansvar.

  144. Varför har man inte
    uppfostrat hunden bättre?

  145. Om man har hund
    förväntas man kunna hantera den.

  146. Det finns en parallell där.
    Det är säkert med en inhägnad robot-

  147. -och man har varningssystem.

  148. Men om ens robot går omkring med
    ett svärd är man nog en dålig ägare.

  149. Då är det sannolikt
    att roboten orsakar problem-

  150. -trots att man själv har skrivit koden
    och vet att roboten sköter sig.

  151. Det är en bra analogi,
    men roboten är ju byggd av nån-

  152. -medan djur på sin höjd
    har avlats fram av människor.

  153. Michael,
    vad tycker du om jämförelsen?

  154. Den fungerar till viss del,
    men samtidigt...

  155. ...kommer varje ny robotgeneration
    att skilja sig från den föregående.

  156. De blir allt mer självständiga.

  157. Vi behöver börja tänka på nya sätt.

  158. Kanske ska en sån här robot styras av
    de här lagarna och en sån av de där.

  159. Vi kanske måste börja klassificera dem
    efter artificiell intelligens.

  160. Vi kan börja med djuren, men vi
    måste inse att det är ett nytt problem-

  161. -som inte kan åtgärdas
    med gamla lösningar.

  162. Du tänker dig alltså att
    robotarna blir allt mer intelligenta.

  163. Ska vi då lägga ett större ansvar
    hos tillverkaren eller mindre?

  164. Det är en diskussion vi måste ha som
    samhälle. Jag har inga svar på det.

  165. Om en robot kan lära sig saker-

  166. -skiljer det den från såna
    vars program inte kan ändras.

  167. En svärdvevande robot
    som gör samma rörelser hela tiden-

  168. -är mindre problematisk än en
    som anpassar sig till omgivningen-

  169. -eller lär sig häftiga grepp
    genom att betrakta människor.

  170. Även det enklaste av datorprogram
    kan visa sig vara oberäkneliga.

  171. Det finns läskiga teorem som visar hur
    lite vi kan förutsäga om programvara.

  172. I praktiken
    är den ofta rätt förutsägbar-

  173. -men när den blir mer självständig
    ökar utrymmet för felaktigt beteende.

  174. Vi bör alltså vara försiktiga
    med de här systemen.

  175. De kan missköta sig
    trots att de länge verkat säkra-

  176. -eftersom de gradvis lärt sig nåt
    som vi inte trodde de skulle lära sig.

  177. Så till syvende och sist
    kanske dumma robotar ofta är bättre-

  178. -eftersom de är pålitligare
    än de smartaste-

  179. -som kanske kan lösa svåra problem
    men också missköta sig.

  180. Robotutvecklingen
    är också ett problem.

  181. Vi bör ha lagar för
    hur långt robotutvecklingen får gå.

  182. Även om det finns rekommendationer
    om att industrirobotar ska vara dumma-

  183. -kan nån ändå skapa en ny algoritm-

  184. -som kan ha
    helt oväntade beteenderutiner.

  185. Även om de råkar lösa
    det så kallade ramproblemet-

  186. -kan programvaran hitta kreativa
    lösningar som vi inte kan förutspå.

  187. Så på så sätt
    handlar det inte bara om lagar-

  188. -som fördelar ansvaret
    mellan robotar och deras ägare-

  189. -utan vi måste ha lagar på plats
    innan nåt går snett-

  190. -så att systemet är förberett på det
    värsta, för riskerna är för stora.

  191. Kanske gäller det inte bara lagar
    utan även andra former av reglering.

  192. Vårt beteende styrs ofta
    av icke-bindande regler.

  193. Om jag vill experimentera på djur eller
    människor finns det riktlinjer.

  194. Det finns riktlinjer
    vad gäller god praxis.

  195. Det kan finnas fler lager än bara
    lagar mot särskilda sorters robotar.

  196. Och det kan vara mer effektivt, för vi
    vet inte vad robotarna klarar av-

  197. -och därför är det bra att gradvis
    kunna justera regler och riktlinjer-

  198. -i takt med att vi lär oss mer om dem.

  199. Robotarnas ägare har ett ansvar
    för dem, liksom kanske tillverkaren.

  200. Kommer vi i framtiden nå en punkt-

  201. -där robotar själva ses
    som moraliskt eller lagligt ansvariga?

  202. Det finns inget...

  203. ...som vår hjärna kan göra som inte
    också kan göras av programvara.

  204. Så i teorin kan vi få programvara-

  205. -som är lika - eller lika lite -
    ansvarstagande som jag är.

  206. Men det kan ta tid, för man kan inte
    uppdatera sina regler bara så där.

  207. Man måste också förstå
    hur det fungerar.

  208. Så att få fram en robot
    med moraliskt ansvar blir tufft.

  209. Problemet blir att vi får system
    som i vissa fall beter sig ansvarsfullt-

  210. -vilket får oss att tro att de förstår,
    men så missköter de sig i andra fall.

  211. Vi människor är oväntat dåliga på att
    avgöra om nåt är en verklig agent.

  212. Vissa av er kanske
    har testat psykologprogrammet Eliza.

  213. Det analyserar bara text-

  214. -men man lockas ändå att
    dela med sig av sina innersta känslor.

  215. Nån lyssnar utan att sprida det vidare
    trots att det inte är nån där.

  216. Vi kan lura oss själva, för systemen
    kan variera i ansvarstagande-

  217. -på ett sätt som skiljer sig
    från oss människor.

  218. Men det vore användbart om robotar
    kunde lära sig vad som är bra.

  219. Vi har belöningsbaserad inlärning
    där man belönar systemen-

  220. -och så försöker de handla så
    att de får fler belöningar längre fram.

  221. Det där handlar inte om etik utan är i
    mångt och mycket som djuruppfostran.

  222. Men det är ett sätt att lära dem
    vilka preferenser vi människor har-

  223. -och det vill vi ju verkligen
    att maskinerna förstår.

  224. Jag håller med om det du säger.

  225. På en mer teknologisk nivå-

  226. -kan det hända saker väldigt fort
    som vi inte alls förväntar oss.

  227. Folk som utvecklar kvantteknik på MIT,
    till exempel Seth Lloyd-

  228. -har sagt att matematiken bakom
    Googles maskininlärningsalgoritmer-

  229. -i praktiken baseras på
    samma matrisoperationer-

  230. -som används
    för kvantfysik och kvantdatorer.

  231. Så naturen själv
    handlar på sätt och vis...

  232. ...om såna här
    väldigt avancerade beräkningar.

  233. Om vi kan ta oss till den nivån-

  234. -kan nya typer av kvantalgoritmer
    erbjuda oväntade möjligheter-

  235. -vad gäller
    automatiska och reflektiva system-

  236. -som jobbar i såna enorma hastigheter
    att vi inte märker vad som händer-

  237. -när och om nåt väl händer.

  238. Problemen som du nämner är inte
    tvunget såna som inte kan undvikas.

  239. Men vi kanske ställs inför dem
    snarare än vi tror.

  240. Låt oss säga att vi börjar hålla
    robotar ansvariga i viss utsträckning.

  241. Vad gör man med en robot som gör
    fel? Programmerar man om den...

  242. -...eller beslagtar man den?
    -Betraktar vi den som moralisk agent?

  243. För då måste vi nog bestraffa den.

  244. En agent med belöningsbaserad
    inlärning kan bestraffas-

  245. -så att den lär sig
    att den inte ska upprepa handlingen.

  246. Men ser vi
    det här systemet som säkert?

  247. Om en enskild robot missköter sig-

  248. -kan det säga nånting om
    alla robotar med den programvaran.

  249. För de tänker ju alla likadant,
    på sätt och vis.

  250. Så om min robot verkar farlig kanske
    vi måste återkalla alla av den typen.

  251. Kanske räcker det med
    att man laddar ner en patch.

  252. Det kan innebära att det uppstår
    ett mönster i hur de missköter sig.

  253. Den första tisdagen i varje månad
    ballar de ur.

  254. Och det är en rätt otäck bugg.

  255. Så i slutändan kanske det blir en fråga
    om att åtgärda buggarna.

  256. Och så är det lite hos oss också.
    Om jag gör fel kan min familj klaga-

  257. -och säga till mig att de ogillar det.

  258. Och jag vill
    att min familj ska tycka om mig-

  259. -så därför byter jag beteende
    även om jag ser det som rimligt.

  260. Vi lär oss mycket själva.

  261. Och mycket av vår moral
    kommer från "våtvaran" i våra hjärnor-

  262. -och vi hade nog
    kunnat ta bra system från hjärnan-

  263. -och applicera dem på våra maskiner.

  264. Åter en gång
    håller jag med om det mesta-

  265. -men bestraffningens funktion-

  266. -är inte bara att åtgärda förövarens
    beteende. Den fyller en social funktion.

  267. Platon påpekade att den syftar till
    att återställa en känsla av rättvisa.

  268. Nåt har gått fel, och med
    bestraffningen ger vi upprättelse-

  269. -till familjen till den mördare,
    om det till exempel är ett mord.

  270. Vi måste ha nån sorts sätt
    att "bestraffa" robotar...

  271. ...eller hjälpa de efterlevande
    när nån dör på grund av en robot...

  272. ...så att de
    slipper gå och lida resten av livet.

  273. Det är lättare att bearbeta sorgen
    när en brottsling blir dömd-

  274. -men med en robot vet man inte ens
    om det är en moralisk agent.

  275. Bestraffningen
    hjälper inte de efterlevande-

  276. -så vi måste ha ett annat sätt
    att hantera de känslor-

  277. -som familjemedlemmar kan ha-

  278. -vid den här nya sortens olyckor,
    hur de än ter sig.

  279. Innan vi går vidare
    till robotarnas egen etik-

  280. -vill jag ställa
    en lite mer grundläggande fråga.

  281. När min dator gör fel beror det ofta på
    att nån har hackat den.

  282. Robotar kan också hackas, och det
    kan göra så att de missköter sig.

  283. Är det möjligt
    att helt skydda dem från hackning?

  284. Och finns det
    andra säkerhetshot med robotar?

  285. Hackning är definitivt ett problem, och
    detaljerna där ska jag inte gå in på-

  286. -men det är inte det enda problemet.

  287. Det finns ett exempel...

  288. ...på ett datorvirus som uppstod
    utan att nån programmerade det.

  289. 1988 kom det ut en bok
    av Hans Moravec-

  290. -och i den beskrev Moravec
    om en händelse på Arpanet:

  291. När datorerna stängdes av
    och sen sattes på igen-

  292. -var det kvar lite el i ROM-kretsarna-

  293. -vilket fick datorerna att krascha.

  294. Sen spred det sig vidare
    till andra datorer-

  295. -och plötsligt höll hela av
    den tidens Internet på att stängas av.

  296. Såna problem
    vet jag inte hur vi hanterar-

  297. -när mikrokretsarna blir allt mindre och
    blir mer sårbara för kvantinterferens.

  298. Det här är inte mitt område-

  299. -men teknikhistorien
    har lärt oss att sånt här är möjligt.

  300. Rent generellt
    är datorsäkerheten rätt usel.

  301. Problemet är att vi nån gång på
    70-talet valde fel säkerhetsmodell-

  302. -och nu sitter vi med system som är
    lätthackade och dyra att uppdatera.

  303. Jag skriver just nu om hackning av
    implantat för djup hjärnstimulering.

  304. Ingen har gjort det än,
    men implantaten saknar skydd-

  305. -så man kan skicka elsignaler in
    i hjärnan på folk. Det är rätt hemskt.

  306. Robotarna bör inte
    var uppkopplade mot Internet.

  307. Men varför har hjärnimplantaten
    wifi-uppkoppling? Jo, det är praktiskt.

  308. Om man har en Bigdog-robot
    antar jag att man kan stänga av den-

  309. -så
    att man kan hämta den om den vält.

  310. Så de här robotarna
    kommunicerar ofta med omvärlden-

  311. -och om man är oförsiktig
    får man säkerhetsbrister-

  312. -som kan utnyttjas av samvetslösa.

  313. Det finns ett projekt på den
    amerikanska myndigheten DARPA-

  314. -där man försöker skapa program
    som hackar datorer automatiskt.

  315. Det är häftigt på vissa sätt
    men fruktansvärt på så många andra.

  316. För
    om man får programvara som hackar-

  317. -så inser ju snart alla
    att det är bäst att vara först ute.

  318. Så kanske får vi se robothackare.

  319. Allt det här
    gör vår omgivning mer osäker.

  320. Man bör göra robotar med så enkla
    kommunikationsprotokoll som möjligt.

  321. Vi tenderar att överdriva. Jag vill ofta
    ha med för mycket i mina program.

  322. Det gör dem
    långsammare och sårbarare.

  323. När vi designar robotar
    som ska fungera ute i verkligheten-

  324. -måste de vara enkla,
    åtminstone sett till gränssnittet-

  325. -så att vi kan undvika att de gör fel.

  326. Bara en kort kommentar
    om säkerhetsproblemen.

  327. En orsak till
    att Linux är så svårt att hacka-

  328. -är att Linux kärnprogram
    uppdateras ungefär varannan månad.

  329. Ett virus som skrevs för en viss version
    funkar inte på nästa.

  330. Det spelar ingen roll om man
    har virusskydd på datorn eller inte.

  331. En annan sak är att Linux är helt öppet.
    Alla kan se koden.

  332. Så många tusen personer bidrar-

  333. -till att skriva och skydda kärnan.

  334. Nu har vi Google, som alldeles nyligen-

  335. -köpte världens största tillverkare
    av militära robotar-

  336. -och Googles källkod är inte öppen. Så
    alla inser vilken säkerhetsrisk det är-

  337. -inte bara för företaget eller ett land,
    utan för hela världen.

  338. Jag bara nämner det.

  339. Tidigare nämnde du moral med
    öppen källkod, så vi fortsätter där.

  340. Går det att programmera robotar
    att agera etiskt?

  341. Om man läser science fiction-

  342. -hör man ofta talas om robotikens
    tre lagar, skapade av Asimov.

  343. Är nåt sånt möjligt? Vem vill börja?

  344. Jag kan börja. Jag har
    redan kritiserat robotikens tre lagar.

  345. -De är för enkla...
    -Kan du förklara dem?

  346. Den första är att robotar inte får skada
    människor eller låta bli att hjälpa dem.

  347. Den andra är att robotar måste lyda,
    så länge det inte bryter mot lag ett.

  348. Den tredje lagen
    är att roboten måste skydda sig själv-

  349. -så länge det inte bryter mot
    de två tidigare lagarna.

  350. Jag tror att det blev rätt.

  351. Jag läste
    mycket science fiction som barn.

  352. Asimov kom på de här lagarna efter-
    som det är en intressant utmaning.

  353. Hans böcker handlar om robotar som
    följer lagarna men ändå beter sig dumt.

  354. Så han visade
    att en enkel tolkning inte funkar.

  355. I filmen "Autómata"
    hade man en snygg väg ut ur det-

  356. -där det fanns två lagar till.
    Nån i filmen förklarade det:

  357. "Det här är den mänskliga versionen.
    Egentligen finns det en massa kod..."

  358. "...men poängen
    är i stora drag den här."

  359. Men så klart
    bröt robotarna mot lagarna i filmen-

  360. -för annars
    vore det ingen intressant film.

  361. Problemet är att det inte går
    att lista ut konsekvenserna av regler.

  362. Om det är nåt som etiker älskar så är
    det att titta på motståndarens system-

  363. -och dra fruktansvärda slutsatser,
    för att sen fråga:

  364. "Är det här nåt
    som du verkligen vill genomföra?"

  365. Det här beror på att
    det mänskliga språket är så inexakt.

  366. Jag hade velat uttrycka mig
    med hjälp av formell logik.

  367. Men hur applicerar jag
    formell logik på verkligheten?

  368. Hur ser jag till att den symbolen
    motsvarar det här glaset?

  369. Den kopplingen är ett stort problem
    inom såväl filosofi som datavetenskap.

  370. Ja...

  371. Om vi godtar Richard Dawkins tes
    om att vi är biologiska robotar...

  372. ...så är människor i så fall robotar
    som kan hantera etik och moral.

  373. Och om allt det som vi har sagt här...

  374. ...om att moral kan existera
    utanför oss, som matematik...

  375. ...så hade vi i teorin
    kunnat bygga en moralisk agent...

  376. ...som kan bete sig moraliskt
    på samma sätt som vi...

  377. ...men utan
    våra biologiska begränsningar.

  378. Så det finns
    intressanta vetenskapliga tankar-

  379. -och en av de underligaste är-

  380. -att Kristus kanske är en robot.

  381. Det självuppoffrande barnet
    till en annan varelse.

  382. Men det här med
    att programmera moral:

  383. Även om vi bortser från frågan om
    huruvida den existerar utanför oss-

  384. -så hade vi behövt hitta den först,
    och det har vi försökt göra i 2 500 år-

  385. -så det känns osannolikt
    att vi gör det nu.

  386. Det stämmer att om filosofin fortsätter
    att utvecklas i samma långsamma takt-

  387. -så kommer tekniken att dra ifrån.

  388. Men vi kanske har hittat vissa lagar
    utan att kunna använda dem.

  389. Vissa, som Sam Harris, påstår ju-

  390. -att vi ser moral som sånt som handlar
    om medvetna varelsers välbefinnande.

  391. Allt som ökar välbefinnandet, vad det
    nu kan vara, är sånt som bör göras-

  392. -och det som minskar välbefinnandet
    bör vi undvika.

  393. Samtidigt råder det väl
    nån sorts konsensus-

  394. -kring Immanuel Kants
    kategoriska imperativ.

  395. Man ska behandla andra
    så som man vill bli behandlad.

  396. Alla vill bli framgångsrika
    och växa och må bra.

  397. Kanske har vi redan
    vissa delar av pusslet.

  398. Kanske famlar vi inte
    i mörkret helt och hållet.

  399. -Jag är väl mer optimistisk än du.
    -Om vi blir mer konkreta...

  400. ...för det kategoriska imperativet
    är rätt abstrakt.

  401. Vi tar den förarlösa bilen.

  402. Den kör på vägen,
    när det springer ut ett barn.

  403. Den kan väja,
    men då kan passageraren dö.

  404. Hur programmerar vi bilen,
    och hur beslutar vi det?

  405. Just nu är det en empirisk fråga-

  406. -som kräver
    att medborgarna får säga sitt.

  407. Det låter inte empiriskt, utan snarare
    som att demokratin får avgöra.

  408. Användarna av produkten
    måste få säga sitt i frågan.

  409. Blir det ett majoritetsbeslut
    som får avgöra?

  410. I demokratin som den är utformad nu
    handlar det aldrig om majoritetsbeslut-

  411. -men vi måste diskutera frågan
    innan vi avgör-

  412. -om robotarna ska göra si eller så.
    Den diskussionen har vi inte haft.

  413. Men om det finns
    oberoende moraliska lagar-

  414. -så har vi kanske upptäckt fler nu
    än vad vi gjort tidigare.

  415. Så kanske vore det demokratiska
    beslutet bättre nu än för hundra år sen.

  416. Men reglerna för en robot som skapas
    om hundra år vore nog ännu bättre.

  417. Det demokratiska beslutet
    vore inte nödvändigtvis det bästa.

  418. Men däremot skulle bilen bete sig
    på ett sätt som de flesta accepterar.

  419. En högljudd minoritet
    skulle däremot påpeka hur fel det var.

  420. Jag började skriva om Kant.

  421. Han behöver en bil
    i framtidens Silicon Valley.

  422. Men han ser bara utilitaristiska bilar,
    som är nyttoinriktade.

  423. -Vad gör en sån bil?
    -De försöker maximera...

  424. ...välbefinnandet
    för så många som möjligt.

  425. Sen träffar han John Stuart Mill
    som kör en Kant-bil-

  426. -som försöker följa
    det kategoriska imperativet.

  427. Mill trivs med sin bil,
    för den ökar hans välbefinnande-

  428. -men Kant vill gärna också ha den.
    Och här kan man tycka-

  429. -att vi kanske bestämmer oss
    för utilitaristiska bilar.

  430. Men då tycker Kant
    att det vore ondskefullt-

  431. -och att det skulle få barnen
    att tro på fel sorts moral.

  432. Så minoriteten menar
    att vi gör programvaran ond.

  433. Mycket av vår teknik
    gör antaganden om oss människor.

  434. I det här fallet är vi medvetna om hur
    mycket antagandena påverkar oss.

  435. Det är inte tvunget en dålig idé,
    men vi måste vara försiktiga.

  436. Men samtidigt vinnlägger vi oss
    om att värna om djuren-

  437. -och försöker öka
    andelen vegetarianer i samhället.

  438. Och vi kan självklart inte tvinga nån-

  439. -men även om det är
    en demokratisk process-

  440. -så är det ändå bäst men det här
    långsamma tillvägagångssättet-

  441. -snarare än ingen utveckling alls.

  442. Marknaden för etisk programvara
    är nog enorm.

  443. De flesta vill nog att deras maskiner
    ska göra som de själva hade gjort.

  444. Men att genomföra det vore det svåra.

  445. Jag minns när en programmerare
    bad en filosof förklara Kant för honom.

  446. En halvtimme senare
    satt programmeraren där modfälld.

  447. "Det där skulle jag aldrig få
    att funka på en turingmaskin."

  448. Och det stämmer,
    för som bäst kan vi approximera det.

  449. Och Kant skulle nog inte tycka
    att en approximering duger.

  450. Men vi skulle fortfarande
    behöva programvara.

  451. Och precis som alla verktyg
    vore den bristfällig.

  452. Så vi kanske måste avgöra
    vilka brister vi kan stå ut med.

  453. Vilka fördomar får våra bilar ha?

  454. De kanske har fått lära sig att känna
    igen människor med en viss hudfärg.

  455. Är bilarna rasistiska om de är mindre
    försiktiga med vissa människor?

  456. Det kan vi tycka är allvarligt-

  457. -men vi har lärt dem
    att undvika älgar men inte lejon.

  458. För den kategorin
    bryr vi oss inte så mycket om.

  459. Och dessutom
    är lejonen ganska få här.

  460. Men kanske borde vi tänka på
    att de är utrotningshotade.

  461. Här handlar det om
    att hantera ofrånkomliga brister-

  462. -snarare än att försöka skapa
    perfekt programvara.

  463. Men om vi återvänder
    till de demokratiska besluten-

  464. -är ett naturligt förslag
    vad gäller den förarlösa bilen-

  465. -att personen som sitter i bilen
    kan välja hur den ska agera.

  466. Alternativen kan vara
    "rädda mig först" eller "undvik barnet".

  467. -Kan inte det vara en lösning?
    -Det tycker jag.

  468. Efteråt kan man ju
    utvärdera situationen-

  469. -och döma nån
    som väljer att rädda sig själv.

  470. För vi dömer ju folk
    efter deras beslut jämt och ständigt.

  471. Maskiner bör i den mån det är möjligt
    agera så som vi själva hade gjort.

  472. -För första gången är vi oense.
    -Det tog sin lilla tid.

  473. Jag föredrar ett samhälle-

  474. -där etiska bedömningar
    finns inskrivna i lagen.

  475. Samhället ska vara
    en bättre version av mig-

  476. -och styra mig
    mot vissa beslut och beteenden.

  477. Om det nu finns bestämda och
    oberoende etiska lagar i universum-

  478. -vill jag inte leva i ett samhälle
    som låter mig bryta mot dem.

  479. Men det är inte säkert
    att alla är ense om vilka de är.

  480. Vad gör man om vissa föredrar Kant-

  481. -och andra utilitarismen?

  482. Det måste diskuteras.
    Jag har inte svaren här och nu.

  483. Vi börjar närma oss...

  484. Ja, tiden är slut. Tack för det här
    väldigt intressanta samtalet.

  485. Översättning: Markus Svensson
    www.btistudios.com

Hjälp

Stäng

Skapa klipp

Klippets starttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.

Klippets sluttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.Sluttiden behöver vara efter starttiden.

Bädda in ditt klipp:

Bädda in programmet

Du som arbetar som lärare får bädda in program från UR om programmet ska användas för utbildning. Godkänn användarvillkoren för att fortsätta din inbäddning.

tillbaka

Bädda in programmet

tillbaka

Vems är skulden när en robot gör fel?

Produktionsår:
Längd:
Tillgängligt till:

Vilka beslut ska robotar programmeras att tas i vilka situationer? Hur ska till exempel en självkörande bil bestämma när det råder en värdkonflikt? Vems är ansvaret? Kan en robot fatta moraliska och etiska beslut? Michael Laakasuo, doktor i filosofi vid Helsingfors universitet och Anders Sandberg, forskare vid Future of Humanity Institute, University of Oxford, diskuterar ämnet. Moderator: Gustaf Arrhenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Ämnen:
Teknik
Ämnesord:
Maskinteknik, Människa-maskin-interaktion, Robotar, Robotteknik, Teknik
Utbildningsnivå:
Högskola

Alla program i UR Samtiden - Robotdagen 2015

Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Bortom robotfronten

Var befinner sig utvecklingen på robotfronten idag och var kommer den att vara imorgon? Vad är spekulationer och vad är faktisk vetenskap? Danica Kragic Jensfelt, professor i datalogi vid KTH och ledamot i Sveriges unga akademi, berättar om hur det har sett ut och i vilken riktning utvecklingen går framåt. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

När roboten tar över

Kommer roboten att bli smartare än människan? Hur ska vi agera om en superintelligens tar över jorden? Är det ren science fiction eller ett tänkbart scenario? Anders Sandberg, forskare vid Future of Humanity Institute vid University of Oxford berättar om hur intelligenta robotarna kan bli. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Var inte rädd

Vad kommer att hända med jobb, utbildning och arbetsliv i framtiden? Vilken påverkan har robotiseringen och digitaliseringen på arbetsmarknaden? Maja Fjaestad, statssekretare i Regeringskansliet, talar om digitaliseringens demokratiserande funktion. Som exempel tar hon möjligheten att via smartphones och appar starta företag, oavsett var du bor i världen. I mindre demokratiserade länder har teknikutvecklingen varit viktig då människor har fått tillgång till utbildning, upplysning och nyheter via internet. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Varför arbeta?

Måste vi arbeta, kan vi inte få medborgarlön? Vad händer med vår självbild och vårt värde utan arbete? Om vi ska jobba 8 timmar om dagen, vad ska vi jobba med och hur ska vi få alla att nå dit? Roland Paulsen, författare och doktor i sociologi vid Lunds universitet och Stefan Fölster, chef för Reforminstitutet, debatterar detta. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Roboten och den svenska modellen

Panelsamtal om arbete och arbetsmarknaden i framtiden. Den svenska modellen var välanpassad för stora teknikföretag, men framtidens företag tycks kräva mindre antal anställda. Framtidens industri tycks dessutom kräva allt färre mänskliga arbetare. Hur bör den svenska modellen förändras för att tillgodose dessa omständigheter? Medverkande: Anders Ferbe, förbundsordförande IF Metall, Åke Svensson, VD Teknikföretagen och Irene Wennemo, statssekreterare på Arbetsmarknadsdepartementet. Moderatorer: Gustaf Arrhenius och Helle Klein. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Vems är skulden när en robot gör fel?

Vilka beslut ska robotar programmeras att tas i vilka situationer? Hur ska till exempel en självkörande bil bestämma när det råder en värdkonflikt? Vems är ansvaret? Kan en robot fatta moraliska och etiska beslut? Michael Laakasuo, doktor i filosofi vid Helsingfors universitet och Anders Sandberg, forskare vid Future of Humanity Institute, University of Oxford, diskuterar ämnet. Moderator: Gustaf Arrhenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Vem vill opereras av en robot?

Vilken roll har människan i framtidens vård och vilken ska robotens vara? Vilka känslor väcker en robot hos oss? Litar vi på roboten? Ett samtal om etik, mänsklighet och behov. Medverkande: Sara Ljungblad, doktor i människa-maskin interaktion, Simon Winter, interaktionsdesigner och doktor i kognitionsforskning och Clara Lindblom, äldre- och personalborgarråd. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Visa fler

Mer högskola & teknik

Spelbarhet:
UR Skola
Längd
Titta UR Samtiden - 100 astronauter på svensk jord

Att flyga genom rymden i realtid

Anders Ynnerman, professor i vetenskaplig visualisering, visar ett nytt visualiseringsprogram som kan ta oss från jorden till Mars, Pluto och ut ur vårt solsystem, vidare ut i oändligheten. Inspelat den 21 september 2015 på i Konserthuset, Stockholm. Arrangör: KTH.

Spelbarhet:
UR Skola
Längd
Titta UR Samtiden - Framsteg inom forskning 2015

Under Kungliga Ingenjörsvetenskapsakademiens årliga högtidssammankomst 2015 presenteras en rad intressanta och aktuella framsteg inom forskningen. Björn O Nilsson, vd IVA, berättar och samtalar med Johan Rockström, professor i miljövetenskap. Inspelat den 23 oktober 2015 på Konserthuset i Stockholm. Arrangör: Kungliga Ingenjörsvetenskapsakademien.