Titta

UR Samtiden - Privatlivets framtid

UR Samtiden - Privatlivets framtidDela
  1. Han har skrivit
    om datasäkerhet sen 90-talet.

  2. Han anses allmänt som en av
    världens ledande tänkare inom fältet.

  3. Hans senaste bok är
    "Data and Goliath", som ni ser där.

  4. Bruce har en bakgrund
    inom fysik och datavetenskap-

  5. -och har skrivit en mängd böcker
    om säkerhet och kryptografi.

  6. Han är medlem av Berkman Center
    for Internet & Society vid Harvard-

  7. -samt New American Foundations
    New Technology Institute.

  8. -Han skriver även för The Guardian.
    -Tack för att ni bjöd hit mig.

  9. Jag vill prata om privatliv...

  10. Det jag egentligen
    vill prata om är data.

  11. Man kan inte prata om privatliv
    på 2000-talet utan att prata om data.

  12. Data är grundläggande
    för informationssamhället.

  13. Sättet man ska tänka på data...

  14. ...är att alla processer skapar det.

  15. Data är en sidoeffekt
    av att använda datorer.

  16. Jag ska försöka låta bli... Okej.

  17. Data är en bieffekt.
    Alla datorprocesser skapar data.

  18. Data om vad datorn sysslar med.

  19. När vi interagerar
    med datorer i våra liv skapas data.

  20. I dag tog jag en taxi från flygplatsen
    till hotellet och betalade med kort.

  21. Då skapades data.
    När jag checkar in skapas mer data-

  22. -om mig, mitt kreditkort, var jag är...
    Min mobil vet alltid var jag är.

  23. För att komma hit ringde jag Uber, det
    var snabbast, och skapade mer data.

  24. Varje gång vi interagerar med en dator
    skapas data.

  25. Det som skapas är data om oss.

  26. På ett sätt är det övervakningsdata.

  27. Det är metadata.

  28. Jag vet inte
    om ni följer Snowdens avslöjanden-

  29. -men det många i USA säger,
    bland andra presidenten-

  30. -är att det "bara" är metadata.

  31. De menar att vi inte ska oroa oss.
    Det är inte data, det är bara metadata.

  32. Vad är skillnaden?

  33. Data utgörs av samtalen.

  34. Om jag ringer dig
    och vi har ett telefonsamtal-

  35. -är det vi säger data.

  36. Datum, tid, våra telefonnummer,
    var vi är, samtalets längd-

  37. -allt det är metadata. Metadata är data
    som systemet behöver för att fungera.

  38. Metadata är faktiskt väldigt intimt.

  39. Metadata från i dag innehåller min
    plats när jag promenerade i Stockholm.

  40. Det finns metadata om att alla vi
    finns här i rummet tillsammans.

  41. Om alla som jag har sms:at.
    Inte vad jag skrev, men att jag skrev.

  42. E-post, med avsändare,
    mottagare, datum och tid.

  43. Metadata är övervakningsdata.

  44. Se det så här: om jag anlitar en privat-
    detektiv för att tjuvlyssna på nån-

  45. -på dig, så sätter han mikrofoner
    i ditt hem, i din bil, på ditt kontor-

  46. -och så får jag en rapport
    med dina samtal. Det är data.

  47. Om jag ber detektiven att övervaka dig
    får jag en annan rapport:

  48. Var du var, vad du läste, vad du köpte,
    vem du pratade med. Det är metadata.

  49. Metadata är övervakningsdata.

  50. Det är data som skapas naturligt
    av de datorer som vi använder-

  51. -för att de ska fungera.

  52. Min mobil måste veta att jag är här-

  53. -annars kan den inte ringa
    när du ringer och frågar var jag är.

  54. Mobilen måste veta var jag är,
    annars fungerar inte systemet.

  55. Det är övervakningsdata
    som skapas av datorer.

  56. Tidigare har man kastat bort det,
    men Moores lag går vidare-

  57. -lagring och processorkraft
    blir allt billigare-

  58. -och nu sparar vi allt som vi förr
    brukade kasta bort. För varför inte?

  59. Det här är det löfte som "big data" ger.

  60. "Spara allt, så hittar vi på
    nåt vi kan göra med det."

  61. Spara allt om dina kunder,
    om du är en nätbutik.

  62. Spara inte bara vad folk köper,
    utan vad de tittade på och inte köpte-

  63. -hur de navigerade genom webbsidan.
    Spara allt.

  64. Om du är Amazon och säljer en bok
    till nån med en Kindle-

  65. -spara inte bara att de äger en bok,
    utan hur de läser den.

  66. Hur fort läser de, vad läser de,
    vad stryker de under? Spara allt.

  67. Om du är Uber
    sparar du alla körningar.

  68. Det kan bli värdefullt.

  69. Det kan bli användbart.

  70. Det är det som har fört oss hit.

  71. Inte av illvilja,
    utan bara för att det finns data.

  72. På den teknikförändringen följde ett par
    förändringar i hur man gör affärer.

  73. När Internet dök upp hade man
    ingen aning om hur man tar betalt.

  74. Jag kan inte ta ett rött öre betalt.
    Det finns ingen mekanism för det.

  75. Den affärsmodell
    som fungerar på nätet-

  76. -som alla var snabba att anamma-

  77. -är reklam.

  78. Inte bara reklam som på tv,
    utan personlig reklam.

  79. Därför blev reklam på Internet nåt
    som behövde tillgång till dina data.

  80. För att kunna anpassa reklamen.

  81. Det fanns även andra krafter.

  82. Åtminstone i USA fanns
    en stark marknadsföringsindustri-

  83. -som delade upp folk i kategorier.
    De ville också ha tillgång till data.

  84. Så vi hade den data som kom
    från vår interaktion med datorer-

  85. -som det blev mer och mer
    kostnadseffektivt att spara-

  86. -och efterfrågan på våra data
    för reklam, övertalning-

  87. -manipulering,
    vad man nu vill kalla det.

  88. Jag vill veta så mycket som möjligt
    om dig för att ge dig anpassad reklam-

  89. -som gör att du köper saker.

  90. Det är den soppa av mekanismer
    som har lett oss dit vi är i dag.

  91. Naturligtvis är såna data
    också användbara för myndigheter.

  92. Den största delen
    av myndigheternas övervakning-

  93. -utnyttjar företagens övervakning.

  94. NSA sa inte plötsligt:
    "Nu ska vi spionera på alla."

  95. De sa: "De här företagen
    spionerar på alla. Vi skaffar en kopia."

  96. Eller hur? Och genom
    ett antal olika metoder gjorde de det.

  97. Genom att köpa data-

  98. -genom överenskommelser med
    amerikanska företag, svenska företag-

  99. -med massor av företag, genom hot
    och mutor - det är väl som att köpa-

  100. -och genom bara ren och skär stöld.

  101. Om man vill ha data från Ryssland
    måste man helt enkelt bara ta dem.

  102. Det gäller många stater, inte bara
    USA eller de andra "goda" länderna-

  103. -utan Kina, Ryssland...
    Alla verkar göra det.

  104. Då så... Slutligen hamnar vi...

  105. ...på en nivå av statlig övervakning
    som aldrig hade kunnat ske direkt.

  106. Om det blev lag att man måste ha en
    sändare på sig alla dygnets timmar...

  107. ...skulle vi göra uppror. Det skulle
    inte hända. Men vi har mobilen i fickan.

  108. Vi tänker inte på det.

  109. Eller om man var tvungen att meddela
    polisen när man får en ny vän.

  110. Ni skrattar,
    men ni meddelar Facebook.

  111. Eller om man var tvungen att skicka
    kopior på all ens e-post till staten.

  112. Ni skrattar nu också,
    men ni skickar dem till Google.

  113. Det här är förvånansvärt intimt.

  114. Förr sa jag
    att Google vet mer om mig än min fru.

  115. Ja, men det räcker inte.
    Google vet mer om mig än jag själv.

  116. Google kommer ihåg saker
    bättre än jag.

  117. Jag vet inte hur det är med er,
    men Google vet allt jag tänker på.

  118. Det första man gör när man
    tänker på nåt är att söka på det.

  119. I det ligger en enorm intimitet.

  120. Det är inte bara det
    att min mobil alltid vet var jag är...

  121. ...vem jag pratar med, vad jag säger...

  122. Den vet när jag vaknar
    och när jag går och lägger mig.

  123. Vi har var sin,
    så den vet vem jag sover med.

  124. Det här händer hela tiden.

  125. Vi ser hur man utnyttjar det här
    för en mängd olika ändamål.

  126. I ett land som Kina
    utnyttjas det här för social kontroll.

  127. Det utnyttjas för att ta reda på
    vad folk tänker på och vad de gör.

  128. I Syrien utnyttjas dessa data
    för att gripa folk.

  129. Det skedde en ökänd incident
    i Ukraina för några år sen.

  130. Man utnyttjade platsdata för att se
    vem som var på ett protestmöte-

  131. -och alla där fick ett sms-

  132. -där det stod "Du har registrerats
    som deltagare i protesten."

  133. Det var på ukrainska,
    så jag har ingen direkt översättning.

  134. Det är ett hot.

  135. Som bygger på dessa data.

  136. Så vi har...flera intressen
    som sammanfaller här.

  137. Vi har en massa data som samlas in
    av företag för reklamändamål...

  138. ...som sen samlas in igen och används
    av myndigheter för social kontroll.

  139. Beroende på stat. Kina använder det
    mycket mer öppet för politisk kontroll-

  140. -medan USA använder det
    mest för brottsbekämpning-

  141. -men även för att skrämmas.

  142. Sen finns alla länder däremellan.

  143. Flera intressen sammanfaller här.

  144. Både företag och stater
    vill ha tillgång till dessa data.

  145. Därför ser man mycket data
    som går fram och tillbaka.

  146. I USA samarbetar telekomföretagen
    med NSA, och även i Europa.

  147. Data rör sig åt andra hållet. Företag
    får tillgång till statliga databaser-

  148. -som körkortsdatabaser.

  149. Ett antal delstater i USA
    säljer dem till privata företag-

  150. -och motsvarande sker i andra länder.

  151. Vi börjar se vissa rörelser
    hos bilddatabaser nu.

  152. Det finns två stora källor
    till databaser med namngivna foton.

  153. Den första är körkort
    eller nationella id-kort-

  154. -där det finns ett foto och ett namn.

  155. Den andra är sajter som Facebook.

  156. Där finns miljarder taggade foton.

  157. Mycket av det rör sig fram och tillbaka.

  158. I USA vet vi att FBI använder sig
    mycket av Facebooks fotodatabas.

  159. Det här är ännu ett nytt sätt
    att identifiera människor.

  160. Om vi kan ha övervakningskameror
    på gatorna och kan sätta namn...

  161. Man hörde lite om det
    när Google Glass kom.

  162. Nån dag skulle man kunna ha
    Google Glass på sig, se sig omkring-

  163. -och bredvid alla era ansikten
    skulle jag se era namn.

  164. Eller kanske namn och e-postadresser,
    löner och allt annat jag kan få reda på.

  165. Sexuella preferenser... Jag vet inte.
    Det beror på vilken app vi har.

  166. Det är på gång. Ansiktsigenkänning
    blir bättre och bättre.

  167. För några år sen blev de bästa
    algoritmerna lika bra som människor-

  168. -på att känna igen ansikten.
    Människor är otroligt bra på det.

  169. Det är en av våra grundläggande
    förmågor, att känna igen ansikten.

  170. Datorer börjar bli lika bra som vi.
    Jag glömmer vem det var...

  171. Både Google och Facebook forskar
    på det här. I år var det en av dem-

  172. -som tillförlitligt kunde matcha
    ansikten på vuxna och barn.

  173. Det är imponerande. Den andra kunde,
    förvånansvärt tillförlitligt-

  174. -identifiera människor
    när deras ansikten var dolda-

  175. -bara utifrån kroppsform,
    ur sneda vinklar.

  176. Vi blir allt bättre på det.

  177. Det är bara en bild av hur data rör sig.

  178. Det är ett övervakningssamarbete
    mellan näringslivet och staten.

  179. I vissa länder är det väldigt starkt.

  180. I Kina har man inte samma skiljelinje
    mellan näringsliv och stat som här.

  181. Där delar man mycket mer information.

  182. I USA och Europa
    delar man med sig av mer information-

  183. -hos företag som traditionellt
    gjorde det under kalla kriget.

  184. I USA har telekomföretagen en lång
    tradition av att lämna data till staten.

  185. På 60-talet, 70-talet, 80-talet,
    90-talet och vidare in på 2000-talet.

  186. Några av internetföretagen
    har inte en lika stark tradition-

  187. -och där är man inte lika villiga.

  188. De delar med sig av informationen-
    men det är inte lika mycket.

  189. Det är inte som när AT&T säger: "Ställ
    era grejer här, men säg inget till nån".

  190. Just nu pågår
    ett uppmärksammat fall i USA...

  191. Microsoft...

  192. Myndigheterna vill få tillgång till
    data om nån, vi vet inte vem-

  193. -som finns på Microsofts servrar, men
    de säger att de servrarna står i Irland-

  194. -och att det inte räcker
    med amerikanska dokument-

  195. -utan att de måste gå till
    en irländsk domstol och fråga dem.

  196. USA:s myndigheter menar
    att de är ett amerikanskt företag-

  197. -och att de har rätt
    till deras data oavsett var de finns.

  198. Det håller på att behandlas just nu.

  199. Det är bara ett av flera exempel
    på amerikanska företag-

  200. -som försöker slå tillbaka mot
    övervakningen och inte bara foga sig.

  201. Tidigare var traditionen att ge
    myndigheterna mer än de ville ha.

  202. Här, i Storbritannien
    och i övriga Europa.

  203. Men nu säger internetföretagen nej.

  204. Yahoo har till exempel bestridit
    amerikanska domstolsordrar.

  205. Men det är ett perifert fenomen.

  206. Man gör det nu för att det finns ett
    PR-värde i att stå emot myndigheterna.

  207. Vart leder det här oss?
    Det är intressant att tänka framåt.

  208. När vi... När vi började
    föreställa oss Internet, på 90-talet-

  209. -tänkte vi oss det
    som ett redskap för individuell frihet.

  210. Det finns ett fantastiskt dokument
    av John Perry Barlow från 1996:

  211. "Frihetsförklaringen för Internet."
    Jag rekommenderar det.

  212. Det säger i princip: "Alla ni stater,
    ni kan inte påverka oss. Ur vägen."

  213. Det visar sig att det var naivt.

  214. Stater har mycket makt
    och företag har mycket makt.

  215. De har blivit mellanhänder
    i allt vi gör.

  216. De lagrar våra data,
    de tillverkar vår utrustning-

  217. -och vi kan inte fungera
    utan att lita på dem.

  218. Det visar sig att det finns
    ganska många som undergräver dem.

  219. Det är... Ett övervakningssamhälle är
    inte oundvikligt, men det är naturligt-

  220. -eftersom det finns data,
    och alla vill ha dem.

  221. När jag tänker på integritetens
    och övervakningens framtid-

  222. -tänker jag på teknik.
    Ny teknik kommer att hjälpa oss.

  223. Men jag tänker
    mycket mer på lagar och politik.

  224. Data samlas in för att det inte finns
    nån anledning att inte göra det.

  225. Det är intressant att se...
    Om man läser vissa NSA-dokument...

  226. ...så dök vissa data upp,
    och lagstiftarna höll inte jämna steg...

  227. ...med den tekniska utvecklingen,
    och då fick myndigheterna bråttom.

  228. I USA var det NSA och FBI som såg
    en gråzon, som de annekterade.

  229. Hela tiden tänjde de på gränserna.

  230. Det var inte orimligt...

  231. Men om vi
    verkligen vill göra andra val...

  232. ...om våra data och vem som äger dem
    och vem som har tillgång till dem...

  233. ...och under vilka lagar och regler,
    och vad som händer med dem...

  234. ...så måste det ske på politisk nivå.

  235. Jag har skrivit mycket
    om lagar som jag tycker är vettiga-

  236. -för stater och företag-

  237. -när det gäller spionverksamhet,
    brottsbekämpning, terrorbekämpning.

  238. Det finns många
    komplicerade anledningar-

  239. -och vissa bra anledningar, till
    att olika aktörer vill ha våra data.

  240. Jag vill ju att mitt telefonbolag vet
    var jag är. Jag vill att mobilen ringer.

  241. Vilket den gör just nu, konstigt nog.

  242. Det är inte du, va?
    Jag är ju på rätt plats. Är allt okej?

  243. Jag vill att Google har min e-post.

  244. Man kan kryptera sin e-post
    så att Google inte kan läsa den.

  245. Man kan göra det, men då blir inte
    Gmail lika lätt att använda.

  246. Allt det Google kan göra för att de kan
    läsa din e-post kommer inte att hända.

  247. Men vi har inga bra regler.

  248. Just nu, i nästa vecka tror jag, ska
    president Obama träffa Kinas ledare-

  249. -och enligt vad jag läste
    i New York Times i går-

  250. -så kanske vi får nåt slags cyberkrigs-,
    cyberattack-, cybernånting-avtal.

  251. Jag är inte optimistisk,
    men det behövs verkligen.

  252. Vi har inga internationella normer.

  253. Ett av USA:s stora problem, när Kina
    bryter sig in i myndighetsdatorer-

  254. -och stjäl uppgifter
    om i princip alla USA:s statsanställda-

  255. -är att vi antagligen gjorde samma sak.

  256. En av NSA:s tidigare chefer sa: "Det
    hade vi också gjort om vi hade kunnat."

  257. Och det hade vi gjort. Inom spionage
    är normen: "Allt är okej. Ta allt."

  258. Vi kommer nog att se
    nåt slags reaktion på det snart.

  259. Men jag tror att vi har
    en lång väg framför oss.

  260. Jag tror verkligen på att vi kommer att
    kunna ha ett privatliv på Internet.

  261. Vi kommer att kunna ha privata data
    i en datoriserad värld, men inte snart.

  262. Just nu är folk fortfarande
    vimmelkantiga av alla data.

  263. "Big data"
    lovar runt men håller tunt just nu.

  264. Så länge det stämmer
    kommer folk att vilja samla in allt.

  265. Det finns anledningar
    att inte vilja göra det.

  266. Ashley Madison. Sony. Hacking Team.
    Tre exempel från det senaste året-

  267. -där hackare
    har brutit sig in hos företag-

  268. -stulit all information
    och publicerat den.

  269. Om man inte sparar allt
    finns det ju inget att stjäla.

  270. Ett bra skydd mot sånt här
    är att inte ha några data.

  271. Ashley Madison är intressant.
    Jag hoppas att ni känner till historien.

  272. Det är en sajt för äktenskapsbrott,
    vars kunddatabas-

  273. -med kreditkortsnummer, namn och
    allt möjligt, stals och publicerades.

  274. Man kan utforma en sajt
    så att det inte går.

  275. Jag kan skapa en sajt
    där du betalar med ditt kort-

  276. -du får ett användarnamn,
    och sen raderar jag all information-

  277. -så om nån skulle stjäla min databas
    kan de inte få ditt riktiga namn-

  278. -för att jag inte har det. Det fungerar.
    Varför gjorde inte Ashley Madison så?

  279. Jag gissar att det är för att många
    liknande sajter har månatliga avgifter.

  280. Det är lättare att sälja prenumerationer
    på tolv dollar per månad-

  281. -än på 150 dollar per år.

  282. Men om jag ska ta ut en avgift varje
    månad måste jag ha dina uppgifter-

  283. -och koppla dem till ditt användarnamn.

  284. Plötsligt blir det som hade kunnat vara
    anonymt möjligt att identifiera.

  285. Ju bättre affärsmodellerna är,
    desto farligare är de.

  286. För att tjäna mer pengar
    behöver man mer data.

  287. Om vi ska fixa det här
    måste vi göra det med lagar och regler.

  288. Så länge företag får göra precis
    som de vill kommer de att samla in allt.

  289. Så länge stater får göra vad de vill
    kommer de att samla in allt-

  290. -och stjäla det från varandra.

  291. Att fixa det
    kommer att ta ett par årtionden.

  292. Jag började med att säga att data är
    en bieffekt av informationssamhället.

  293. Data är också informationssamhällets
    föroreningsproblem.

  294. Tänk efter. Alla processer skapar det.

  295. Det blir kvar. Det vi pratar om här
    är sekundära användningsområden.

  296. Hur återanvänder vi det,
    gör oss av med det, lagrar det.

  297. Jag tror att, precis som vi här,
    under det tidiga 2000-talet-

  298. -ser tillbaka på det tidiga 1900-talet-

  299. -och förbluffas av att industrimagnater
    kunde strunta i föroreningar-

  300. -när de byggde industrisamhället-

  301. -kommer våra barnbarn och deras barn
    se på oss, här, i början av 2000-talet-

  302. -och förbluffas över
    hur vi struntar i hela dataproblemet-

  303. -när vi bygger informationssamhället.

  304. Men jag är kortsiktigt pessimistisk,
    och långsiktigt optimistisk.

  305. Därmed öppnar jag för diskussion.

  306. Tack så mycket. Ett tag längtade vi
    efter övervakningssamhället.

  307. -Var är han?
    -Vi kanske behöver den där sändaren.

  308. Det här väcker onekligen
    många tankar.

  309. Det finns olika aspekter av det här.
    En är tekniken-

  310. -som skapar nya situationer
    som är okända för många av oss-

  311. -som att alla dessa data skapas.

  312. Sen finns ju
    de problem Bruce nämnde-

  313. -med vilka lagliga vägar
    man har att ta till-

  314. -för att lösa
    de här problemen som har skapats.

  315. Och för det tredje handlar det också
    om vad privatliv egentligen är-

  316. -på ett mer filosofiskt plan.
    Varför är det viktigt att skydda det?

  317. Hur påverkas det av tekniken? Det är
    några av de saker vi kan prata om.

  318. Vår första kommentator
    är Susanne Wigorts Yngvesson-

  319. -docent i etik vid Teologiska högskolan
    i Stockholm och Uppsala universitet.

  320. Hennes huvudsakliga forskning
    rör medieetik-

  321. -inte minst i förhållande till
    övervakningsteknologi.

  322. Det passar ju bra här.
    Hon skriver också om sexualetik-

  323. -och förhållandet mellan mänskliga
    rättigheter och politisk teologi.

  324. Hon ingår också i forskningsnätverket
    Living in the Surveillance Society-

  325. -och är ledamot
    av Rikspolisstyrelsens etiska råd.

  326. Jag slutade där, för jag förstod aldrig
    vad vi skulle göra där-

  327. -men jag tror att Susanne
    har kommit på det. - Var så god.

  328. Tack så mycket, Bruce Schneier.

  329. Och tack för inbjudan
    för att få ge en kortfattad kommentar-

  330. -till den här viktiga boken:
    "Data and Goliath".

  331. Jag uppskattar
    den teologiska referensen.

  332. Men jag funderade på
    om det inte är data som är Goliat...

  333. Vi kan prata om det senare.

  334. Min bakgrund är att jag forskar på
    teologi, etik och mänskliga rättigheter.

  335. En del av min forskning handlar om
    moral i ett övervakningssamhälle.

  336. I höst kommer jag att göra en studie
    kring religion och övervakning.

  337. Det är ur det perspektivet som jag har
    läst och lyssnat till Bruces budskap.

  338. Bland annat det han säger här:

  339. "Massövervakning är farligt.
    Det möjliggör all slags diskriminering"-

  340. -"byggd på ras, religion,
    klass eller politisk tillhörighet."

  341. "Det används för att kontrollera
    vad vi ser, vad vi kan göra"-

  342. -"och slutligen vad vi säger."

  343. Det är ett utmanande budskap,
    eftersom vi nu upplever-

  344. -stora förändringar i världen,
    som inte bara sker på ytan-

  345. -utan som är stora
    interna förändringar inom politiken-

  346. -och i vår idé om mänskligheten.

  347. Men varför bryr vi oss så mycket om
    våra privatliv till att börja med?

  348. Vad är det som vi behöver skydda?

  349. Jag håller med om Schneiers
    enkla men tydliga definition:

  350. "Privatlivet är det som gör att vi kan
    bete oss rätt i varje situation."

  351. "I vårt sovrum slappnar vi av på ett
    sätt som vi inte gör med andra där."

  352. "Rätten till ett privatliv är en
    grundläggande mänsklig rättighet."

  353. Diskussionen om privatlivet
    och personen som individ-

  354. -börjar under medeltiden-

  355. -tar fart under upplysningen,
    och blommar upp i vår tid.

  356. Det är tanken på människan
    som en autonom, fri varelse-

  357. -som har rättigheter och skyldigheter.

  358. I det sociala kontrakt
    som försöker reglera dessa friheter-

  359. -konstrueras och skapas människor
    som individer och medborgare.

  360. Men när vi pratar om övervakning
    pratar vi dock inte om frihet-

  361. -även om den retorik som används när
    man pratar om övervakningens nytta-

  362. -handlar om att skydda såna friheter.

  363. Diskussionen om övervakning-

  364. -är både väldigt gammal och väldigt ny.

  365. Det är ett nytt sätt
    att bygga civilstaten-

  366. -samt en ny tolkning
    av vad en människa är.

  367. I övervakningssamhället är människor
    inte längre födda fria och lika-

  368. -i värde och rättigheter, som det står
    i FN:s rättighetsförklaring.

  369. Snarare tvärtom, eftersom vi, frivilligt
    eller ofrivilligt, ger upp vår frihet-

  370. -som Schneier
    så tydligt visar i den här boken.

  371. Vissa begränsningar är uttalade, som
    respekten för privatliv och familjeliv-

  372. -i EU:s stadga
    om mänskliga rättigheter.

  373. Där står det:
    "Offentlig myndighet får inte ingripa"-

  374. -"i denna rättighet
    annat än med stöd av lag"-

  375. -"och om det i ett demokratiskt
    samhälle är nödvändigt-"

  376. -"med hänsyn till nationell säkerhet,
    allmän säkerhet"-

  377. -"eller landets ekonomiska välstånd"-

  378. -"till förebyggande av oordning eller
    brott, skydd för hälsa eller moral"-

  379. -"eller till skydd för andra personers
    fri- och rättigheter."

  380. Nyckelorden för att få begränsa
    friheten i det här citatet är:

  381. "Nödvändigt", "säkerhet",
    "förebyggande" och "skydd".

  382. Den här diskursen
    följer en särskild inre logik-

  383. -som gör tanken på individens rätt till
    frihet och privatliv till en paradox.

  384. Att argumentera mot säkerhet
    försätter oss i en märklig position.

  385. Att argumentera för privatlivet
    försätter oss i en underordnad position-

  386. -i förhållande till
    bevarandet av vår livsstil-

  387. -med våra övervakningsmaskiner
    och personliga apparater.

  388. Paradoxen visar oss att tanken
    på frihet och lika värde-

  389. -används som ett redskap för att
    motivera ytterligare övervakning.

  390. Frihet och lika värde
    har att göra med tanken på paradiset.

  391. Men paradiset är förlorat,
    och säkerhetsföretag och politiker-

  392. -sprider ett apokalyptiskt budskap.

  393. Vi blir lovade
    säkerhet genom "big data"-

  394. -och vänskap genom sociala medier-

  395. -men vi förändras
    från individer och medborgare-

  396. -till ting och konsumenter
    under en övervakningsideologi.

  397. Men, som Schneier säger...

  398. ...påverkar naturligtvis övervakningen
    inte alla lika mycket.

  399. "Vissa av oss bryr oss inte om statens
    övervakning och påverkas inte alls."

  400. "Andra, särskilt religiösa, sociala,
    etniska och ekonomiska grupper"-

  401. -"som inte har den härskande elitens
    gunst, påverkas mer."

  402. Jag antar att det finns några här
    som tillhör den andra gruppen-

  403. -eller som känner
    att de tillhör den andra gruppen.

  404. I ett metaperspektiv kan övervakning
    beskrivas som en ny religion-

  405. -med gamla anor, en sekulär version
    av den allsmäktiga och allseende-

  406. -som bryr sig om var vi befinner oss.

  407. På ett plan kan man se övervaknings-
    perspektivet som teologiskt.

  408. I skapelseberättelsen
    ser Gud på människan-

  409. -med både omtanke och kontroll.

  410. Från sin plats
    svarar människan Gud, övervakaren-

  411. -med en upprorisk handling
    mot Guds vilja.

  412. Priset för frihet och kunskap är ett liv
    utanför paradiset efter syndafallet.

  413. En plats där man
    inte vet vem man kan lita på-

  414. -och när Gud ser en, eller varför.

  415. Som gjord i Guds avbild
    får människan ansvaret-

  416. -att vaka över
    och kontrollera skapelsen.

  417. Men Herren finns fortfarande överallt,
    som den här versen ur Psaltaren visar:

  418. "Var skulle jag komma undan din
    närhet? Vart skulle jag fly din blick?"

  419. "Stiger jag upp till himlen, är du där,
    lägger jag mig i dödsriket, är du där."

  420. "Tog jag morgonrodnadens vingar,
    gick jag till vila ytterst i havet"-

  421. -"skulle du nå mig även där
    och gripa mig med din hand."

  422. "Om jag säger: Mörker må täcka mig,
    ljuset omkring mig bli natt"-

  423. -"så är inte mörkret mörkt för dig"-

  424. -"natten är ljus som dagen,
    själva mörkret är ljus."

  425. Övervakning handlar inte bara
    om teknik, utan även om relationer-

  426. -och det sätt på vilket vi identifierar
    oss som människor i vår kultur.

  427. I det här narrativet
    är övervakning ett slags transparens.

  428. Med en allseende gud
    finns det ingenstans att gömma sig.

  429. Gud känner till dina överträdelser
    samt dina goda tankar och gärningar.

  430. Men i ett politiskt narrativ handlar
    behovet av övervakning om identitet-

  431. -makt, kontroll, säkerhet och skydd.

  432. Det handlar om identitet
    för att människor kategoriseras-

  433. -ur ett övervakningsperspektiv.

  434. Sociala medier utgör mekanismer
    för självcensur och censur av andra-

  435. -för förädling av varumärken eller
    för anonyma hot i ett ickefysiskt rum.

  436. Övervakningens makt och kontroll
    drivs av en egen logik-

  437. -som alltid vill utvidga övervakningen
    när man väl har vant sig vid den.

  438. Denna logik förklarar också varför
    den används som ett panoptikon.

  439. Vi hittar ett system där man använder
    data som anklagelser.

  440. Tekniken vill användas,
    eftersom den finns-

  441. -eller som Schneier säger: "Om man
    har tillräckligt mycket data om nån"-

  442. -"kan man alltid hitta bevis
    för att han är skyldig till nånting."

  443. Systemet fungerar till slut
    som en inre organism-

  444. -där medborgarna blir beroende av det-

  445. -och känner sig trygga i offentliga
    så väl som privata utrymmen.

  446. Vi lämnar spår av data efter oss,
    en nästan allsmäktig faktor i våra liv.

  447. Det är en rituell rörelse som påminner
    om monoteistiska religioner.

  448. Även om övervakningssamhället
    inte visar nåd eller kärlek-

  449. -och det inte finns
    nån personlig skapande gud-

  450. -blir inte dess ritualiserade status
    tvingad på oss-

  451. -utan vi accepterar den av egen vilja,
    eller av socialt tryck-

  452. -eller av politiska beslut
    som fattats av säkerhetsskäl.

  453. Det fungerar för att säkerhet och social
    samvaro är grundläggande värderingar.

  454. Schneier säger: "Vi är sociala djur"-

  455. -"och det finns inget mer givande än att
    kommunicera med andra människor."

  456. Så övervakningsmekanismerna
    i sociala medier-

  457. -har mycket att göra med
    att bestämma vem vi vill vara.

  458. Människor är öppna
    med sina privatliv på sociala medier.

  459. Det vi inte visar upp självmant
    finns dolt i stora datasamlingar-

  460. -som vi inte har tillgång till.

  461. Vi kan tro att vi letar efter data
    om religion, politik eller sex-

  462. -i ett mörkt rum
    där främlingar inte ser-

  463. -men allt kan avslöjas och alla våra
    synder kan visas upp för en värld-

  464. -där ingen av oss bara är konsument
    eller kund, utan där vi är produkten.

  465. Tack.

  466. Tack, Susanne.
    Det var...lite läskigt, faktiskt.

  467. Jag kan hantera Facebook,
    men att ha Gud i datorn...

  468. Det är en mäktig tanke.

  469. Då så. Vi har en talare till
    innan vi öppnar för diskussion.

  470. Torbjörn Tännsjö är nog välkänd
    för de flesta här i rummet.

  471. Han är professor i filosofi
    vid Stockholms universitet-

  472. -och han har haft
    ett flertal olika positioner-

  473. -som etikrådgivare och är bland annat
    medlem i Socialstyrelsens etiska råd.

  474. Han använder också filosofi för att
    diskutera brännande nutidsfrågor.

  475. Det är i den andan som han har läst
    och recenserat "Data and Goliath"-

  476. -och han har provokativa åsikter
    om integritet och övervakning.

  477. Jag vill också tillägga att förutom
    sina 25 eller så böcker om filosofi-

  478. -och oräkneliga artiklar,
    har Torbjörn också skrivit en historik-

  479. -över Vänsterpartiet i Nacka,
    som inte innehåller så mycket filosofi.

  480. Välkommen, Torbjörn.

  481. Tack för inbjudan,
    och tack för en fantastisk bok-

  482. -och möjligheten att få samtala här.

  483. Jag blev nog inbjuden för att jag är
    ett slags avfälling i diskussionen.

  484. Det kan nog verka som att jag har
    diametralt motsatta åsikter mot Bruce-

  485. -särskilt i den här boken, men samtidigt
    finns det områden där vi är överens-

  486. -så det är inte lika intressant
    som det skulle kunna verka.

  487. Men jag tänker fokusera
    på det som vi är oense om-

  488. -eftersom det är mest intressant.

  489. Jag kommer snarare
    att kommentera boken än föredraget-

  490. -eftersom det finns
    ett slags tes i boken-

  491. -som inte blev lika tydlig
    i ditt föredrag i dag.

  492. Det är tanken att vi...

  493. Du argumenterar mot
    övervakning och massövervakning-

  494. -men du försvarar också
    ett system med riktad övervakning.

  495. Det är inte så enkelt som det verkar
    om man framför argumenten-

  496. -och kommer till slutsatsen att det här
    fenomenet är dåligt på många sätt.

  497. Det skulle förstås vara naivt att tro
    att vi kunde vara utan all övervakning.

  498. En vettig diskussion måste nog
    handla om övervakningens omfattning.

  499. Bruce tycker att vi ska hålla oss till
    riktad övervakning, som förr i tiden.

  500. Du nämnde min bok om Vänsterpartiet.

  501. Jag tillhörde den del av befolkningen
    som blev övervakade hela våra liv-

  502. -men det var riktad övervakning,
    inte massövervakning, som i dag.

  503. Så finns det bra argument
    som försvarar tesen i boken?

  504. Jag tycker nog inte det.
    Det kanske är oartigt att säga så här-

  505. -men jag tycker att problemet är att
    argumentet inte förs tillräckligt långt-

  506. -när det gäller den här huvudtesen,
    att det finns två olika system.

  507. Det krävs mer specifika argument
    än de som ges i boken.

  508. Jag är filosof, så när jag
    har skrivit om det här ämnet-

  509. -har jag intresserat för mig för varför
    privatlivet är viktigt över huvud taget.

  510. Alla anledningar till det
    finns nämnda i Bruces bok-

  511. -men de analyseras inte ordentligt
    i den här kontexten.

  512. En anledning är att det
    på nåt sätt handlar om rättigheter.

  513. Filosofer har skrivit om det.

  514. Judith Jarvis Thomson har hävdat att
    det inte finns nån rätt till privatliv-

  515. -men att det finns en rätt
    till självbestämmande.

  516. Ur det följer vissa regler, som att man
    inte får spionera på mig i mitt hem.

  517. Om jag råkar lämna information
    om mig själv som du kan komma över-

  518. -så får du publicera den.
    Och när jag skriver under...

  519. När jag klickar i de där rutorna
    och låter företag göra vad de vill-

  520. -med min information, så är det helt
    okej, då inga rättigheter har kränkts.

  521. Men sen har vi en annan idé, som är
    en mer kantiansk idé om värdighet-

  522. -som också handlar om autonomi
    och respekt för autonomi.

  523. Det är rädslan för
    att vi inte ska kunna leva autonoma liv-

  524. -och veta att vi,
    åtminstone någonstans, är trygga.

  525. Montaigne hade en bild,
    där det bakom affären-

  526. -borde det finnas ett rum där man
    kan samtala med vänner i trygghet.

  527. Men vi blir inte trygga
    i Bruces samhälle heller-

  528. -eftersom vi mycket väl
    kan bli avlyssnade av polisen-

  529. -även om vi har ett riktat system.

  530. Jag tror inte heller att det fungerar
    att förlita sig på nåt slags kantianism.

  531. Det finns också nåt som har beskrivits
    som en europeisk besatthet-

  532. -med att ha kontroll över
    hur vi tar oss ut.

  533. Det handlar egentligen om
    nåt slags hedersetik...

  534. ...där vi vill att...

  535. Ingen ska se mig naken, eller på
    ett sätt som jag inte har samtyckt till.

  536. Det skapar en helt annan skiljelinje-

  537. -för det här privata rummet
    som ska förbli skyddat.

  538. Slutligen har vi utilitarismen-

  539. -och en mer alldaglig rädsla för att vi
    ska utnyttjas med hjälp av dessa data.

  540. Det är nog den viktigaste oron.
    Det är också intressant...

  541. Du nämnde Psaltaren
    och den bibliska tanken här.

  542. Jag har diskuterat det,
    eftersom man ju kan spekulera kring-

  543. -hur ett samhälle skulle fungera-

  544. -om man struntade i säkerhets-
    problemen. Ingen blir utnyttjad.

  545. Tänk om vi var fullständigt...

  546. Om vi kunde
    läsa varandras tankar och så vidare...

  547. Är det ett idealsamhälle
    eller ett fruktansvärt samhälle?

  548. Den utilitaristiska filosofen Jonathan
    Glover har försvarat den här tanken.

  549. Det kanske skulle förändra
    våra sociala relationer och så vidare-

  550. -men det kanske vore bra,
    medan andra, som Thomas Nagel-

  551. -menar att det vore en katastrof,
    speciellt för våra sociala relationer-

  552. -om vi inte kunde
    dölja saker för varandra-

  553. -som vi egentligen vet, men som vi
    undertrycker när de inte är synliga.

  554. Det finns många filosofiska
    diskussioner om privatlivet-

  555. -med olika grund för var skiljelinjen
    bör gå för det som ska hållas privat.

  556. Olika filosofisk grund ger olika svar.

  557. I boken saknas bra argument för att
    dra skiljelinjen där Bruce vill dra den.

  558. Det är ett problem. Ett problem
    är också att jag inte längre tror på-

  559. -den här skillnaden mellan riktad
    övervakning och massövervakning.

  560. Jag menar att det inte finns
    nån riktig skillnad.

  561. I det samhälle som vi har nu,
    och kommer att ha framöver-

  562. -går det inte att göra den skillnaden.

  563. Det kanske är en defaitistisk position,
    som du säger, men då är jag defaitist.

  564. Sen är jag glad att det finns
    ett område där vi håller med varandra.

  565. Du pratade inte om det här,
    men det är en viktig del av boken-

  566. -där du argumenterar
    för större transparens i samhället.

  567. Det tror jag är det som fungerar.

  568. Vi kan inte undvika att bli sedda,
    men vi kan kräva en ömsesidighet-

  569. -och att vi får veta allt om Storebror,
    eftersom han vet allt om oss-

  570. -och vad han gör med dessa data
    som han samlar in om oss.

  571. Det är mitt förslag.

  572. Hellre än din tes,
    som desperat försöker skapa-

  573. -den här skiljelinjen
    mellan riktad och massövervakning-

  574. -bör man sträva efter ett system
    där vi genom lagstiftning-

  575. -kräver av myndigheter och företag
    att de berättar vad de vet om oss.

  576. När de inte gör det får man lita till
    folk som Snowden, visselblåsare-

  577. -som borde bli våra hjältar.

  578. Bara för att avsluta där du avslutade-

  579. -tycker jag att det är en fantastisk
    metafor som du använder-

  580. -att vi har blivit produkter, att vi
    inte längre är klienter eller köpare-

  581. -av tjänster på nätet, utan att vi
    säljer oss själva och våra data.

  582. Det gör att vi kan använda Facebook
    och alla andra tjänster "gratis".

  583. Jag vill också bara kasta in
    en väldig utopisk idé-

  584. -om hur vi skulle kunna bromsa
    lite av den här övervakningsivern.

  585. Det skulle vara att helt enkelt förbjuda
    kommersiell reklam.

  586. Då skulle intresset för att samla in
    dessa data bli väldigt mycket mindre.

  587. Jag vet att det är nästan omöjligt
    att ens säga och tala för-

  588. -och att det är en väldigt känslig
    fråga, men det är vad jag tycker.

  589. Det finns även andra anledningar.
    Det skulle ge oss några av de saker-

  590. -som Bruce vill åstadkomma genom
    en mer begränsad övervakning. Tack.

  591. Tack, Torbjörn.
    Jag glömde säga en sak tidigare.

  592. Torbjörn har också skrivit
    en väldigt intressant bok om privatliv-

  593. -en filosofisk bok,
    som är väldigt intressant-

  594. -och där han utvecklar många...
    Den finns tyvärr bara på svenska.

  595. -Google Translate.
    -Då blir den privat för mig.

  596. Tack så mycket till er båda två.

  597. Har du några tankar eller reaktioner,
    Bruce? Har du nåt att säga?

  598. Det är fantastiskt att få kommentarer
    från en teolog och en filosof.

  599. Och jag menar inte det som ett skämt.
    Det här är väldigt djupa frågor.

  600. Bibelcitaten är viktiga.

  601. Många religioner får sin kraft-

  602. -av en allseende gudom, som vet
    när du sover och när du är vaken-

  603. -och när du har varit god eller elak.
    Det har vi fått lära oss som barn.

  604. -Det är väldigt grundläggande frågor.
    -Här är det Jultomten, här i Sverige.

  605. Hos oss också.

  606. Det finns grundläggande frågor
    kring privatlivet.

  607. Du har rätt i att min filosofiska
    underbyggnad är slarvig.

  608. Det är inte den bok jag har skrivit,
    men det är en viktig diskussion.

  609. Vad betyder det här?
    Var vill vi, som samhälle, dra gränsen?

  610. Så länge som... Jag kommer från
    en säkerhetsbakgrund.

  611. Jag ser ju ett stort värde i - det här
    är nåt som jag tog upp i min förra bok-

  612. -att hitta dem bland oss
    som är dåliga för vårt samhälle.

  613. Vi ger frivilligt polisen otrolig makt-

  614. -att undersöka våra privatliv.

  615. Vi gör det för att vi vet
    att vi behöver lösa brott.

  616. Vi behöver hitta
    och straffa brottslingar-

  617. -och ha nåt slags
    avskräckande system-

  618. -och vi får det genom utredningar.

  619. Sättet som vi kan göra det på
    i samhället, åtminstone teoretiskt-

  620. -är genom transparens.
    Vi har domstolsprocesser-

  621. -och en massa processer
    som de som har makten måste följa-

  622. -som ser till
    att de inte missbrukar sin makt.

  623. Du har rätt i att skiljelinjen mellan
    riktad och massövervakning är stökig-

  624. -men jag tror inte på en värld
    där vi inte behöver åtala brottslingar.

  625. Så länge det behövs
    måste man ta reda på saker.

  626. Om du utreds för brott måste vi få veta
    vad du gör, med en domstolsorder.

  627. För mig finns en skillnad
    mellan riktad och massövervakning.

  628. Riktad övervakning...
    Om du är under utredning-

  629. -får jag tillstånd från en domare
    att utreda dig enligt vissa regler.

  630. Motsatsen är att alla övervakas för att
    nån för eller senare gör nåt dumt-

  631. -och då har jag redan informationen.
    Det är skillnaden.

  632. Får vi information efter eller före?

  633. Det vi slåss mot i USA
    är allt det som handlar om före.

  634. Vi kommer att ha allas telefonuppgifter.
    Så att om vi...

  635. Och det gör
    att man kan övervaka bakåt i tiden.

  636. "Följ den bilen" är övervakning-

  637. -men när jag har
    Googles kartdata för alla människor-

  638. -kan jag följa samma bil för två
    veckor sen. Det är nåt nytt i samhället.

  639. Då rör man sig
    mer i gudars domäner...

  640. ...än vad vi traditionellt
    ser som polisens befogenheter.

  641. Kommentarerna om privatlivet som en
    del av människans värdighet är viktiga.

  642. Jag pratade inte om det, men i boken
    tar jag upp varför privatliv är viktigt.

  643. För mig handlar det om möjligheten-

  644. -att visa upp dig själv offentligt
    på dina egna villkor.

  645. Jag kan sitta här och välja
    vad jag vill säga och inte säga.

  646. Det ger mig personlig frihet,
    personlig makt och personlig autonomi.

  647. Det är ännu viktigare,
    och jag tror att det här är...

  648. När folk övervakas anpassar de sig.

  649. Om du blir övervakad är det mindre
    troligt att du kan vara annorlunda.

  650. Sociala förändringar skapas
    av människor som är annorlunda.

  651. Nyligen blev samkönade äktenskap
    lagliga i alla USA:s delstater.

  652. I USA är det otroligt. Det gick från att
    vara omöjligt till att bli oundvikligt-

  653. -på ett år, utan att det fanns nån
    mellanposition. Det är helt otroligt.

  654. För att det ska kunna inträffa,
    måste det nån gång i det förflutna-

  655. -ha funnits nån som provade
    homosexuellt sex och tyckte om det.

  656. Det var fortfarande socialt fel
    och olagligt, men nån gjorde det.

  657. Sen kom fler som gjorde det. Samma
    sak gäller legalisering av marijuana.

  658. Nån röker på
    och tycker att det inte är så hemskt.

  659. Sen tar det några generationer, men
    till slut kommer man till legalisering.

  660. Men om man har övervakning här,
    och folk anpassar sig-

  661. -får man inga nya idéer,
    tankar och handlingar.

  662. Subkulturen kommer aldrig fram.
    Man förlorar en social utveckling.

  663. Det är det jag är mest rädd för.
    Att det inte är jag...

  664. Att det är de i mitt samhälle,
    i mitt land, på min planet-

  665. -som tänker tankar
    som är nya och omstörtande-

  666. -som om 50 eller 100 år är självklara,
    men vi vet bara inte om det än.

  667. Det är privatlivets riktiga värde,
    det som jag vill bevara.

  668. Tack. Båda våra kommentatorer
    vill säga nåt här.

  669. Vill du börja, Susanne?

  670. Tack.

  671. När du pratade
    funderade jag över vem "vi" är.

  672. När vi använder dessa argument
    pratar vi hela tiden om "vi".

  673. Är "vi" alla i detta rum,
    hela det västerländska samhället-

  674. -eller alla människor?
    Vem är dessa "vi" som säger:

  675. "Det är så här
    jag skulle vilja tolka..."

  676. "Det är så här jag skulle vilja
    att man ser på mitt privatliv"-

  677. -"och det är de här gränserna
    jag sätter upp."

  678. Men om jag frågar dig kommer du att
    ha en annan uppfattning om privatlivet.

  679. Men när det används...
    Ni försvarar och litar båda på lagar.

  680. Jag brukar också göra det.

  681. Men jag ser också att om man tar
    den här artikeln som jag citerade ur-

  682. -EU:s stadga om mänskliga rättigheter,
    är det grundläggande-

  683. -med rätten till ett privatliv.

  684. Det finns i artikel åtta.
    Det finns även i FN:s deklaration.

  685. -Det var många undantag...
    -Ja, man har en rättighet...

  686. ...och sen har man
    en lista på undantag.

  687. Om det inte utgör
    ett hot mot nationens säkerhet-

  688. -eller skydd för hälsa eller moral...

  689. Det är där jag kommer in.

  690. Vem är det som tolkar
    den grundläggande rättighet-

  691. -som vi alla har, och vem är det
    som har makt att göra den tolkningen?

  692. Är det politikerna
    eller är det domarna eller är det...

  693. Vem är det som bestämmer?

  694. Och om vi känner
    att det finns ett hot nånstans...

  695. ...från det stora Ryssland,
    eller nån stor fiende...

  696. Då måste vi argumentera
    för ytterligare övervakning-

  697. -för att vi har identifierat nåt
    som utgör ett hot-

  698. -mot andra grundläggande rättigheter.

  699. Det dyker alltid upp krockar
    mellan olika rättigheter-

  700. -och olika slags säkerhetsfrågor.

  701. -Vem är "vi" i den diskussionen?
    -Torbjörn vill nog säga nåt.

  702. Jag vill prata om det här med riktad
    övervakning och massövervakning.

  703. Om vi tänker oss att vi främst
    oroar oss för att människor blir fega-

  704. -och slutar kämpa för reformer och så
    om de tror att de blir övervakade-

  705. -då tror jag inte att riktad övervakning
    är en särskilt bra idé.

  706. Du nämnde samkönade äktenskap.

  707. Det var olagligt, som du säger,
    men så länge det är olagligt-

  708. -så är ju homosexuella ett legitimt mål.

  709. Jag menar att...

  710. Jag tror inte att den bästa vägen här
    är att göra den åtskillnaden-

  711. -utan snarare att alla övervakas och att
    vi vet vad de gör med informationen.

  712. Jag har ju tillhört en grupp
    som har utsatts för riktad övervakning-

  713. -som nu förstås anses som helt ofarlig-

  714. -men under kalla kriget
    var man suspekt om man var vänster.

  715. I dag, om man är muslim och har
    radikala åsikter, blir man en måltavla.

  716. Det här är människor som är beredda
    att tänka radikala tankar hela vägen.

  717. Ibland vore det bättre om de inte gör
    det, men de har den här kreativiteten.

  718. Jag tror inte
    att det här kommer att fungera.

  719. Jag tror också att det kan
    verka avslappande att veta-

  720. -att det inte bara är vänsterfolk eller
    muslimer som övervakas, utan alla.

  721. Ta DNA-register som ett exempel.

  722. Nu finns bara misstänkta personer
    i de registren-

  723. -men jag skulle välkomna
    att alla fanns med i registren-

  724. -hellre än att vissa är med och andra
    inte på grundval av vårt beteende.

  725. Då måste man förstås veta
    vad de gör med informationen.

  726. Vi måste bli modigare
    och mer ifrågasättande-

  727. -även om vi inser att vi kommer att
    övervakas oavsett vilket system vi har.

  728. Ett par saker. Jag tror att det är...

  729. Det vi gör här är att balansera
    gruppers intresse mot egenintresse.

  730. Data är oerhört värdefullt
    för oss som grupp.

  731. Samtidigt är det oerhört personligt.
    Jag tog mig hit snabbare-

  732. -eftersom Google övervakade
    alla bilar som använde Google Maps-

  733. -och kunde säga snabbaste vägen hit.

  734. Vi tjänade alla på den övervakningen.

  735. Men varför ska Google Maps
    veta var vi är hela tiden?

  736. Du pratade om DNA.
    Medicinska data. Det här är svårt.

  737. Det finns antagligen
    enormt stora värden i det.

  738. Det skulle förlänga allas våra liv
    med flera år eller årtionden-

  739. -om vi skulle ha allas
    medicinska data i en stor databas-

  740. -och ge forskare tillgång. Det skulle ge
    oräkneliga medicinska fördelar.

  741. Samtidigt - jösses.

  742. Eller hur? Så hur ska vi göra det här?

  743. Data kan vara värdefullt för brotts-
    bekämpning, men de är personliga.

  744. Jag tror inte
    att det finns ett enkelt svar.

  745. Vi kan säga att nyttan av att samla in
    medicinska data är så stor-

  746. -att det är viktigare än integriteten.

  747. Vi kan säg att Google Maps ska
    kasta bort alla data efter användning-

  748. -eller att viss övervakning förbjuds
    helt. Det beror på omständigheterna.

  749. Jag har en kollega som studerar
    hur studenter använder läroböcker-

  750. -då alla läroböcker nu finns på nätet
    och man kan se hur de används-

  751. -på ett helt nytt sätt. Man vet
    vad de läser, hur fort, allt möjligt.

  752. Han har ansökt om
    alla etiska prövningstillstånd-

  753. -och övervakar studenter
    när de läser sina läroböcker.

  754. Han ser vad som fungerar och inte,
    och förbättrar studenters studievanor-

  755. -och det är jättebra forskning,
    som möjliggörs av övervakning.

  756. Vill vi ha det eller vill vi inte det?

  757. Det kommer att bli väldigt intressant
    att se alla dessa exempel.

  758. Det kommer inte att finnas
    bara en princip som vi kan använda.

  759. Det kommer att vara olika
    från tillfälle till tillfälle.

  760. Jag tror att det här
    med "vi" och "de" är väldigt viktigt.

  761. Målgruppen
    skulle kunna vara en stor grupp.

  762. I USA är det muslimer.
    Det kan vara homosexuella.

  763. Vem är "vi" och vem är "de"?
    Jag tänker mycket på det.

  764. Jag tror att det ligger i vår natur
    att skapa ett "vi"-

  765. -och för att göra det behövs ett "de".

  766. Vi får ingen världsregering
    förrän vi hittar utomjordingar.

  767. Då får vi den omedelbart. Då finns
    ett annat "de", och plötsligt...

  768. Jag har en bok
    där jag försvarar den idén.

  769. Så länge du och jag
    ser annorlunda ut är vi olika-

  770. -men om de har tentakler blir alla här
    "vi", för då vet vi vem "de" är.

  771. Det kommer att bli en evig kamp.

  772. Jag tror att vi blir bättre på det.

  773. Under århundradenas lopp
    blir vi mer och mer inkluderande-

  774. -och jag tror att vi kommer att hamna...
    I etiska diskussioner tar vi med djur.

  775. Det hade varit otänkbart för 500 år sen.
    Det hade varit skrattretande-

  776. -men nu kan några av oss göra det,
    och jag tror att vi blir fler och fler.

  777. Det är intressant att se.
    På lång sikt kommer det att förändras.

  778. Jag ville ta upp en sak till,
    men det försvann.

  779. -Du ville säga nåt?
    -Ja, jag tänkte på...

  780. ...att vi gör olika gränsdragningar
    inom olika områden.

  781. Till exempel alla data
    om var jag rör mig...

  782. Du var i Gamla stan och det samlades
    in data om det, och jag är här...

  783. För mig är det ingen stor sak.
    Det är ingen hemlighet var jag är.

  784. Jag kan avslöja det, men...

  785. Men om min medicinska journal
    och data om min medicinska journal-

  786. -och om vilka gener
    som har större sannolikhet än andra-

  787. -att utveckla särskilda cancerformer.
    Skulle det vara...

  788. Skulle det vara okej om min arbets-
    givare eller framtida arbetsgivare-

  789. -skulle be mig om att få tillgång
    till min journal och mina DNA-data-

  790. -och min genetiska struktur?

  791. Det skulle jag inte vara
    riktigt lika bekväm med-

  792. -eftersom jag antar att syftet skulle
    vara att arbetsgivaren skulle säga:

  793. "Vi behöver bara A-personer för att
    utföra det här speciella arbetet"-

  794. -"så tyvärr, du har en genetisk defekt
    som gör att vi inte kan anställa dig."

  795. Det är ett annat slags privatsfär...

  796. ...som har att göra med...

  797. ...att skydda mitt värde
    som människa...

  798. ...och som medborgare i en demokrati.

  799. Du motsätter dig
    vad dina data ska användas till.

  800. De används för att kategorisera dig,
    antingen orättvist-

  801. -eller så är det en korrekt kategori,
    men de har inte med det att göra.

  802. För att bli anställd ska du inte
    kategoriseras utifrån din hälsa.

  803. Men man kan förstå att arbetsgivaren
    vill ha de bästa människorna för jobbet.

  804. Men samhället kan bestämma
    att det är olagligt. I USA finns det...

  805. Vissa anledningar får inte användas
    för att neka nån ett jobb eller ett lån.

  806. Man får inte
    fatta beslut på grund av ras.

  807. Du kanske vill, det kanske
    vore lönsamt, men det är förbjudet.

  808. -Det är förbjudet, men det går att göra.
    -Javisst, och det finns omvägar.

  809. Man säger inte att det handlar om ras.

  810. På 70-talet fick man inte göra skillnad
    utifrån ras, men postnummer var okej.

  811. Gissa vad som hände? Nu får man inte
    det längre, men det finns andra sätt.

  812. Man kanske ser på
    vad folk köper för matvaror-

  813. -och utifrån det kan man se deras
    etnicitet och ålder. Det är inte svårt.

  814. Du pratade om platsdata.
    Finns Uber här? Okej.

  815. Uber är ett skumraskföretag,
    men de erbjuder en bra tjänst.

  816. De har en blogg där de publicerar
    coola saker om sina data.

  817. En sak som de publicerade var att de
    letade efter... De kallade det nånting.

  818. De letade efter folk som tog en bil
    till en specifik plats på kvällen-

  819. -som sen tog en bil tillbaka
    nästa morgon.

  820. Det var folk som åkte för att ha sex. De
    publicerade en artikel om var det sker-

  821. -i vilka områden och vilka veckodagar,
    och det var väldigt lättsamt.

  822. Men - jösses, eller hur?

  823. De publicerade sammanfattningar,
    men de hade alla individers data.

  824. Det finns inga lagliga hinder för att
    räkna upp dem som gör det oftast...

  825. -...och ge dem ett diplom.
    -Kör man sin egen bil?

  826. Jag hade lånat en.

  827. Dessa data... Man kan hitta
    väldigt intima saker i dessa data.

  828. Jag tror att de flesta av oss
    inte inser vad man kan få reda på.

  829. Stora delar av diskussionen om data
    fokuserar på insamlingen.

  830. Kameror,
    nummerskyltsavläsare, platsdata-

  831. -e-postavsändare- och mottagare, sms.

  832. Man fokuserar väldigt lite på analysen.

  833. Jag tror att folk skulle bli förvånade
    av vad man kan få veta genom analys.

  834. Man kan förutsäga var folk bor,
    var de jobbar, vem deras vänner är-

  835. -deras politiska åsikter,
    deras sexuella läggning-

  836. -massor av saker om dem,
    från förvånansvärt oskyldiga data.

  837. Vi blir bättre och bättre på det.
    Felprocenten spelar roll.

  838. Inom reklamvärlden är en felprocent
    på en tredjedel jättebra-

  839. -jämfört med en annonstavla med en
    felprocent på 99 procent. Allt är bra.

  840. Om du utför en drönarattack är en
    felprocent på en tredjedel väldigt illa.

  841. Snart släpper vi in publiken,
    men först vill Torbjörn säga nåt.

  842. En snabb kommentar om DNA.

  843. Det måste förstås regleras
    hur det får användas.

  844. Dessutom kan man ju inte ha privata
    sjukförsäkringar, till exempel...

  845. -...utan bara offentlig sjukvård.
    -I mitt land tror man inte på det.

  846. -Jag vet.
    -Det är frustrerande.

  847. Det är så man måste hantera
    de här problemen.

  848. Man kan ju inte dölja sitt DNA.
    Vem som helst kan analysera det.

  849. Det går inte att hålla det privat,
    på så vis att ingen kommer åt det.

  850. Men att förbjuda vissa
    användningsområden är det bästa.

  851. Det gäller många av de här problemen
    som vi har diskuterat.

  852. Okej. Nu vill jag... Jag tror nog
    att publiken vill ställa frågor, så...

  853. Tidigare pratade du om
    DNA-registrering.

  854. Om man är född i Sverige efter 1972-

  855. -och inte aktivt har sagt åt staten
    att inte behålla ens DNA-

  856. -finns ens DNA registrerat.

  857. Det finns nåt
    som heter PKU-registret där...

  858. När man föds testas ens blod
    för vissa genetiska sjukdomar.

  859. Men sen sparas dessa data.

  860. De sa att det bara var
    för forskningsändamål.

  861. Sen hade vi en framstående politiker
    som blev knivhuggen och dödad-

  862. -och plötsligt sökte de i dessa data.

  863. -Hittade de gärningsmannen?
    -Ja.

  864. Men problemet är ambitionsglidning.

  865. Om det finns data är det väldigt
    frestande att göra mer med dem.

  866. Det är lite missvisande,
    för de hittade honom inte.

  867. De kunde matcha DNA
    mot en identifierad person.

  868. Det är för att data därifrån
    finns lagrade i lådor i en källare-

  869. -så man kan inte köra dem i en dator
    och se om man hittar en träff-

  870. -som man gör med polisens DNA-data.

  871. Det är en annan sak än det jag
    förespråkar, ett mer rättsligt register.

  872. Det här registret
    är nästan oanvändbart.

  873. Det har använts vid det här tillfället,
    men annars inte-

  874. -eftersom det inte går
    att använda rättsligt.

  875. I USA gör vi en folkräkning
    vart tionde år.

  876. Data därifrån används
    för att beräkna folkrepresentationer-

  877. -och det är förbjudet att använda dem i
    andra syften, för att få folk att delta.

  878. Under andra världskriget
    användes de för att internera japaner.

  879. Det var olagligt, och det är lite
    som du säger. Om det finns data-

  880. -kommer folk att vilja använda dem.

  881. Vi har ett nödläge,
    det är krig, vi använder dem.

  882. Nu kan vi se att det var dåligt-

  883. -men jag kan inte säga
    att vi inte skulle göra om det.

  884. Tekniken rör sig snabbare... Förlåt.

  885. Vanligtvis rör sig tekniken
    snabbare än lagstiftarna-

  886. -men om nåt förändras socialt-

  887. -tror jag att politiken kan förändras
    väldigt fort och kan ta över tekniken.

  888. Tack för ett bra föredrag.
    Ni pratade lite om transparens.

  889. Jag undrar i hur stor grad
    ni tror att transparens kan avhjälpa-

  890. -övervakningens dåliga effekter.

  891. Vill du börja?

  892. Det är huvudtesen i min bok,
    och när jag pratar om det här.

  893. Det finns ju även problem med det här-

  894. -för om allt är transparent
    får jag veta saker om dig.

  895. Det första steget är att du får veta vad
    myndigheter och företag vet om dig-

  896. -och man kan gå längs den vägen-

  897. -men sen får jag också veta saker
    om dig. Det är ingen enkel lösning.

  898. Jag tror att man måste
    gå genom nåt slags process-

  899. -som vi redan är på väg in i, där man
    bryr sig mindre om hur man tar sig ut.

  900. Vi måste inse
    att vi alla har blivit kändisar-

  901. -och att paparazzi finns överallt,
    och att det inte går att gömma sig.

  902. Då ser man bara dum ut på bilderna.

  903. Det krävs nog
    nåt slags psykologisk förändring-

  904. -innan vi kan skörda frukterna
    av det maximalt transparenta samhälle-

  905. -som jag förespråkar, men det är
    långt borta och det är inte enkelt.

  906. En populär bok på engelska är "The
    Transparent Society" av David Brin.

  907. Transparens är viktigt, men det
    löser inte övervakningsproblemet.

  908. Anledningen är maktobalansen.

  909. När en polis säger
    "Visa mig din legitimation"-

  910. -gör det inte att det blir okej för dig
    att se hans legitimation.

  911. När en läkare säger "Ta av dig
    kläderna," säger inte du "Du först."

  912. Det finns en fundamental maktobalans.
    Det är så man får se det.

  913. Att hålla nåt hemligt ökar din makt.
    Att bli avslöjad minskar din makt.

  914. Här har vi myndigheterna och folket.

  915. Om individer har ett privatliv
    ökar det deras makt-

  916. -och skillnaden blir mindre.
    Det är bra för friheten.

  917. Övervakning minskar individers makt
    och ökar klyftan. Dåligt för friheten.

  918. Okej? Här uppe betyder en större
    privatsfär för myndigheterna-

  919. -att klyftan ökar, och det är dåligt.
    Hemliga myndigheter är dåligt.

  920. Transparens minskar
    myndigheternas makt-

  921. -och det är bra för friheten.

  922. Dynamiken blir annorlunda
    när man har en maktobalans.

  923. Om du och jag känner till
    varandras hemligheter förblir vi likar.

  924. Det blir annorlunda,
    men vi förblir likar.

  925. När man har en maktobalans
    är man inte likar.

  926. Att båda parterna blir mer transparenta
    eller mer hemliga hjälper inte.

  927. Multipeln är större,
    så de blir mycket mer hemliga-

  928. -och jag blir mycket mer transparent.

  929. Det är så man får se det.
    Transparens löser inte problemet-

  930. -eftersom det finns
    en maktobalans som inte försvinner.

  931. Som du säger kan man aldrig uppnå
    total transparens-

  932. -eftersom transparens
    alltid handlar om kategorisering.

  933. Det kan vara transparent
    att jag är muslim-

  934. -eller att jag är homosexuell
    eller nåt annat-

  935. -men det handlar alltid om
    att kategorisera var man hör hemma-

  936. -och vem som har den informationen.

  937. Om myndigheterna vet att jag är
    homosexuell vet jag att de vet det-

  938. -men vad gör jag med den kunskapen?

  939. Jag tror snarare att det ligger
    ett djupt existentiellt värde i-

  940. -att vi behöver
    en möjlighet att kunna ljuga.

  941. Jag säger det som etikforskare.
    Det handlar om vem vi är-

  942. -och vår frihet att definiera oss själva
    och den information som finns om oss.

  943. Det finns förstås ett givande
    och tagande i all transparens.

  944. Det handlar också om
    kvaliteten på myndigheterna.

  945. Det blir värre om vissa stater
    vet saker om en än andra.

  946. Transparens skulle kunna vara
    lösningen om man har bra stater.

  947. -Jag vet inte om du är anarkist...
    -Jag är inte anarkist.

  948. Du låter som en
    när det gäller den här modellen.

  949. Det skulle ju gå om man gjorde sig av
    med staten, men jag tror inte på det.

  950. Annars måste man ha
    nåt slags tilltro till myndigheterna.

  951. Transparens är den bästa lösningen.

  952. Vi håller på att tappa mark på den lägre
    nivån. Privatlivet är inte lika skyddat.

  953. Det håller jag helt med om.

  954. Jag skulle vilja prata om
    delning av data.

  955. Diskussionen handlar oftast om vad
    stater och företag gör med våra data.

  956. Jag tror att oavsett vilka lagar vi har-

  957. -kan vi aldrig lita på att de företagen
    ska förvalta våra data på ett bra sätt.

  958. Ett effektivare sätt vore att begränsa
    vilka data de får tillgång till.

  959. Jag tror att det blir den revolution
    som kan förändra det här problemet.

  960. Jag menar inte
    att man inte ska lämna ut några data-

  961. -utan att rätten till ett privatliv bör
    betyda att vi väljer vad vi lämnar ut.

  962. Teknikvärlden, som jag är en del av-

  963. -talar ofta om det som att det är
    nödvändigt att lämna ut data.

  964. Om du vill ha en Stockholmskarta
    behöver du inte berätta var du är.

  965. Du kan ladda ner kartor
    över hela världen till din mobil-

  966. -och göra kartsökningen i din mobil-

  967. -och aldrig lämna ut dina platsdata.

  968. Du kan lösa det problemet
    utan att berätta för Google var du är.

  969. Google vill ju veta var vi är,
    det är en del av deras affärsmodell-

  970. -men det finns inget
    som tekniskt tvingar oss att göra det.

  971. Folk pratar ofta som om det enda sättet
    på vilket man kan kommunicera-

  972. -är genom att göra det via Facebook.
    Det är ingen naturlag.

  973. Jag skulle vilja få kommentarer på det,
    särskilt från Bruce, eftersom du är-

  974. -så framstående inom krypteringsfältet,
    där man tekniskt kan lösa det här-

  975. -och i princip strunta i de lagar
    som gäller i det land som man verkar i.

  976. -Tack.
    -Du har rätt. Jag tror att...

  977. Många företag
    försöker föra fram åsikten-

  978. -att man bör reglera användandet
    och inte insamlandet av data.

  979. Microsoft, Google, Facebook... Alla
    säger att man måste samla in data-

  980. -och sen bör man reglera användandet.
    Det är trams.

  981. Europeiska lagar är bättre. De gäller
    insamling, användning och lagring.

  982. Allt måste regleras.

  983. Många saker kan göras
    på ett sätt som skyddar privatlivet-

  984. -men om inga lagar tvingar företag
    att göra det gör företagen det-

  985. -som ger dem störst vinst
    och flest data precis som de vill.

  986. Så du har rätt när det gäller det.

  987. Men jag...

  988. Jag tror inte att man inte kan lita på
    företagen. De följer oftast lagen.

  989. Om lagen skulle säga att Google inte
    får samla in platsdata skulle de sluta.

  990. Företaget är för stort för att de ska
    bryta mot lagen bara för att de kan.

  991. De är ingen brottslig organisation.

  992. Jag tror att regleringar skulle fungera
    mot de flesta företag-

  993. -med vissa undantag-

  994. -och mot de flesta myndigheter,
    med vissa undantag.

  995. Det är vårt bästa verktyg. Transparens
    gör att vi vet när nåt dåligt händer-

  996. -och då får vi det här.

  997. Det kommer inte att kunna stå emot
    alla geopolitiska händelser-

  998. -men i stort kommer det att fungera.

  999. Men du har rätt i att regleringar behövs
    på alla steg på vägen.

  1000. Man kan inte bara reglera
    användandet, och låta allt annat vara.

  1001. Hur får man företag att inte
    förvara våra data på ett uselt sätt?

  1002. Reglera datalagring.

  1003. Det faktum att det inte finns
    några kännbara straff-

  1004. -gör att företag som Ashley Madison
    kan behandla sina kunddata uruselt.

  1005. De kan inte straffas för det.
    Så man behöver reglering överallt.

  1006. Jag tror att lagarna kommer att följas,
    inte av brottslingar, men av företag.

  1007. Jag ska utnyttja min position
    som moderator här.

  1008. Det låg nåt mer i frågan. Vi diskuterar
    här som om transparens är framtiden.

  1009. Kan det inte vara tvärtom?
    Att många människor lämnar Internet-

  1010. -och skapar andra slags grupper
    som inte går att övervaka-

  1011. -och som blir mer privata
    än nåt vi hittills har sett?

  1012. Jag tror att det är framtiden,
    och inte transparens.

  1013. Vi ser det med saker som Bitcoin-

  1014. -med Whatsapp och saker som
    Apple jobbar på med sin kryptering.

  1015. Det finns tekniska lösningar
    som bara behöver stimuleras.

  1016. Vissa företag gör det bara för att göra
    myndigheterna arga. Det är bra PR.

  1017. Det gör det inte för dig,
    utan för att det är bra PR.

  1018. Men om vi börjar få lagar
    som reglerar det här...

  1019. Ett annat sätt är att inte övervaka
    alla, utan göra stickprov här och där.

  1020. Alla data behövs inte.
    Efter fem sekunder är de oanvändbara.

  1021. Det finns många sätt att skydda
    privatlivet med teknikens hjälp-

  1022. -men vi behöver nåt
    som får företagen att göra det.

  1023. Torbjörn?

  1024. Det som var fantastiskt i din bok-

  1025. -var när du beskrev hur vi
    frivilligt ger bort vårt privatliv-

  1026. -för att vi får nåt i gengäld.

  1027. Vi får gratis Facebook, gratis Google,
    GPS och alla möjliga tjänster.

  1028. Det är som reklam-tv. Ingen skulle
    betala för att se de kanalerna.

  1029. I USA betalar nästan alla för kabel-tv,
    så det stämmer inte.

  1030. Reklamen står för
    merparten av kostnaden-

  1031. -så man betalar när man köper varor,
    inte när man utnyttjar tjänsterna.

  1032. Jag undrar om det är
    realistiskt att tro att folk skulle-

  1033. -sluta bete sig som varor,
    som du säger i din bok.

  1034. Om man inte reglerar det kraftigt, men
    då skulle de tjänsterna kosta pengar.

  1035. Jag vill förstås att vi ska förbjuda all
    kommersiell reklam över huvud taget.

  1036. Då skulle företag inte behöva
    ta reda på våra hemligheter.

  1037. Jag kan ge dig
    några bra argument för det efteråt.

  1038. Vi börjar närma oss slutet.
    Vi kan ta en fråga till-

  1039. -och sen måste vi tyvärr
    lösa upp den här gruppen.

  1040. Tack för ett fantastiskt föredrag.

  1041. Jag undrar hur pass väl du känner till
    det system som vi har i Sverige.

  1042. Alla svenska medborgare
    har ett tiosiffrigt personnummer-

  1043. -och det finns i princip obegränsade
    möjligheter att samköra register.

  1044. Man måste lämna sitt personnummer
    för att få ett bibliotekskort-

  1045. -eller för att få ett gymkort.
    Man behöver det överallt.

  1046. Jag pratar inte om medicinska
    journaler, där vi har ett system-

  1047. -där alla läkare kan se
    vad du har gjort-

  1048. -innan du blev deras patient.

  1049. Så om en patient
    skulle gå till en ortoped-

  1050. -kan den läsa
    gynekologens anteckningar.

  1051. Och...

  1052. Det är skrämmande att befolkningen
    inte gör uppror mot det här systemet.

  1053. Som du kanske vet har vi ett parti
    med femton procent i riksdagen-

  1054. -som är ett väldigt otrevligt parti
    med rötter i naziströrelsen.

  1055. Om det partiet växer, vilket det tyvärr
    verkar som, och skulle få majoritet-

  1056. -vilket inte skulle förvåna mig-

  1057. -och få tillgång till registren, kunde
    de missbruka dem på alla möjliga sätt.

  1058. Ibland avundas jag er i USA, som
    har ett socialförsäkringsnummer-

  1059. -men där möjligheterna till samkörning
    av register är begränsade.

  1060. Vi har ett niosiffrigt nummer,
    men vi är många fler än ni.

  1061. Vad gör ni med den sista siffran?

  1062. Är det en kontrollsiffra? Okej.

  1063. Vi har ett niosiffrigt nummer
    som var tänkt för en enda sak-

  1064. -men som nu används för allt möjligt,
    kanske inte riktig lika mycket som här-

  1065. -men man gör många samkörningar.
    Det gör man ändå.

  1066. Det har att göra med det jag sa
    om analys i stället för insamling.

  1067. Det är förvånansvärt enkelt
    att samköra databaser.

  1068. Även om de har olika format
    kan man samköra dem.

  1069. Det är enklare än man tror.
    Det är svårt att vara anonym.

  1070. All anonymitetsforskning
    säger att det är ett svårt problem.

  1071. Det här är...

  1072. Det är framtiden, om man inte
    gör saker och ting olagliga.

  1073. Jag oroar mig för
    om extrempartier får makt-

  1074. -och utnyttjar data för sina syften.

  1075. Jag vet inte om vi kan förhindra det,
    utan att låta bli att samla in data.

  1076. Men värdet... Som du sa kommer folk
    inte att betala för Facebook.

  1077. Jag har sagt det nånstans, att om folk
    fick en hamburgare för ett DNA-prov-

  1078. -skulle det bli långa köer.

  1079. Jag tror att man underskattar sina data.

  1080. Man förstår inte
    vad de kan användas till-

  1081. -och det är enkelt att lämna ut dem
    i utbyte mot en tjänst.

  1082. Googles tjänster är ju rätt häftiga,
    så...vi lämnar ut våra data.

  1083. Om man räknar är ens Facebookdata
    värda kanske nio dollar om året.

  1084. Jag vet inte vad det blir i Sverige.
    Är kursen ungefär åtta mot en?

  1085. Det är inte särskilt mycket, men folk
    skulle inte betala med reda pengar.

  1086. Tack. Därmed avslutar vi
    det här seminariet.

  1087. Jag vill bara säga
    att vi har två olika tankar-

  1088. -om mänsklighetens
    framtida psyke här.

  1089. En är att vi kommer att... Det här
    är nog det som Torbjörn föreslår.

  1090. Vi kommer inte att bry oss om
    att vi övervakas och bli transparenta.

  1091. Vi kommer att förändras psykologiskt
    så att vi inte längre känner-

  1092. -att vi måste äga bilden av oss själva.

  1093. Det du säger är i stället att vi blir
    mindre intresserade av att sälja data-

  1094. -till företag och att vi kommer att
    värna privatlivet betydligt mer.

  1095. Det finns argument för och emot det.

  1096. Vi verkar befinna oss
    mellan de två förutsägelserna.

  1097. Framtiden är öppen.
    Vi får se vad som händer. Tack.

  1098. Tack.

  1099. Översättning: Peeter S. Randsalu
    www.btistudios.com

Hjälp

Stäng

Skapa klipp

Klippets starttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.

Klippets sluttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.Sluttiden behöver vara efter starttiden.

Bädda in ditt klipp:

Bädda in programmet

Du som arbetar som lärare får bädda in program från UR om programmet ska användas för utbildning. Godkänn användarvillkoren för att fortsätta din inbäddning.

tillbaka

Bädda in programmet

tillbaka

UR Samtiden - Privatlivets framtid

Produktionsår:
Längd:
Tillgängligt till:

Hur blir ett samhälle där en sökmotor kan leverera mer information om dig än du själv känner till? Idag blir vårt privatliv mer och mer kringskuret av vår vilja att dela med oss av personlig data utan betänkligheter. Det menar kryptografen och författaren Bruce Schneier, som har skrivit om vårt uppkopplade samhälles inverkan på privatlivet sedan 1990-talet. Dessutom ger filosofen Torbjörn Tännsjö och etikdocenten Susanne Wigorts Yngvesson deras syn på detta samhällsfenomen. Moderator: Henrik Berggren. Inspelat den 21 september 2015 på Spårvagnshallarna, Stockholm. Arrangör: Institutet för framtidsstudier.

Ämnen:
Information och media > Internet och digitala medier, Samhällskunskap
Ämnesord:
IT, Informationssamhället, Informationsteknik, Masskommunikation, Massmedia, Personlig integritet, Politik, Samhällsvetenskap, Statskunskap
Utbildningsnivå:
Högskola

Mer högskola & information och media

Spelbarhet:
UR Skola
Längd
Titta UR Samtiden - Internet och unga med adhd, add och ast

Hat och kärlek på nätet

Näthat har fått mycket uppmärksamhet medan nätkärleken lever rätt mycket i tysthet. Elza Dunkels, docent i pedagogiskt arbete vid Umeå universitet, diskuterar båda dessa begrepp utifrån tekniksyn, barnsyn och moralism. Dessutom ger hon några råd kring ungas personliga säkerhet på nätet och lär ut hur vuxna kan ta selfies som en politisk handling. Inspelat den 24 januari 2018 på Burgårdens konferens i Göteborg. Arrangör: Attention Hisingen-Kungälv.

Spelbarhet:
UR Skola
Längd
Lyssna Bildningsbyrån - historia

Lars Johan och Wendela, två tidningspionjärer

Lars Johan Hierta startade Aftonbladet år 1830 och startade därmed en ny epok i svensk presshistoria. 1841 anställde han Wendela Hebbe, den första kvinnliga skribenten med fast anställning