Det Digitale Bibliotek. Personalisering eller Privacy-by-design?

"Don’t take it personal"– Privacy and information in an algorithmic age.

I IFLA’s Glasgow deklaration står der at “Biblioteker og informationstjenester skal beskytte den individuelle brugers ret til anonymitet og fortrolighed (…).” Alligevel indeholder scenarierne for fremtidens bibliotek, som beskrevet i rapporterne Københavns Biblioteker og Det Sammenhængende Bibliotek, personalisering og øget dataindsamling om borgerne som væsentlige elementer i nytænkningen af bibliotekstilbuddene og de digitale løsninger.

At anonymitet og øget dataindsamling om borgerne udelukker hinanden, er vist at påpege det åbenlyse. Med et fokus på indsamling af borgernes personlige information i de digitale løs-ninger træder bibliotekerne ind i data-økonomien. En økonomi hvor der i stedet for kroner og ører betales med personlig information. Og så er biblioteket ikke længere gratis. Der er pludselig heller ikke lige adgang længere, for der skabes særlige og bedre løsninger (loves vi) til dem, der er villige til at betale med deres personlige information. Vi andre må stå tilbage med et ringere produkt, fordi de algoritmer, der skal finde bøgerne til os, er udviklet til at handle på baggrund af vores personlige information og profil.

Den ‘gode digitale løsning’ og den ‘digitale kuratering’ er sat lig med en ‘folkeoplysningsalgoritme’ der for at kunne virke, skal fodres med store mængder personlig information. Det er uklart, hvorvidt en sådan algoritme ville kunne fungere for en borger der har valgt personalisering og betaling med personlig information fra.

“Og hvad så?” kunne man spørge. “Er personalisering ikke en god ting, hvis det giver en bedre biblioteksoplevelse og en bedre service til borgeren?” Det korte svar er nej. Personalisering er ikke fremtiden.

For godt nok lever vi i et algoritmisk samfund domineret af data-dreven økonomi, algoritmer som beslutningstagere og algoritmisk profilering. Og det skaber bestemt muligheder for nye innovative løsninger på samfundsproblemer. Men samtidig skaber det også udfordringer for beslutningsgrundlaget og retten til beskyttelse af privatliv og personlig information (privacy).

Personlig information er kernen i det algoritmiske samfund. Det er en værdifuld og essentiel vare i den data-drevne økonomi og profilering, og det er den samme ‘vare,’ som er beskyttet af privacy lovgivning og regulering.

Personlig information artikuleres ofte som fodspor, tingenes tilstand og fakta. Den underliggende antagelse er, at personlig information er ‘factive’ – dvs. korrekt henviser til fakta om verden. Denne forståelse implicerer, at mere information betyder mere nøjagtige, fyldige og relevante profiler af individer.

Udfordringen ligger i at denne forestilling om personlig information bygger på en forståelse af information som objektive, sandfærdige, fysiske forekomster i verden, uafhængige af menneskelige agenter. Men menneskers handlinger er bundet af deres intentioner og overbevisninger styret af konventioner, sprog og kommunikation. Vi har med andre ord at gøre med lag af fortolkning. Disse lag af fortolkning bliver ikke færre, når vi samtidig anerkender, at vi kan udlede ny information af store datamængder. Ydermere er informations betydning afhængig af forholdet mellem indhold og kontekst. Betydningen ændres når informationen indgår i nye sammenhænge – f.eks. i personlige profiler. Det er en reel udfordring for beskyttelsen af personlig information.

En strategi nogle borgere vælger for at beskytte deres privatliv, er at vildlede de algoritmer, der indsamler deres personlige information. Når nu ‘digitale fodspor’ antages at vise noget korrekt om den enkelte, så kan man forsøge at gemme sig bag handlinger, man ellers ikke ville have udført.

Et spørgsmål der presser sig på i denne sammenhæng er, hvad afgivelsen af ukorrekt information har af indflydelse på de udledte profiler og i sidste ende for de beslutninger, der automatisk tages for den enkelte? Hvad antages de ‘digitale fodspor’ at betyde, vise, fortælle, reflektere eller indikere? Hvilken ‘sandhed’ læses ind i ‘fodsporene’? – både dem der skal vildlede og de andre.

Så hvorfor er det egentlig at bibliotekerne har så stort et fokus på personalisering og indsamling af personlig information i nyudviklingen af de digitale tjenester? “Fordi det er det, borgerne forventer og gerne vil have”, lyder svaret. Men er det virkelig det, borgerne gerne vil have? Når jeg kigger på følgevirkningerne af Cambridge Analytica-skandalen og alle diskussionerne i kølvandet på implementeringen af persondataforordningen, så er min opfattelse en anden.

- Hvad med om biblioteket tilbød det privatlivsbeskyttende og reelt gratis alternativ? Dvs. sige ingen eller minimal dataindsamling i digitale løsninger hvor privatlivsbeskyttelse er udgangspunktet og tænkt ind fra start. Såkaldt privacy-by-design. Den løsning ville jeg gerne se.

 

BLÅ BOG
Sille Obelitz Søe er PhD i informationsfilosofi og post.doc ved Institut for informationsstudier på Københavns Universitet, hvor hun forsker i forholdet mellem vildledning og ikke-vildledning bl.a. i relation til algoritmer. Sille indgår i projektet Don’t Take it Personal, hvor hun arbejder med begrebet personlig information, og hvordan vi må forstå det i et samfund domineret af algoritmer og data-økonomi særligt med blik på privacy.

 

Artikel fra 'Danmarks Biblioteker' nr. 5, 2018

 

Danmarks Biblioteksforening

Vartov, Farvergade 27D, 2. sal
1463 København K
Find os på kort
Cookie- og privatlivspolitik

Telefontid: man-fre 10-15
Telefon +45 3325 0935
Fax +45 3325 7900
db@db.dk

SE/CVR: 55618410
VAT: DK55618410
Bankkonto: 9056 4585 947 496
Swift: SPNODK22
IBAN: DK4090564585947496

Følg Danmarks Biblioteksforening

Facebook
Twitter
LinkedIn
Direktørens blog