Portal

Når nasjonens hukommelse digitaliseres

MEDIEHISTORISK TIDSSKRIFT: Vi kan kalle vår tid «den store transkripsjonens tidsalder», alle gamle medietyper digitaliseres.

Vi befinner oss i dag i en epoke hvor vi publiserer mer informasjon enn noen gang tidligere i historien. Parallelt med den digitale sirkulasjonen av nytt materiale gjennomlever vi også en omfattende digitalisering av historisk materiale. Man kan kalle vår tid «den store transkripsjonens tidsalder»; alle gamle medietyper digitaliseres. Vi har hatt slike massetranskripsjoner tidligere i historien – som transkriberingen fra papyrus til codex og fra manuskript til trykte bøker – men ingen transkripsjoner har vært så omfattende som den vi gjennomlever akkurat nå.

Jeg stiller tre spørsmål:

1. Hva skjer med kulturarven når den digitaliseres?

2. Hvilke aktører bør man ta hensyn til i kulturarvens nye medieteknologiske landskap?

3. Hvilke nye digitale forskningsmetoder gjør seg gjeldende i forhold til en digitalisert kulturarv?


Det første spørsmålet ses i lys av det norske nasjonalbibliotekets digitaliseringsprogram; det andre i lys av den globale akselererende teknologiutviklingen og en uoversiktlig digital infrastruktur med et utall konkurrerende aktører, og det tredje i lys av nye digitale forskningspraksiser som «digital humaniora» og mulighetene for å gjøre den til et enda mer kritisk verktøy. Disse spørsmålene har ikke enkle svar, men knytter seg til kompliserte utviklingstrekk hvor nasjonale aktører veves tettere sammen med globale aktører, og hvor forsknings- og kulturarvsteknologier impliseres direkte i teknologier som opprinnelig ble utviklet innenfor det militærindustrielle-etterretningskomplekset. Bak det hele nærmer man seg det store spørsmålet: Hvor går menneskets kultur idet digitaliseringen av «alt» gjør fortiden og nåtiden tilgjengelig og elastisk på en helt annen måte enn tidligere?

Digitalisering handler om mye mer enn bare en samling digitaliserte bøker som kan leses på en skjerm; det dreier seg om en teknokulturell endring hvor den nasjonale hukommelse møter nye nettverk. Innen oppmerksomhetens økonomi konkurrerer nasjonale kulturarvinstitusjoner med den uregjerlige klyngen som europeere kaller GAFA-selskapene (Google, Apple, Facebook og Amazon), som forvandler historien til «treff» og «click-baits», og daglig tester grenser for personvern og nye forretningsløsninger. Teknisk og historisk er utviklingen fundert på nettet som en felles infrastruktur og en tiltagende konvergens i vid forstand mellom adskilte systemer som næring (sosiale medier skapt av Silicon Valley-aktører), den militære etterretningen (som utviklet nettet og flere av de nye digitale verktøyene), kritisk presse (som ofte bruker Facebook-plattformen) og kulturarvsektoren. Den forskningen som anvender digitalt historisk materiale, må påta seg et ansvar for å reflektere over dette.

---

Siste utgave

---

Perspektivet i artikkelen står i en mediehistorisk tradisjon som ser på hvordan store epokale teknologiskifter – fra skrift til trykkekunst, digitalisering og kunstig intelligens – påvirker kulturuttrykk, mennesker og forskning. Artikkelen tar utgangspunkt i metaforen "nasjonens hukommelse". Den har overlevd inn i en digital tid og brukes som et slagord av Nasjonalbiblioteket og en rekke andre kulturarvsinstitusjoner og arkiver i hele verden. Metaforen har med andre ord overlevd flere teknokulturelle epokeskifter, og dette påkaller deg jeg vil benevne som en infrastrukturell lesning. Det vil si at lesningen ikke primært er hermeneutisk, retorisk, tekstuell eller diskursiv, men forsøker å åpne metaforen mot de ikke-diskursive eller teknokulturelle dimensjonene som skjuler seg bak den. Disse dimensjonene fører undersøkelsen i retning av digitaliseringens materielle og infrastrukturelle forbindelser til teknologier, nettverk og globale aktører, og henimot en forskningsinfrastruktur forankret i nye medieteknologier, anført av blant annet digital humaniora, og, ikke minst, til minneforskningen (memory studies), som til dels er sterkt utfordret av nye medieteknologier. I et teknokulturelt og infrastrukturelt perspektiv er arkiver og teknologier sentrale fordi produksjon, lagring og spredning av data er grunnleggende for en kulturs selvforståelse. Er de digitale teknologienes endring og eksternalisering av minnepraksiser en revolusjon eller et dødsstøt for en tradisjonell minnekultur? Eller er endringen en forventet og 'naturlig' evolusjon av minnepraksiser i vår tid, slik metaforen antyder? Kan vi håpe på en fremtidig skjermkultur som i større grad reflekterer over sin sammensatte infrastruktur? [1]

Nasjonalbiblioteket i Norge er en ledende digitaliseringsinstitusjon både nasjonalt og internasjonalt. Som det første landet i verden har Nasjonalbiblioteket digitalisert hele nasjonens litterære arv.[2] I samarbeid med NRK og en rekke norske avishus er også alle radioprogrammer og alle norske aviser i «digitaliseringsløypa».[3] Nasjonalbiblioteket er ikke alene om å digitalisere «fortiden». Aktører i Norge og resten av verden kastet seg for alvor inn i digitaliseringskappløpet i tiden etter 2004 da Google lanserte sitt gigantiske digitaliseringsprosjekt: Google Books. Man fryktet at Google på sikt ville etablere et anglosaksisk digitalt monopol på all verdens kunnskap.[4] Google vil digitalisere alle bøker som noensinne er gitt ut. Det er vel 130 millioner bøker.[5] I dag har Google digitalisert om lag 30 millioner av disse, men svært få av dem er tilgjengelige i sin helhet. Problemet er at Googles prosjekt er lite juridisk robust, og det er mangelfullt med hensyn til bibliografiske standarder. De mangler en kollektiv avtaleløsning med forleggere og forfattere som i Norge, og har ikke fulgt internasjonale standarder for metadata. Likevel, Google er pådrivere i utviklingen av brukeropplevelser, nye ambisjoner og digitale verktøy anvendt på kulturarvmateriale. Noen av disse verktøyene er også tatt i bruk ved Nasjonalbiblioteket i Norge.

  1. Hukommelsens politikk

Det første hovedspørsmålet i denne artikkelen – hva skjer med kulturarven når den digitaliseres? – skal besvares ved en refleksjon omkring metaforen «nasjonens hukommelse». Hvorfor ble denne metaforen aktuell ved årtusenskiftet? Vigdis Moe Skarstein var nasjonalbibliotekar fra 2004–2014. I denne perioden fremsto hun som en nasjonal strateg særlig gjennom etableringen av Bokhylla-avtalen, som muliggjorde at alle norske bøker frem til 2001 kunne bli tilgjengelige på nett for alle norske brukere.[6] Bak kulissene arbeidet hun med å koordinere arbeidet mellom bibliotekarene og forskerne som var lokalisert ved avdelingen i Oslo, og ingeniørene og digitaliseringsarbeiderne som var lokalisert ved avdelingen i Mo i Rana. Interessen for et fremtidig digitalt nasjonalbibliotek var nok i utgangspunktet større blant ingeniørene i Mo i Rana enn blant bibliotekarene i Oslo. Skarstein mente likevel at Nasjonalbiblioteket skulle bli «Europas første med alt på data», en strategi som hun lanserte i 2006.[7] Langt på vei har denne strategien lykkes. Snart er det meste av Nasjonalbibliotekets samlinger tilgjengelig på en skjerm nær deg.

En sentral metafor i Skarsteins virke var «nasjonens hukommelse». Hun hevdet ofte at «vi har modernisert hva det vil si å være nasjonens hukommelse».[8] For Skarstein innebar dette at fysiske medier gjøres tilgjengelig via skjerm over nett. For å forstå de mer kulturfilosofiske implikasjonene av denne vendingen kan det være nyttig å vise til paleontologen André Leroi-Gourhans arbeider omkring menneskets utvikling. For ham er ny teknologi nye redskaper. Han har omtalt utviklingen fra steinøksen til datamaskinen. Disse teknologiene frigjør menneskelige ressurser på ulike måter. Mens våpen primært gjorde lemmene mer effektive, har datamaskinen, mener han, frigjort «minnet» og åpnet for en ny kreativitet.[9] Hukommelsen blir mer robust og mangfoldig ved å være både teknisk (knyttet til mange medier) og biologisk (knyttet til hjerner og kropper) samtidig. Kanskje man kan tenke seg at en digitalisert kulturarv kan ha denne effekten på en hel nasjon? En tilgjengeliggjøring av historisk materiale kan for eksempel gjøre en faktasjekk mer effektiv. Fulltekstsøk på tvers av bøker og aviser kan i sum gi oss en rikere tilgang på hendelser i fortid og nåtid, og gjøre oss i stand til å agere klokere i fremtiden. Kvalitetssikret informasjon og en satsning på biblioteker, arkiver og museer som følger gode standarder for metadatakontroll, og tar disse standardene med seg inn i en digital tidsalder, er derfor viktigere enn noensinne.

Google er pådrivere i utviklingen av digitale verktøy anvendt på kulturarvmateriale. Noen av verktøyene er også tatt i bruk ved Nasjonalbiblioteket.

Metaforen «nasjonens hukommelse» har hatt en politisk-strategisk betydning på ulike måter til ulike tider. I moderne tid knyttes metaforens genealogi gjerne til opplysningstiden. Metaforer som koblet kultur og biologi sammen, bar vitne om kjennskap og tillit til vitenskap og rasjonalitet. Kroppsmetaforer knyttet an til tidens store oppdagelser innen biologi og anatomi. Kroppen ble sett på som et perfekt system. Blodets sirkulasjon og organenes funksjoner i kroppen var nøye avstemte. Datidens tenkere, som Jean-Jacques Rousseau, beundret organenes samspill og funksjonalitet og så for seg at samspillet mellom stat, marked og kultur kunne fungere like sømløst i en perfeksjonert stat.[10]

I den nasjonalromantiske stemningen antar dog metaforen en annen valør. Da blir utvalgte tekster og gjenstander feiret som nasjonale bragder. Metaforen «nasjonens hukommelse» antok en mer etno-nasjonalistisk valør og ble en del av nasjonsbyggingen. Biblioteker, arkiver og museer ble sentrale tekniske innretninger for den symbolske konstruksjonen av en nasjon. Metaforen spredde seg i denne betydningen fra nasjon til nasjon i Europa på 1800-tallet. Folket skulle nå dannes etter ett felles kollektivt minne.

Omkring 2000-årsskiftet skjer noe nytt. Metaforen blir igjen svært populær, men nå er konteksten ny teknologi. Kulturarvinstitusjoner forbereder seg på en digital tidsalder. Unesco lanserte termen «Memory of the World» tidlig i 1990-årene. I Norge dukker metaforen opp allerede i 1989 i et lite skrift, Nasjonalbiblioteket mot år 2000: Strategisk plan, forfattet av blant annet IT-eksperten Øivind Berg som da jobbet i Universitetsbibliotekets planleggingsgruppe. Skriftet skulle stake ut kursen for det norske Nasjonalbiblioteks utskillelse fra Universitetsbiblioteket samme år. Her fremheves det i første punkt at det nye nasjonalbiblioteket skal bli «nasjonens hukommelse».[11] Tidligere nasjonalbibliotekar Bendik Rugaas brukte metaforen flittig i 1990-årene som en del av det regjeringen Jagland kalte «Det norske hus», og Skarstein moderniserte metaforen gjennom et omfattende digitaliseringsprosjekt som sannsynligvis var inspirert av dialoger med ingeniører som arbeidet ved avdelingen i Mo i Rana.[12]

For dataingeniører klinger antakelig minnebegrepet noe annerledes enn for humanister. Pionerene i computerhistorien var inspirert av nevrobiologisk forskning. Det var derfor ikke så rart at datamaskinen i pionerfasen ble sett på som en «gigantisk hjerne» (ENIAC-prosjektet). Den ungarsk-amerikanske matematikeren John von Neumann – som var med på oppfinnelsen av både atombomben og den digitale datamaskinen som rådgiver for militæret i USA i 1940-årene – kalte både instrukser og programvare i sin berømte datamaskinmodell for memory. Hans modell har vært gyldig frem til i dag, og her konvergerer et aktivt minne (memory) med lagring (storage).[13] Hvis metaforen «nasjonens hukommelse» er en anakronisme i vår tid, blir den altså oppdatert i IT-ekspertenes modeller. Med digitaliseringen blir det digitale minnet en metafor for noe som er skiftende og stabilt samtidig, for noe som kan lagres og oppdateres gjentatte ganger uten å endre seg. Det som Nasjonalbibliotekets ingeniører i dag kaller et «DMS» (Digitalt sikringsmagasin), er et sted hvor datafiler oppdateres jevnlig uten at innholdet endres. Slik overlever innholdet i et tusenårsperspektiv, hevder Nasjonalbiblioteket. Metaforen «nasjonens hukommelse» viser nå til både den automatiserte oppdateringen av filer (den digitale hukommelsen) og det langsomme og dype minnet knyttet til dannelse og tradisjon. Slik innpakkes det nye (og uvante) strategisk i noe gammelt (og trygt).

Digitaliseringens obskønitet

Metaforen «nasjonens hukommelse» drives primært av en antropomorfisme, det vil si at nasjonen blir menneskeliggjort, får en hukommelse, og denne hukommelsen er nasjonalbiblioteket. Bildet impliserer at også biblioteket menneskeliggjøres samtidig som menneskets hukommelse teknifiseres. Metaforen impliserer en spenning mellom teknikk og natur, medier og mennesker. Idet biblioteket digitaliseres, blir medieproblematikken intensivert. Biblioteket som «nasjonens hukommelse» blir det stedet hvor også digitale filer og databaser levendegjøres som våre felles minner. Metaforen forenkler den komplekse utviklingshistorien som dannes av medier og minner. Den sier at her er alle medier minner; den stiller ikke det kritiske spørsmålet: hvordan medialiseres minner? Digitalisering er en særegen for form medialisering. «Medialiseringssteder» som mediehus, pr-byråer, universiteter og arkiver har tradisjonelt utviklet seg innenfor ulike sirkulasjonshastigheter. Digitalisering endret det mediertes elastisitet og hastighet også innenfor kulturarvsektoren. Når den nasjonale hukommelse legges ut på nettet er kulturarvens rammebetingelser endret. Minneforskeren Maurice Halbwachs studerte hvordan «kollektive minner» dannes, vedlikeholdes og påkalles innenfor grupper, samfunn og kulturer. Når nettet blir det kollektive minnets infrastruktur blir kulturarvsinstitusjoner noder i et ny medieøkologi. Man må hevde sin egenart på en ny måte (kvalitetssikret informasjon) samtidig som man må tilegne seg nye spilleregler.

Mediearkeologen Wolfgang Ernst analyserer biblioteker som «minneagenturer» (Gedächtnisagenturen) og som særegne «infrastrukturelle dispositiver».[14] Det greske ordet «bibliotheca» betyr «bokhylle». Biblioteket skulle være et oppbevaringssted og et velorganisert gjenfinningssystem for fysiske gjenstander, bøker. I den analoge tidsalder hvor hylleplass alltid var en mangelvare og gjenfinning var tidkrevende, var mindre samlinger en fordel. Den gamle infrastrukturen var godt tilpasset en humanistisk fundert seleksjonsprosess som legitimerte prioriteringen av en smal kanon, få bøker. Med digitaliseringens endres infrastrukturen. De fysiske bokhyllene er blitt til en database, og Nasjonalbibliotekets portal heter i dag «Nettbiblioteket». I det øyeblikk fysisk lagringsplass ikke lenger er en hindring, blir digitalisering av «alt» en mulighet. Men denne tekno-matematiske orienteringen mot alt innebærer også en likestilling av alle objektene som en totalitet, løsrevet fra, la oss si, kvalitet og tradisjon; Nasjonalbibliotekets digitaliseringsprosjekt (som Google Books') har erstattet kanon med totalitet («alt skal digitaliseres»). Nasjonalbibliotekene i våre naboland diskuterer fremdeles hva som skal digitaliseres først, utfra en humanistisk kanontankegang. Digitaliseringen som et ingeniørprosjekt (Norge) står i motsetning til kanontankegangen, men den får konsekvenser for en humanistisk tradisjon; brått blir nemlig det ukjente like tilgjengelig som det kjente. Det oppstår en voldsom akselerasjon i mengden og tilgjengeligheten av materiale.. For å unngå at digitale samlinger fremstår som et kaos, må bibliotekarene bli kreative kuratorer. Man må kuratere, profilere, selektere og skape nye brukeropplevelser på nett – endog ved hjelp av kunstig intelligens.[15]

For Sigmund Freud var som kjent hukommelsen bedragersk.[16] Våre persepsjoner etablerer minner som legges oppå hverandre, fordreies og til og med forsvinner, fortrenges. Fortrengning og forskyvning av minner kan skape traumer. Psykoanalysen kan hente frem igjen det fortrengte og helbrede pasienten. Metaforen, nasjonens hukommelse, kan i lys av Freuds teorier tenkes som et sted hvor alt, både det vi husker og det vi har glemt, finnes – i det minste i de kjølige boklagrene hvor bare bokhentere har adgang. Etter digitaliseringen spretter disse bøkene umiddelbart frem i skjermscenens lys – uten tradisjonell formidling og veiledning. Digitaliseringen er således obskøn fordi den omgår en kontrollerende instans. Selv den mest kvalifiserte kontrollinstans kan ikke unngå en form for blindhet og en form for fortrengning. Man kan si at med digitaliseringen vender kulturens ubevisste tilbake. Mens fortrengningens logikk, og kanskje til og med dannelsens logikk, innebærer at enkelte ting kan og bør glemmes, er det digitale bibliotekets motto at i prinsippet glemmes intet. «Nasjonens hukommelse» blir en optimistisk metafor for en digital hukommelsesprosess. Med ny teknologi skal alt frem i lyset igjen.

Forsvinner minnet i en digital tid?

Ikke alle er like entusiastiske for at «alt» skal frem i lyset. Den digitale akselerasjonen av «minner» er for minnehistorikeren Pierre Nora identisk med at ingenting egentlig «minnes». Han har i flere artikler vært svært kritisk til moderniserte erindringsinstitusjoner (museer, biblioteker og arkiver) og deres bruk av «eventer» og nye medier. Han åpner sin innflytelsesrike studie, Realms of Memory, slik: «Memory is constantly on our lips because it no longer exists».[17] Nye erindringsinstitusjoner og nye medier har skapt en inflasjon av minner: Alt skal huskes, alt skal minnes, alt skal tas vare på. Den kvantitative økning av «minner» har for ham ført til en kvalitativ endring hvor «egentlige» minner ikke fins lenger. Insistering på at alle minner blir tatt vare på – kontinuerlig – har skapt en situasjon hvor minner ikke lenger knytter sammen fortid og nåtid, men kun utvider nåtiden. Minnekonstruksjonen har akselerert og blitt kunstig, for Nora.

Han lanserte det innflytelsesrike begrepet «lieux de memoire» (minnesteder) i 1970-årene, da minner var i ferd med å forsvinne, slik han så det. I førmoderne tider trengtes ikke «minnesteder» fordi da levde viktige minner som gitte premisser for samholdet i kulturen, mener Nora. Fortiden var til stede i nåtiden gjennom levende tradisjoner og praksiser. «Minnesteder» er noe som oppstår med moderniteten. Siden minner ikke lenger kunne bli tatt for gitt, må institusjoner og lærere ta over – og denne utviklingen har bare akselerert. Lenge gikk dette bra, fordi historikere og lærere var i stand til å fortelle gode, enhetsskapende fortellinger, men gradvis ble dette «ødelagt» av kritiske historikere og nyere og mer effektive institusjoner. Det ligger en nostalgisk nasjonal patos bak Noras argument. Nasjonalstatens symboler mister sin enhetlige kraft gjennom globaliseringen. 1970-årene og oljekrisen i 1974 blir dødsstøtet for en nasjon bygd på «minner». Da stagnerer fransk økonomi, og migrasjon og multikulturalisme forsterker følelsen av at en nasjonal minnekultur ikke lenger har en entydig referanse, slik Nora forestiller seg det.

Digitaliseringen som et ingeniørprosjekt, slik det har vært i Norge i motsetning til nabolandene, får konsekvenser for en humanistisk tradisjon; brått blir det ukjente like tilgjengelig som det kjente.

Noras etno-nasjonalistiske melankoli, som har en ubehagelig parallell i dagens høyrepopulistiske aksjonisme, fremstår i dag som fastlåst i en forestilling om en gullalder da minner var «sanne», «organiske» og delt av alle på en naturlig måte. Den (post)moderne demokratiseringen av minnesteder, hvor alle kan delta, blir for Nora et uttrykk for en uheldig fragmentering. Flere forskere – som minnehistorikeren Bill Schwarz – har sett nærmere på Noras gullalderforestillinger, og påvist at heller ikke i førmoderne tid var minner så enhetlige, sanne og organiske som Nora vil ha det til, og Holocaust-historikere som Dominick LaCapra har påvist at moderniteten heller ikke er så fragmentarisk, sammenlignet med tidligere tider, som Nora tror.[18] Nye medier og migrasjon fører til andre og nye måter å leve med minner på, som ikke betyr slutten på minner og minners betydning. Minner lever nettopp gjennom forvandlinger og kontinuerlige forskyvninger innenfor skiftende virkeligheter. Sosiologene Jeffrey K. Olick og Joyce Robbins mener at minnestudier skjøt fart i 1980-årene nettopp fordi menneskelige kollektiver endres raskere og har økt mobilitet, og de peker på tre grunner til dette: en multikulturell kritikk av de dominerende minnekulturene, en postmoderne kritikk av essensialistiske tilnærminger til sannhet og identitet, og hegemoniteoriens fokusering på en klassebasert minnepolitikk.[19] Alle disse elementene er forsterket av nye medieteknologier. Nora ser ikke muligheten for at minner og minneprosesser kan være i kontinuerlig endring uten å bli usanne eller falske. Man bør i stedet forsøke å se på hvordan minner, kulturelle minner, til enhver tid utvikler seg dynamisk gjennom forhandlinger og medieringer.  Noras polemiske dikotomier blir derfor forenklinger som ikke er holdbare.

I stedet for å etablere en forfallshistorie à la Nora, må man se på både positive og negative sider ved samspillet mellom medier og minner i dag. Ikke minst man må se på hvordan tekniske infrastrukturer aktivt medierer minner i nye nettverk, og hvordan minneinstitusjoner og nye forskningsmetoder kan navigere i dette feltet. Minner er ikke borte, som Nora argumenterer for, men de splittes, spres og samles på nye måter. Den multimediale strømmen av synlige skjermbilder er bare toppen av isfjellet. Under og bak ligger et usynlig nettverk av aktive prosesser som dels er tekno-logiske (bestemte av maskiner og deres matematiske logikk) og dels institusjons- og industrispesifikke.

  1. Hvem tar kommando i en digital tid?

Dette fører oss inn i det andre sentrale spørsmålet i denne artikkelen: Hvilke aktører bør man ta hensyn til i kulturarvens nye medieteknologiske landskap? Her er nøkkelordet å følge de sentrale aktørene i den nye digitale infrastrukturen. Dagens minneteknologier åpner og lukker landskapet på nye måter, samtidig som eldre minneteknikker går i glemmeboken. Da nedskrevet materiale var et privilegium for de få, måtte de som fikk adgang til bibliotekene ved klostre og læresteder, benytte seg av avskrifter eller komplekse hukommelsesteknikker for å kunne huske og videreformidle innholdet. Med boktrykkerkunsten forsvant den store interessen for hukommelsesteknikker eller mnemoteknikker. Dette hadde vært et viktig fag innen retorikken siden Ciceros tid. Den såkalte «mnemonikeren» (den som kan huske godt) var en høyt aktet person. Siden renessansen ble hukommelsesfaget gradvis erstattet av moderne teknikker som trykkekunst, hvor industriell typografi og layout er en del av mnemoteknikken. I vår tid erstattes mnemoteknikkene av sammensatte mnemoteknologier som datamaskiner og nettverk. Vi har bevegd oss fra å fokusere på «mnemonikeren» til det man på engelsk kaller «mnemonic devices», hvor laptopen og mobiltelefonen er eksemplariske. Det er ikke de gamle mnemoteknikkene, men mnemoteknologiene som forvalter kulturarven.

Man kan diskutere hvor skillet mellom minneteknikker og minneteknologier egentlig går. For mediefilosofen Bernard Stiegler bør dette skillet forstås som et minnepolitisk paradigmeskifte. Digitale systemer er ikke passive, men aktive lagringssystemer som organiserer minner vilkårlig eller ut fra programmeringsmessige hensyn utenfor den enkelte brukers kontroll. Sosiale medier er et eksempel. Her dukker «minner» opp som realtidsoppdateringer ut fra skjulte seleksjonsalgoritmer. Aktiviteten genereres ut fra store nettverk av brukere i samspill med forhåndsinnstilte algoritmer, men resultatet er likevel uforutsigbart. Dette er et mnemoteknologisk system, ifølge Stiegler.[20]

Denne tette forbindelsen mellom nasjonalbiblioteker og etterretning har opphørt i vestlige demokratier. Forbindelsene mellom næringslivet og IT-industrien på den ene siden og militæret og etterretningen er desto tettere.

Det mnemoteknologiske systemet kalibreres forskjellig i ulike sektorer av samfunnet, men det er blitt det nye miljøet for storsatsninger innen både kulturarvsektoren, massemediene og næringslivet. For GAFA-selskapene er mnemoteknologi blitt en storindustri, og de opererer transnasjonalt utenfor vedtatte personverns- og skatteregler.[21] I kampen om oppmerksomhet og reklamepenger utkonkurrerer de medier i nærmiljøet, lokalsamfunnet og nasjonen. De er innovatører og infrastrukturutviklere som profitterer på brukernes digitale fotavtrykk. Dataene struktureres, analyseres, lagres, kopieres og selges videre før de i neste omgang mates tilbake til brukeren i form av presise «impulser» (som målrettet reklame, anbefalinger, meldinger, spam, søketreff osv.), som om de er blitt en del av vårt nervenett. Dette er kulturarvsektorens nye landskap.

Hukommelsen og det militærindustrielle-etterretningskomplekset

Særlig tre systemer eller industriområder benytter og utvikler mnemoteknologier i dag, men på ulike måter: kulturarvsektoren (ABM-sektoren: arkiver, biblioteker og museer), teknologi- og medieindustrien (IT-selskaper, eierne av sosiale medier og tradisjonelle massemedier) og det militærindustrielle-etterretningskomplekset. Historisk hang arkiver, biblioteker, etterretningstjenesten og politiet tett sammen. Den første pliktavleveringslov for trykksaker ble innført og gjennomført av politiet i samarbeid med nasjonalbiblioteket i Frankrike på Napoleons tid. Enhver publisist måtte avlevere ett trykkeksemplar til biblioteket som politiet kunne granske. Denne tette forbindelsen mellom nasjonalbiblioteker og etterretning har opphørt i vestlige demokratier. I dag er forbindelsene mellom næringslivet og IT-industrien på den ene siden og militæret og etterretningen på den andre siden desto tettere. Snowden-avsløringene viste nære forbindelser mellom NSA (USAs nasjonale sikkerhetsmyndighet) og internett-, teleoperatører og mobiltelefonmerker som Apple, og det er også kjent at Google har levert programvare til USAs droneoperasjoner.[22] Tap av tillit til den digitale infrastrukturen svekker vilkårene for et deliberativt demokrati. De tre nevnte industriområdene må differensieres tydeligere, og det er et ansvar som særlig kulturarvinstitusjonene må ta hensyn til. Det er en politisk, etisk og forskningsmessig utfordring.

Mnemoteknologier som datamaskiner kan brukes med stort utbytte innen krigføring. Men kan de også brukes til sivile formål med like stor kraft? Det var et sentralt spørsmål for dataingeniøren Vannevar Bush etter krigen.[23] Han hadde ledet 6000 forskere gjennom andre verdenskrig og frem til atombomben. Uten de utallige datamaskinene som han utviklet, ville verken rakettsystemene eller atombomben vært mulig. Joseph Licklider ledet den militære forskningen i USA under deler av den kalde krigen. Han var sentral i utviklingen av det topphemmelige datanettverket (ARPANET) som koordinerte overvåkningen av Sovjet. Forsvarets etterretningstjeneste på Kjeller i Norge var faktisk det første stedet som ble koblet til ARPANET utenfor USA, grunnet den geografiske nærheten til «fienden».[24] Etter sitt arbeid for forsvaret gjorde Licklider som Bush, han forsøkte å se for seg krigsteknologien brukt til sivile formål. I 1960-årene ledet han arbeidet med en rapport som het Libraries of the Future. Vårt største problem, mente han, er at vi er altfor besatt av at kunnskap må være i bøker og på boksider. Han så i stedet for seg kunnskap som en elastisk, men økende datamengde som kunne behandles av en fremtidig, kraftig mnemoteknologi med en rask prosessor. Han forkastet egentlig termen «bibliotek» og så på kunnskapsbeholdningen som et «prokognitivt system» styrt av «aktive prosesser».[25] Utviklerne av Googles søkemotor var inspirert av Lickliders modell. Et fremtidig digitalt bibliotek styrt av kunstige intelligenssystemer kunne oppfylt hans drøm. Metoden digital humaniora, som vi skal se nærmere på under, inneholder også elementer av hans visjon.

Nasjonalbiblioteket i Norge har også realisert flere elementer knyttet til ideen om at kunnskap kan behandles gjennom en serie digitale «aktive prosesser». Det å digitalisere en bok er ikke bare å kopiere eller fotografere en bok. Når man har fremskaffet en digital versjon av en bok gjennom digitalisering, skal filen gjennomgå en rekke mer eller mindre automatiserte prosesser knyttet til lesbarhet, fleksibilitet i ulike systemer, OCR-behandling (Optical Character Recognition) som gjør ord søkbare, metadataekstrahering og deling av filen i en «tung» lagringsfil og en «lett» tilgangsfil. I tillegg implementeres automatiserte programvareløsninger som sjekker at «bokens» informasjon befinner seg innenfor visse toleransestandarder til enhver tid. Dagens grensesnitt på Nasjonalbibliotekets «Nettbibliotek» viser tverrsnitt på tvers av ulike medietyper, og søkemotoren er til dels basert på maskinlæring, som er en form for kunstig intelligens. Det digitale sikringsmagasinet er bygd opp som en kompleks infrastruktur, hvor data flyttes og kontrolleres med jevne mellomrom – helautomatisk. Krigsteknologien har fått et sivilt formål. De nye teknologiene danner en kjerne i livets digitale infrastruktur utspent mellom ulike industrier. Mnemoteknologiene er velegnet for både kontroll og dannelse, profitt og tilgang, og ikke minst: Bak det hele ligger det en kunnskapsmodell som vi kanskje ikke helt har forstått rekkevidden av ennå. Denne kunnskapsmodellen eller nye ordenen har jeg tidligere kalt en «algoritmisk kultur».[26] Hva er dette? Hvordan kan kulturarvsektoren, forskere og intellektuelle som betjener seg av den, bli mer kritiske og selvrefleksive aktører overfor denne teknokulturelle endringen?

  1. Mot digital humaniora

Til slutt skal det tredje og siste spørsmålet settes i et større perspektiv: Hvilke nye digitale forskningsmetoder gjør seg gjeldende i forhold til en digitalisert kulturarv? Det skal i hovedsak fokuseres på den metoden som kalles digital humaniora, som i dag er en fellesbetegnelse for en rekke nye metoder og tilnærminger innen humaniorafagene som på en eller annen måte benytter seg av digitale teknikker eller digitalt materiale. Med digital humaniora blir kulturarvinstitusjoner sentrale på nye måter. Nasjonalbiblioteket tilrettelegger samlingene for digital humaniora, blant annet gjennom digitalisering. I tillegg skal Nasjonalbiblioteket utvikle digitale verktøy som forskere kan bruke, som n-gram leseren og kurs i digitale metoder. Her skal vi se litt nærmere på noen teknokulturelle og mediefilosofiske utfordringer knyttet til digitaliseringen og forskningen på den.

For humaniorafagene innebærer digitalisering mer enn en god tilgang til historisk materiale. Den innebærer at både kulturarvspraksiser og humaniorafagene knyttes nærmere til en algoritmisk kultur. Det handler om hvordan datamaskinens logikk endrer vår kultur. For meg har det vært nyttig å ta utgangspunkt i det kritiske forholdet mellom det vi kan se, og det vi ikke kan se. De første datamaskinene hadde ikke skjermer; det trengtes ikke. Når datamaskiner suppleres med skjermer, må man spørre seg, hva ser man egentlig? Det vi ser, og det grensesnittet vi bruker for å navigere i dette bildet, kan kalles det visuelle og kulturelle nivået, mens det som ligger under og bak, inni maskinen, tilhører det «usynlige» og algoritmiske nivået. Det kulturelle nivået har en tendens til å mime en før-digital verden (som om ingenting har hendt). En moderne laptop utstyres med «velkjente» ikoner som et «skrivebord» med «dokumenter», «mapper», «søppelkasse» osv. Det algoritmiske nivået er derimot ukjent for andre enn eksperter. Algoritmer er kodede instrukser som får en datamaskin til å gjøre det man ønsker at den skal gjøre. Det algoritmiske nivået forutsetter at alt materialet som skal behandles, er gjort om til digitale data – eller teknomatematisk manipulerbart materiale. Det er digitalisering i sin mest konkrete forstand. Data kan analyseres, manipuleres og moduleres. Dette er et teknomatematisk univers like uendelig i sine muligheter som tall. Men den omfattende omdannelsen av verden til tall kan innebære en reduksjonisme hvor kun det som kan måles og veies får betydning.

Når kulturarvspraksiser og humaniorafag inngår allianser med en algoritmisk kultur, innebærer det at fortolkninger og fortellinger kombineres med og til dels underordnes telling, kvalitet møter kvantitet, og humaniora møter teknikkens verden. Et teknomatematisk arkiv oppfører seg annerledes enn analoge arkiver, fordi de lar seg påvirke av «aktive prosesser» som algoritmer. Et digitalt tekstkorpus «leses» ikke som analoge korpus – og kan være uendelig mye større. En datamaskin virker ved at koder leser koder, og filer interagerer med filer. Enhver instruks som tastes inn i en datamaskin, «leser», «kommanderer» og/eller «instruerer» andre programmer eller filer om å gjøre noe. Digitaliserte tekster kan hektes sammen til store datasett (eller data dumps) og behandles elektronisk. Dette kan kalles digital eller algoritmisk lesning.[27]

De første datamaskinene hadde ikke skjermer; det trengtes ikke. Når datamaskiner suppleres med skjermer, må man spørre seg, hva ser man egentlig?

En av pionerene innen digital humaniora, Franco Moretti, skiller mellom menneskelig nærlesning og maskinell fjernlesning (distant reading).[28] Nærlesning som metode begrenses av hva en forsker kan lese fysisk, la oss si innenfor et avgrenset forskningsprosjekt, mens fjernlesning begrenses kun av datamaskinens kapasitet og tilgangen på digitalisert materiale. Fjernlesning kan «lese» millioner av tekster. Dette kalles «data mining» (datagraving). Googles n-gramleser er for eksempel innstilt på å hente svar fra en gjennomgang av om lag 30 millioner bøker. Maskinen «leser» disse bøkene på brøkdelen av et sekund. Menneskelig nærlesning er ekstremt tidkrevende. Dette har begrenset litteraturfaget til å forholde seg til en svært snever leseliste, for eksempel den litterære kanon, det vil si mindre enn 0,1 prosent av verdenslitteraturen. Fjernlesning kan derimot utvide verdenslitteraturen mot et voldsomt korpus av glemt og underskattet litteratur. Det samme vil gjelde digitaliseringen av det store aviskorpuset som har støvet bort i arkiver eller i mikrofilmskap. Ideelt sett kunne man med en dose positivistisk overmot si at en maskinassistert lesemåte kan «hurtiglese» store tekstmengder raskt og med matematisk presisjon. Det menneskelige øyet suppleres og forsterkes maskinelt. Litteratur, pressehistorie og andre medietyper kan granskes med en annen (statistisk) fylde.

Kan teknologien gripe mennesket dypere?

Store fjernlesningsprosjekter kan ha en rekke motiver og målsettinger. Men er det mulig å si noe mer visjonært og ambisiøst om hvor denne teknikken kan gå, når det gjelder det å gripe det menneskelige, kulturens uttrykk og historien? Vi må tilbake til statistikkens og sosiologiens tidlig fase. På slutten av 1800-tallet etablerte retningen moderne sosiologi seg i Frankrike etter en heftig debatt mellom Gabriel Tarde og Émile Durkheim. Da de møttes i 1903, var Tarde en respektert sosialfilosof med bøker som Les lois de l'imitation (Imitasjonens lover) (1890) og Les lois social (Samfunnets lover) (1898). Durkheim var en ung lovende sosiolog som Tarde hadde hjulpet i arkivarbeidet med boken om selvmordet, Le Suicide (1897), men faglig stod de langt fra hverandre.

Tarde mente at samfunnet bestod av repetitive og imitative affekter, oppfatninger og begjær som utvikles interaktivt og skaper en miks av varige og flyktige koblinger. Han kalte disse kreftene «sosiale strømninger» (courant social).[29] Det er disse strømningene sosiologien må fokusere på, mente Tarde. Durkheim repliserte med å si at dette ville bli altfor spekulativt og kunne ikke etableres som «sosiale fakta». Tardes modell ble feilaktig oppfattet som ren psykologisme. Durkheim foreslo at oppmerksomheten måtte rettes mot det man da oppfattet som kvantifiserbare data innen demografi og økonomi – kort sagt datidens statistikk.[30] Durkheim gikk seirende ut av debatten, og Tarde ble stort sett glemt i sosiologien frem til nå. I dag utgis hans samlede verker på ny i Frankrike, og redaktør Bruno Latour forklarer hvorfor i sitt omfattende forord. Tarde var en nettverkstenker forut for sin tid, hevder Latour.[31] Problemet var at Tardes intuisjon ikke kunne forvandles til brukbar empiri den gangen. Nå derimot, i de teknologiske nettverkenes tidsalder, kan Tardes argumenter belegges empirisk og analyseres på helt nye måter. Hans ønske om å gjøre pre-individuelle strømninger eller affekter om til data er ikke lenger ønsketenkning, men realiseres daglig i det nye mediesystemet som vi alle er koblet opp mot. Affektenes rike er blitt realpolitikk og big business på en måte selv ikke Tarde kunne forestille seg. Profilering, markedsanalyse, sosiale medier og databasert overvåkning handler i høy grad om å penetrere nettopp manifeste og latente følelser som kan avleses i stordatamønstre. Slik blir menneskets indre og interaksjonen mellom individer en kvantifiserbar og matematisk lesbar sosial strøm, velegnet for dypere samfunnsanalyser. Innen «digital sosiologi» er Tarde blitt en implisitt metodologi.[32]

Hva har dette med digitaliserte medier i nasjonalbiblioteket å gjøre? Jo, slik Tarde så for seg at selv den minste gest, en «sosial mikroskopi», kunne bli betydningsfull i sosiologien, kan en digitalisert kulturarv tilby et uant register av data. Nasjonens hukommelse blir operasjonell på en ny måte; en hel underskog av tegn og tekster som man før ikke tok hensyn til, kan dukke opp igjen fra det fortrengte og bli betydningsfull.

Psykologen Sigmund Freud satte pris på Gabriel Tarde. I Ubehaget i kulturen snakker Freud om krefter vi ikke vil snakke om. Sjelslivets ubevisste strømninger må holdes i sjakk for å unngå en primitiv eller nevrotisk kultur. Koblingen mellom Tarde og Freud er en tankevekker. Idet alle norske bøker tilbake til den første fra 1519 og den første norske avis fra 1763 blir tilgjengelig som digitale filer som kan leses på kryss og tvers, åpner et nytt univers seg. Hvis journalistikk og litteraturen har med «sosiale strømninger» i Tardes forstand å gjøre, kan vi nå dykke ned i disse «kreftene». Ett eksempel: Hvis vi går utover en vanlig måte å søke i digitale avisarkiver på, for eksempel etter titler og forfattere, og heller tar i bruk «aktive prosesser» (kunstig intelligens og maskinlæring) som kan se etter mønstre som gjentar seg og endrer seg omkring visse tematikker knyttet til for eksempel innvandring, rasisme, kvinner, fattigdom, terror, miljøvern og så videre, kan man belyse tematikkens genese og «sosiale strømninger» som drar seg gjennom stoffet bredt og over tid.[33] Disse mønstrene vil da ikke lenger primært representere en journalists synspunkt eller stemme, som i den gamle nærlesingsstrategien, men snarere et kollektivt dragsug som kanskje den enkelte journalist selv ikke er i stand til å skjønne at hun eller han er en instrumentell del av. På denne måten trer man liksom inn i eller ned i et slags kollektivt kulturelt ubevisste som forskere ikke tidligere har hatt tilgang på. Hva er det vi får øye på nå, som vi ikke kunne se før?

Kollektive minnestrukturer i samfunnet endrer seg etter digitaliseringen. Det kreves skarpere forskning for å finne ut av hvordan sosiale medier og offentlige minneressurser, det private og det sosiale, interne og eksterne minnestrukturer veves sammen og splittes opp gjennom de nye legeringene av teknisk og menneskelig agens. Sosiale strømninger flyter mellom mange nivåer. Tarde så for seg at irrasjonelle affekter på et førbevisst plan kunne flyte sammen med store kollektive forestillinger godt hjulpet av massemediene som en «agens på avstand», som han kalte det.[34] Individet og massene befinner seg på en ny mediekritisk akse som går fra det før-individuelle (affekter) til det post-individuelle (sosiale memer og strømninger). Denne psyko-mnemoteknologiske aksen er til dels maskinelt og algoritmisk avlesbar ved hjelp av stordata og tilbyr helt nye fortolkningsmessige utfordringer. Hvis informasjonskapitalismen er et mnemoteknologisk feedback-system for «sosiale strømninger», er Tardes modell et godt utgangspunkt. Den teknomatematiske akkumulasjonen av kulturelle uttrykk byr på nye utfordringer. «Data er den nye oljen», sier man. Næringslivet gjør data om til big business.[35] Hva gjør forskere? Er «digital humaniora» som forskningsmetode det eneste svaret fra humanistenes side? Det bør ikke bli det.

Kan digital humaniora bli kritisk?

Digital humaniora fikk stor utbredelse globalt parallelt med at den kritiske teoribølgen fra Tyskland (fra Theodor Adorno til Friedrich Kittler) og Frankrike (fra Michel Foucault til Jacques Derrida) ikke lenger ble sett på som nødvendig utover de første tiårene av 2000-tallet. Nå kunne man hengi seg til datamaskinassistert humanioraforskning uten teoretiske og metodologiske bekymringer, virket det som. Dette har preget mye av DH-forskningen, og det gjør at mange har møtt den med en viss skepsis.[36] Kan DH bli tilstrekkelig kritisk til å innse sin egen rolle, sine egne muligheter og sine egne begrensninger innenfor dagens mnemoteknologiske kapitalisme? Etter hvert som digital humaniora er i ferd med å spre seg fra det ene humanistiske fagfeltet til det andre, må man kreve noen svar. Potensialet for en kritisk DH er stort fordi det på mange måter er en multimedial og tverrfaglig forskningspraksis. Humanister og informatikere har begynt å jobbe sammen. Data har ingen visuell form, og dette har ført til at visualiseringsteknikker har blitt et stort og potensielt sett spennende område innenfor digital humaniora, men de fleste prosjekter ser ut til å basere seg på standard programvare som gjør visualiseringsmodeller svært like fra prosjekt til prosjekt. Valg av design og visualiseringsteknikk bør i større grad bli en del av forskningen, hevder en ledende amerikansk forskergruppe.[37] Bruken av digital humaniora på Nasjonalbibliotekets mediemateriale, bok- og aviskorpus er fremdeles i sin spede begynnelse. Begrensningen ligger i forskernes fantasi og i teknologiens skiftende muligheter og pris. Digital humaniora vil neppe fjerne nærlesningens menneskelige blikk. Det kommer vi ikke utenom. Fjernlesning og nærlesning vil nødvendigvis inngå i en dialektikk når det gjelder alle typer materiale. Det er de fleste forskere innenfor digital humaniora enige i.

Det er viktig å understreke at digital humaniora ikke bare gjelder tekstbasert materiale. Det kan potensielt sett dreie seg om alle overleverte og nye medietyper. Interessant i så måte er utviklingen av nettaviser som et multimedialt medium som inneholder både tekst, lyd, video, tv og fotografier – og ikke minst den økende mengden brukergenerert materiale i kommentarspalter og så videre. Digital humaniora står ikke bare foran en rekke utfordringer når det gjelder materialtypenes mangfold, men også i form av sin egen ofte manglende selvrefleksjon. Innsigelser og spørsmål kommer fra flere hold: Er digital humaniora blitt for dominert av én disiplin, lingvistikken? Moretti og Jockers fjernlesningsprosjekter er kanskje egentlig bare en gammeldags formalistisk og tematisk nærlesning av store korpus, hevder enkelte digitale historikere. Stordata er ikke det samme som kontekst. Har kontekstbegrepet forsvunnet i et endeløst intertekstbegrep? Og ikke minst, er digital humaniora tilstrekkelig kritisk selvrefleksiv når det gjelder sin egen historie og nære tilknytning til bestemte teknologier?[38] Slike spørsmål er viktige skal digital humaniora bli kvitt barnesykdommene.

Digital humaniora fikk stor utbredelse parallelt med at den kritiske teoribølgen gikk tilbake. Nå kunne man hengi seg til dataassistert humaniora uten teoretiske og metodologiske bekymringer.

Med digital humaniora er overvåkningsteknologien fra det militærindustrielle etterretningskomplekset på full fart på vei inn i sosiologien og humanvitenskapene. Moderne datamaskiner er som sagt et resultat av store militære forskningsprosjekter fra før og etter andre verdenskrig, alle sammen knyttet til «varm» og kald krig. Sentralt her er etableringen av en moderne forståelse av kommunikasjon slik begrepet utvikles av informatikerne og matematikerne Alan Turing, Claude Shannon og Norbert Wiener. «We have decided», skrev Wiener, «to call the entire field of control and communication theory, whether in the machine or in the animal, by the name Cybernetics[39] Kybernetikkens målsettinger ble først operasjonelle i og med andre verdenskrig.[40] Den nære sammenhengen mellom kybernetikk og digital humaniora er fundert på det medieforskeren Alexander Galloway kaller en «quantitative positivism … in which systems or networks combine both human and nonhuman agents in mutual communication and control».[41] Dette systemet har blitt svært effektivt i dagens mnemoteknologiske kapitalisme. Flere av de sentrale digitale redskapene som anvendes på stordata, fra «data mining» til skanning og ansiktsgjenkjenning, ble først utviklet av det militærindustrielle etterretningskomplekset og dernest av markedsanalytiske aktører, og til slutt som nedgradert programvare til bruk for humanister. Det er også et paradoks at mange av ønskedrømmene for digital humaniora i dag kun er mulige innenfor det militærindustrielle-komplekset, rett og slett fordi sivile institusjoner som universiteter og biblioteker ikke har datakapasitet nok. Da Library of Congress (LoC) inngikk en avtale med Twitter om å motta deres arkiv i 2010, var det mange som så på dette som en mulig åpning for en ny æra i samarbeidet mellom nasjonalbiblioteker og sosiale medier. Men det har faktisk ikke vært mulig for LoC å gjøre dette enorme Twitter-arkivet tilgjengelig. LoCs begrensede datakapasitet gjør at et enkelt søk i arkivet innenfor bare en toårsperiode vil ta over 24 timer.[42] Kulturarvinstitusjoner har ikke budsjetter til å finansiere tilstrekkelig datakapasitet og maskinkraft for søking i så store arkiver. Det er dessverre primært det militære, overvåkningsindustrien, GAFA-selskapene og deres utspekulerte samarbeidspartnere – som Cambridge Analytica – som er i stand til å «bruke» den nye datamengden. Det er også de som besitter den teknologien som skal til for å «høste inn» all informasjonen. Den nyeste kulturarven mangler offentlige kulturarvsløsninger.

There is more data about more people than ever before, however, the cultural institutions dedicated to preserving the memory of what it was to be alive in our time, including our hours on the internet, may actually be capturing less usable information than in previous eras.[43]

Entreprenørselskapet «Salesforce» markedsfører sin såkalte «Deeper Customer Service» som en programvare som tilbyr et «360-gradersbilde av dine kunder».[44] Som Snowden-affæren har vist, er stordataanalyse et av de høyest prioriterte satsningsområdene innenfor det militærindustrielle komplekset. Vi bør derfor stille oss en rekke nye etiske og politiske spørsmål. Digital humaniora må fortsette å utvikle gode og interessante forskningsprogrammer, men man bør også spørre: På hvilken måte kan og bør digital humaniora skille seg fra det militærindustrielle komplekset og markedsanalysen? Og mer vågalt: På hvilke måter kan og bør digital humaniora ligne på det samme komplekset, men med andre målsettinger?[45]

Kan den nye teknologien brukes til å gjøre oss enda skarpere og mer etiske i vår omgang med informasjon og ikke bare til bedre kontrollører, soldater og konsumenter? En rekke kommersielle aktører og i særdeleshet Google tilbyr nå en rekke digital humaniora-verktøy og kunstig intelligens-programvare til bruk på tekst og bildesamlinger. Google kaller det er bidrag til «culturomics». Nasjonalbiblioteket og norske universitetsbiblioteker bidrar også. Globalt kanaliseres stadig flere midler inn i DH-forskning, og universiteter i hele verden markedsfører seg med digitale humaniora-sentre. Dette er viktige nyskapninger. Men både leverandørene (kulturarvinstitusjonene) og forskerne på disse tjenestene må stille noen overordnede kritiske spørsmål. Store kulturdatabaser og DH-metoder er i seg selv nye kulturelle fenomener som må behandles kritisk. Det må kreves, som DH-kritikeren Alan Liu er inne på, at den kritiske holdningen som humanister ønsker å etablere når det gjelder kildebruk, også må etableres for den teknologien de bruker. Man må videre fremvise en kritisk holdning til makt, markedsanalyse og nye styringsprotokoller som påvirker ikke bare grunnlaget for DH-forskning, men også demokratiet. Uten denne kritiske evnen mister DH sin autonomi og kan lettere bli et bytte for de trender som skapes av GAFA-selskapene eller andre institusjoner man arbeider opp mot.[46]

Kunsten å vise en infrastruktur

Gode brukergrensesnitt stimulerer fantasien. På en interessant måte er både kulturarvinstitusjoner og DH-prosjekter sentrale leverandører til det 21. århundres skjermkultur. Data har som sagt ingen visuell form i utgangspunktet, men brukere og fortolkere av store datasett levere «bilder» av datasettene. I hvilken grad er dette gode «bilder»? Nasjonalbibliotekets «Nettbibliotek» har brukt en visualiseringsmodell som remedierer de analoge gjenstandenes utseende; søkeresultater viser nå en mengde klikkbare «bilder» på tvers av utvalgte medier. Dette er en modell med et potensial som kan inspirere til historiske tverrsnitt og interessante sammenstillinger. Av DH-forskere kan man kreve enda mer, og det kreves et stort monn av kreativitet for å kunne gjøre den nye datavisualiseringskulturen til en kritisk skjermbildekultur.

Den digitale infrastrukturen er ikke lenger bare et transportsystem, men har også skapt en ny infrastruktur, nemlig de enorme datasettene som inneholder brukerloggen til klodens brukere.[47] Disse dataene legger i stadig større grad grunnlaget for all annen infrastruktur som bygges. ABM-institusjoner i Vesten er åpne om hvordan de lager sine datasett, men GAFA og andre private selskaper er hemmelighetsfulle. Her må det kreves mer åpenhet. De digitale-verktøyene som brukes, er i stadig endring. De forteller aldri hele «sannheten». Her må humanister og forskere i STEM-sektoren (vitenskap, teknologi, ingeniører og matematikere) i større grad samarbeide for å etablere skarpere kritisk presisjon og selvinnsikt i alle faser, både når det gjelder datainnsamling, fortolkning og presentasjon.

En ting er å lage gode grensesnitt og «bilder» av de data man har i en kulturarvsamling, en annen ting er det å lage «kritiske» bilder av hvordan disse dataene blir til, lever, kan brukes og endres. Den algoritmiske kulturens «bilder» genereres innenfor et teknomatematisk univers som ligger til grunn for alle «digitaliserte» institusjoner. Kan det teknomatematiske grunnlaget fremvises på en kreativ og kritisk måte? Kan den infrastrukturen de nye bildene og forskningen lever av, synliggjøres? Her har DH-forskningen fremdeles en lang vei å gå. Hvordan kan man vise (ikke bare fortelle om) hvordan de nye teknologiene og datasettene «arbeider»? Man kan søke inspirasjon blant kunstnere som arbeider med infrastrukturspørsmål knyttet til stordata, teknologi, overvåkning og kunstig intelligens. De er dagens nye infrastrukturteknikere. Mediekunstkollektivene Knowbotic Research, Constant og Raqs og kunstnere som Paul DeMarinis, Trevor Paglen, Sean Snyder, Cory Arcangel og David Link har gjennom en rekke arbeider vært med på å vise vei mot en ny kritisk kunst, som setter våre datasystemer, mnemoteknologier og skjermbildekulturer i perspektiv.[48] De fremviser og eksperimenterer med en omskiftelig teknomatematisk infrastruktur på en sammensatt og kompleks måte. Kulturarvinstitusjonene og DH-forskningen bør i større grad la seg inspirere av kreative modeller hvis man ønsker å gripe den nye elastisiteten i «nasjonens hukommelse» i en problematisk informasjonskapitalistisk tidsalder.

Litteraturliste

Bauwens, M. og V. Kostakis. (2018). «P2P (Peer to Peer) Economies.» R. Braidotti og M. Hlavajova (red.). Posthuman Glossary. S. 310–312. London: Bloomsbury

BBC (2018). «Carlo Cottarelli: Italy president names stop-gap PM.» 28. mai. https://www.bbc.com/news/world-europe-44280046

Berg, Ø., mfl. (1989). Nasjonalbiblioteket mot år 2000: Strategisk plan. Oslo

Bergsaker, T. og Karlsen, M.L. (2018). «Løgnfabrikker laget Norges mest delte saker i mai.» https://www.faktisk.no/artikler/bA/lognfabrikker-laget-norges-mest-delte-saker-i-mai

Berry, D. M. og Fagerjord, A. (2017). Digital Humanities: Knowledge and Critique in a Digital Age. London: Polity

Blom, I., Lundemo, T. og Røssaak, E. (red.) (2017). Memory in motion. Archives, Technology and the Social. Amsterdam: Amsterdam University Press

Blom, I. (2017). «Introduction: Rethinking social memory». Blom, I., Lundemo, T. og Røssaak, E. (red.) (2017). Memory in motion. Archives, Technology and the Social. S. 11–40. Amsterdam: Amsterdam University Press

Burdic, A. et al. (2012). Digital­_Humanities. Cambridge, MA: The MIT Press.

Bush, V. (1945). «As We May Think.» The Atlantic Monthly (Boston). 176 (1) s. 101–108. http://www.theatlantic.com/unbound/flashbks/computer/bushf.htm

Chun, W. (2011). Programmed Visions: Software and Memory. Cambridge, Mass.: The MIT Press

Conger, K. (2018). «Google Plans Not to Renew Its Contract for Project Maven, a Controversial Pentagon Drone AI Imaging Program.» Gizmodo. 1. juni. https://gizmodo.com/google-plans-not-to-renew-its-contract-for-project-mave-1826488620 (sist lest 20/06/18)

Cordell, R. (2016). «How not to teach Digital Humanities.» M. Gold (red.). Debates in the Digital Humanities. University of Minnesota Press. Open Access Edition. http://dhdebates.gc.cuny.edu/debates/text/87 (sist lest 20/06/18)

Digital 21. (2018). «Digital21 skal fremme næringslivets evne og mulighet til både å utvikle og ta i bruk ny teknologi og kunnskap i takt med den økende digitaliseringen.» https://digital21.no/ (sist lest 20/06/18).

Ernst, W. (2003). Im Namen von Geschichte. Sammeln – Speichern – Er/Zählen. Infrastrukturelle Konfigurationen des deutchen Gedächtnisses. München: Wilhelm Fink Verlag

Ernst, W. (2010). «Cultural Archive versus Technomatematical Storage.» E. Røssaak (red.). The Archive in Motion: New Conceptions of the Archive in Contemporary Thought and New Media Practices. S. 53–76. Oslo: Novus

Eubanks, V. (2018). Automating Inequality. How High-Tech Tools Profile, Police and Punish the Poor. New York: St. Martin's Press

Freud, S. (1925). «Notiz über den 'Wunderblock'.» https://www.textlog.de/freud-psychoanalyse-notiz-wunderblock.html (sist lest 20/06/18)

Galloway, A. og Thacker, E. (2007). The Exploit. A Theory of Networks. Minneapolis: University of Minnesota Press

Galloway, A. (2014). «The Cybernetic Hypothesis.» differences: A Journal of Feminist Cultural Studies 25 (1) s. 107–131.

Gran, A.B. mfl. (2018). Digitalisering av bok og bibliotek. Rapport 2. Oslo: BI. https://www.bi.no/globalassets/forskning/centre-for-creative-industries/publications/rapport-nr-2-digitalisering-av-bok-og-bibliotek-final.pdf (sist lest 20/06/18)


[1] Viktig input til denne artikkelen kommer fra min deltakelse i to NFR-finansierte forskningsprosjektgrupper: det avsluttede «The Archive in Motion»-prosjektet (ledet av Ina Blom, UiO), som oppsummerte sine funn og refleksjoner i Blom mfl. (2017), og det pågående «Digitization and diversity» (DnD)-prosjektet (ledes av Anne-Britt Gran, BI).

[2] Johansson 2018 og Riksrevisjonen 2017. Det fins fremdeles «huller» og «dårlige kopier» i de digitale samlingene som forhåpentligvis rettes opp fortløpende.

[3] Snart halvparten av alle utgitte aviser i Norge er nå digitalisert, og resten vil være digitalisert i løpet av en tiårsperiode, hevder ledelsen ved Nasjonalbiblioteket.

[4] Jeanneney 2007

[5] Taycher 2010

[6] Bokhylla-avtalen ble fremforhandlet i to etapper, 2009 og 2012, av Nasjonalbiblioteket og bl.a. Kulturdepartementet og Kopinor etter initiativ fra Skarstein.

[7] Skarstein 2006

[8] Østrem 2009: 22

[9] Se Leroi-Gourhan 1993 og Røssaak 2016

[10] Mattelart 1996: 18–21

[11] Berg 1989: 2 og 40

[12] Avdelingsdirektør i Nasjonalbiblioteket, avdeling Mo i Rana, Svein Arne Solbakk, skrev blant annet et internt notat om de tekniske mulighetene for å digitalisere hele samlingen. Se Solbakk 2004.

[13] Se Chun 2011.

[14] Ernst 2003: 47

[15] Se Røssaak 2016

[16] Freud 1925

[17] Nora 1996:1

[18] Schwarz 2010: 41–60, og LaCapra 1998: 19

[19] Etter Blom 2017: 26

[20] Stiegler 2010

[21] Richter 2016

[22] Conger 2018

[23] Bush 1945

[24] Novak 2015

[25] Licklider 1965

[26] Røssaak 2011: 187. Lignende perspektiver på dette fins f.eks. i Galloway 2014: 107–131, Galloway og Thacker 2007, Chun 2011 og Berry og Fagerjord 2017: 40 (om «computational thinking»).

[27] Ramsay 2011

[28] Moretti 2005 og 2013

[29] Tarde 1993: 55

[30] Latour 2007

[31] Latour 2014: 117–132

[32] Latour 2014:2 n.5 og Marres 2012: 139–165.

[33] Bruken av nye «aktive prosesser» i digital humaniora kommer hvert år. «Tensorflow» skaper såkalte «high dimensional» konseptuelle rom for å vise semantisk relasjoner (http://projector.tensorflow.org/). Libraries in the sky-konferansen ved Nasjonalbiblioteket i 2018 (https://www.ifla.org/node/18577) presenterte en rekke nye digitale verktøy som allerede brukes i norske kultur- og undervisningsinstitusjoner, og forskere som Frode Helland ved UiO og Jana Sverdljuk ved NB samarbeider med Nasjonalbiblioteket for å undersøke eksempelvis jødehat og migrasjon i ulike tekst- og avisarkiver.

[34] Tarde 2012: 26, 61–64. Denne tilnærmingen til «sosiale minner» lå også til grunn for vår antologi, Blom et al, 2017.

[35] Digital 21 2018

[36] Hall 2012, Berry og Fagerjord 2017: 40

[37] Burdick et al 2012: 11

[38] Se blant annet Ryan Cordell (2016) for denne type kritikk. Takk til Finn Arne Jørgensen for denne referansen.

[39] Wiener 1985: 11–12

[40] Mattelart 1996: 223, Galloway 2014: 107–131 og Widner 2013

[41]  Galloway 2014: 107–131

[42] Madrigal 2017

[43] Ibid.

[44] Salesforce blog 2015. Takk til Kristian Alm og Jana Sverdljuk for denne referansen.

[45] Under den kalde krigen kunne det være straffbart for lekfolk å sammenstille data fra åpne kilder, som i «Listesaken» (1977), «Gleditsch/Wilkes-saken» (om «puslespilldoktrinen», 1982) og «Ikkevoldssaken» (1983).

[46] Liu 2012

[47] «Data is currently not being treated as infrastructure. We need to change this», skriver Open Data Institute (ODE. (u.å.)).

[48] Se Starnes 2017, Parikka 2018 og Røssaak 2017

Mer fra Portal