October 05, 2017
Babelfisken

Til Googles nye Pixel 2 telefon kan man få et snedigt headset som bl.a. er i stand til at oversætte for dig on the fly. På et tidspunkt når vi alle har dem ude i fremtiden vil vi have et nyt besynderligt lingua franca - som er ejet af Google, og ikke er et kulturelt produkt.

Universel oversættelse er en af de allerældste drømme vi har. Meget længe var græsk et universelt skriftsprog rundt om middelhavet. Der var boglærde overalt fra Ægypten til Italien, der kunne sproget.
Siden overtog latin - først som magtens sprog fra Rom, og siden gennem kirken, som bærer af boglærdom - latin overlevede helt indtil 1800-tallet som universalsprog. Så sent som i 1820 kommunikerede H.C. Ørsted opdagelsen af elektromagnetismen i en artikel på latin som gik rundt til de videnskabelige centre i Europa og skabte sensation.
I vores egen tid er engelsk naturligvis sproget alle mener at kunne, men vi ved også at det er en sandhed med to alvorlige modifikationer

  • Der tales i virkeligheden en gigantisk sky af forskellige engelsk pidgins - ikke bare ét engelsk. For nylig er BBC endda begyndt at lave nyheder på pidgin i erkendelse af at der er langt fra det engelsk der tales i Nigeria og omegn til The Queens English. BBCs pidgin tjeneste er en virkelig øjenåbner. Man er ikke i tvivl om at det er engelsk, der skrives på - men man er heller ikke rigtig i tvivl om at det er det så ikke alligevel.
  • Hvis man har rejst nogen steder hen - eller forsøgt at arbejde sammen med folk fra andre sprogkulturer end den engelske - ved man også hvor meget der går tabt i oversættelsen. Hvis man vil sælge noget til tyskere må man hellere sørge for at kunne tysk, f.eks.
En af de vanskeligheder BBC er stødt på i etableringen af deres nye pidgin-nyheder er, at pidgin indtil videre stort set udelukkende er et talesprog. Der findes ikke nogen standard for at oversætte det til bogstaver. Sproget er endnu ikke kodet til at blive sendt gennem skriftlige medier. Det problem har alle vores gamle sprog også været igennem, bare for lang tid siden. De første ordbøger dukkede op i 1600-tallet, og det var ikke før omkring 1800-tallet, at ordbøger eksisterede der var gode nok, og almindelige nok, til at vinde hævd som standarden for hvordan vi skriver.

For ikke alt for længe siden annoncerede Google at de nu var nået til det punkt at de kunne lave oversættelse mellem sprog de ikke havde oversættelseseksempler for. Tidligere var teknologien mere banal: Giv maskinen en masse eksempler på oversættelse fra sprog A til sprog B og lad den lære mappingen. Men der er mange sprog - tusindvis - og hvis de alle skal kombineres med hinanden står man pludselig med millioner af oversættelsesproblemer.
Den nyeste udvikling var at man i stedet så at sige kunne lære de enkelte sprog og så bare plugge to af dem sammen for at bygge en oversætter. Nede i Googles maskinoversættelser ligger der derfor i dag et mærkeligt 'ikke rigtigt et sprog, men så alligevel' som ikke på nogen måde er kodet på en måde, så vi kan lære det. Det er alene en kodning af betydninger, der muliggør at man kan tage ord fra ét sprog på den ene side - konvertere det til betydninger - og så siden på den anden side af betydningen generere lyden af et andet sprog, som en oversættelse
Det er det næste engelsk - men det er ikke et sprog vi taler, det gør de neurale net i Googles computerfarm.

Der er en lang filosofisk tradition for at mene noget om hvorvidt neurale net, der bare regner 'mest sandsynlige fortolkning' af et udsagn ud, egentlig forstår det sprog de kan oversætte - og for ikke at sætte skøre rygter i gang vil jeg skynde mig at melde mig på samme side som Googles PR-afdeling nok gør, og som John Searle gjorde med sit berømte 'kinesiske rum' tankeeksperiment - vi har ikke bygget intelligente computere, der kan forstå os. Maskinen danner ikke nogen meninger om det sagte. Den ved ikke det den er blevet fortalt efter oversættelsen er lavet. Den har ikke behov for at glemme det igen - for den har intet husket.

Men den sidder der jo alligevel - mellem person A og person B, der taler hver deres sprog. Nu får vi for måske første gang - måske - en medieret sprogvirkelighed også for det talte sprog. Pludselig skal du til at overveje hvordan du skal formulere dig, for at få maskinoversætteren i øret til at sige det rigtige. Ligesom ordbøgerne gjorde det med skriftligt dansk, engelsk, tysk og fransk, og ligesom BBC er ved at gøre det med pidgin, skaber maskinoversættelsen sit helt eget sprog. Det er beslægtet med det sprog man talte i forvejen - men det er ikke det samme. Der er sætninger maskinoversætteren ikke lykkes med - dem holder man sig så fra, for hvorfor sige noget, der ikke kan oversættes. Og så er der selvfølgelig alle de ting der simpelthen ikke kan siges.

For første gang nogensinde skal vi til at overveje censur i en helt almindelig samtale mellem to mennesker. Laget af teknologi mellem den der taler og den der lytter muliggør en hel serie af mareridtsscenarier. Ikke bare det at nogen lytter med og evt gemmer samtalen, sådan at fortroligheden går fløjten, men også simpelthen forvanskninger. Man kunne forestille sig at generiske ord for ting, f.eks. produkter, erstattes med varemærker - som en slags lydlige affiliatelinks. Vi kan forestille os forbudte ord. Pludselig får Kinas berømte store firewall mulighed for også at nå ned mellem to der taler - måske kan man simpelthen ikke sige 'Tiananmen-massakren' med Google's Pixel på kinesisk på et eller andet tidspunkt ude i fremtiden.

Vi har hele tiden fået vores sprog kodet - sproget er en kodning - det er sådan noget man kan læse en hel masse om hos George Lakoff. Der hvor der muligvis sker noget nyt er, at vi ikke selv bestemmer kodningen - og at den ikke er umiddelbart synlig for os.

Når man overvejer konsekvenser af det, så kan man med fordel kigge bare på søgemaskinen Google som den fungerer i dag. Her i Trump-æraen kæmpes kampen om betydninger fra hus til hus - det er blevet decideret vanskeligt at bruge internettet som nyhedskilde uden at blive eksponeret for fuldstændig crazy konspirationer eller falske nyheder. I timerne efter skudmassakren i Las Vegas lykkedes det for absurde konspirationsudlægninger af hændelsen at flyde til toppen af søgeresultaterne. Det er ikke meget bedre hvis man kigger på autocomplete.
Det er her hvor Searles kinesiske rum pludselig skifter fra at være en akademisk tankeeksperiment til at være vigtigt for os - for hvad nu hvis søgerobotten forstod hvad konspirationerne sagde og kunne lave en virkelighedstest, i stedet for bare at rapportere til os en populær udlægning af en begivenhed under udvikling? Det gør den tydeligvis ikke - den forstår kun at "mange synes at" - og på samme måde forstår oversætteren bare gængse fortolkninger.

Det er ikke svært - baseret på nogen af de "ups, det virkede ikke" historier med bots vi har set de senere år, at forestille os Googles lingua franca udvikle sig i en politisk betændt retning - eller simpelthen blive gamet af subkulturer med et mål, et kommercielt, eller racistisk, eller hadefuldt, eller bare i det hele taget et eller andet mål vi andre ville opfatte som sekterisk i den ene eller anden retning.

Ville vi overhovedet opdage det hvis sproget algoritmisk begyndte at se meget værre ud for særlige befolkningsgrupper? Ville vi overhovedet vide hvordan sådan en påvirkning ser ud?

Posted by Claus at 11:22 PM
April 02, 2012
Hele verden bliver til software

En slags follow up om det dybere og dybere vand.

Sidste år skrev Marc Andreesen et meget læst essay i Wall Street Journal om hvordan software er ved at æde hele verden Den umiddelbare aflæsning af essayet går på, at Moores Lov og den stadig mere sofistikerede hardware rundt om os til stadig lavere priser gør at softwaresiden af... ja, af hvadsomhelst, fylder mere og mere. Apples revolution af mobiltelefonien går ud på at lykkes med at designe noget hardware, der pludselig gør telefonen til et effektivt og dynamisk apparat til at levere software på. Det handler ikke særlig meget om, at Apples telefon - som telefon - er bedre end hvad Nokia havde før. Så langt så godt.
Men det modsatte pres er ligeså relevant: Jo mere kultur vi gror rundt om os; jo flere processer, jo mere udtryksfuld bliver den kultur. Og efterhånden som udtryksfuldheden går op, sker der et kvalitativt spring: Kulturen bliver software. Wired online har en fascinerende historie om sådan et fænomen - om hvordan den kinesisk-/taiwanesiske IT-maskine med sin tiltagende sofistikation tager livet af de integratorer, HP, Cisco, Juniper, der hidtil har været specialiserede i at samle komponenterne til brugbare produkter. Komponentindkøbsprocessen er simpelthen på vej til at blive så sofistikeret at der ikke er nogen grund til at gå gennem integratoren - man kan lige så godt få leverancen direkte fra fabrikkerne. Leverandørerne bliver mere og mere til software - i stand til at integrere efter behov for brugerne. Integrationen i sig selv er gået fra at være hardware - Ciscos, HPs, Junipers, til at være software i købsprocessen.

Posted by Claus at 11:46 AM
March 13, 2012
På Dybt Vand

Vi flytter os fra en verden der er kultur, der laver teknologi, til en verden der er kultur, der betjener teknologi, der laver teknologi. Vi bliver siddende i vores jolle ovenpå, men det teknologiske farvand under os bliver dybere og dybere.

Antikythera-mekanismen blev fundet på 60 m vand, den 17. maj 1902, på et græsk oldtidsvrag ved øen Antikythera, nordøst for Kreta. Den lignede en sten, men en dykker ved skibsvraget lagde mærke til at der tilsyneladende var tandhjul indlejret i den. Mekanismen er et kompliceret værk af med mere end 30 tandhjul. En kompleksitet, der er på niveau med ure fra 1900-tallet, ikke som de maskiner man ellers kendte fra oldtiden. Mekanismen repræsenterer simpelthen en viden, man ikke forestillede sig oldtiden havde, før man fandt den - og af samme grund gik der mange år før man overhovedet kom igang med gode gæt på hvad det overhovedet er maskinen kan. Idag mener man at mekanismen kan beregne positionen af forskellige himmellegemer med høj præcision, og ser den som verdens ældste kendte analoge computer - ikke bare som et overraskende fortidsur.
Der har været masser af bud på rekonstruktioner af maskinen, så man kan komme til at se den i funktion, og på den måde finde ud af hvad det egentlig er computeren beregner. Men det er altså ikke mange oldtidsfund, der er så gådefulde. Normalt er gåden mere spørgsmålet om de kulturelle vaner omkring tingenes, ikke konkret funktion. Den meste af den viden vi mangler, og kan søge, om oldtiden er kulturel, ikke teknologisk, og særlig i den græske oldtid - som havde en rig skriftkultur - er det sproget vi har vores viden fra, og sproget vi gemmer vores viden i. Sådan har det været i nogle tusinde år. Det er sproget, der har gjort os kloge. Sproget har syntetiseret kulturen rundt om os, og det er sproget der har fanget vores viden. I den forstand er Antikythera-mekanismen en spektakulær undtagelse. Den er designet, men ingen af os kender designet. Vi kender kun dets konsekvenser i form.
Når fremtiden finder vores egen tid frem fra en ny havbund, vil det se en del anderledes ud, for jo længere ud chokbølgen fra informationseksplosionen når, jo mere bliver vores viden aflejret i teknologiske artefakter, ikke i kulturelle artifakter.
Vi bliver hver dag lidt mere cyborgs - menneske/maskiner. Vi får mere og mere informationsteknologisk svømmehud mellem fingrene til at padle runde i verden med. I form af apps og mere og mere web, og mere og mere viden vi altid kan tilkalde fra skyen. Den teknik/kultur-mixede fremtid er i færd med at afsløre sig som en hvor viden ikke så meget er noget vi har som noget vi sørger for at de maskiner vi omgiver os med lagrer på en eller anden måde;. Det bliver mere og mere broget hvad det egentlig betyder at vide noget. Hvad er viden overhovedet?

I sin nye bog, Too Big To Know, gør David Weinberger os klart hvor almindelige de nye vidensformer er ved at blive, og hvor forskelligartede de er.
Hvad var de gamle vidensformer, da? I en naiv, idealistisk, fremstilling af viden, som den var de de gode gamle dage, så studerede vore forfædre verden i laboratoriet, eller ved at gå ud og se sig om i den. Fra det studium, tog man sine konklusioner om hvordanverden er. Konklusionerne bragte man så i sammenhæng, og skrev sammen til længere traktater, hvor man satte verden fagligt på plads. Arketypen for den slags viden er måske fysikken og matematikken - hvor års studier endelig fører til det ultimative destillat, nemlig de grundsætninger, der er verdens principper. De arketypiske bogværker fra den videnskultur er de store filosofiske traktater - Platons værker fra Antikythera-mekanismes oldtid, f.eks. Eller de store naturvidenskabelige værker. Newton skrev Principia, og formulerede sin 1., 2. og 3. lov - og så er billiardkugleuniverset, altså verden uden elektricitet, lys og kernekraft, på plads. Naturlovene er verdens indre sammenhæng, og resten er bare historier vi fortæller om den verden, der har disse egenskaber.
Springer man fra oplysningstidens gentlemanforskere til idag, konstaterer man at vores viden forlængst har overhalet vores sproglige kapacitet. Eller rettere: De bøger - altså fortællinger - vi har krystalliseret vores viden ud i, er blevet erstattet af mere effektive måder at fange viden på. Samtidig med at mediet for vores viden er skiftet fra det fortællende sprog, til andre og nye former, så har målsætningen med vores videnproduktion forandret sig. Hvis nu man ikke længere skal producere en bog, skal man så overhovedet bruge den fortællende røde tråd, det gjorde bogen læsbar?
Hvilken værdi har syntesen, nær dens primære hensigt - at skabe en linje gennem et stort korpus af viden - ikke længere er gyldig?


Hvis man skriver software idag, så er der en god chance for at man dagligt støder på websitet Stack Overflow. Stack Overflow har vendt genren "computerbog" på hovedet. Sitet fanger nu en overordentlig stor del af den viden, man har brug for i sin softwareudviklende hverdag, uden store korpus og 2 års grundkursus per emne, simpelthen som en massiv database af spørgsmål, med detaljerede svar, der peger helt præcist lige derhen i det samlede tekniske bibliotek, der løser spørgerens opgave. Hvis man er skolet på den gamle måde, og tænker helhedsorienteret - eller endda heroisk i softwareudviklerens apoteose(*), så lyder det jo helt forfærdeligt med den slags reaktiv problemløsning, men i en travl hverdag er det fantastisk effektivt til at omgå forhindringer.
Stack Overflow er den naturlige konsekvens af den videnseksplosion feltet oplever. Omkostningerne ved at vedligeholde sit eget tekniske bibliotek, og sin evne til at bruge det, er simpelthen for høje, og adgangen til ressourcer som Stack Overflow hjælper os med at undgå den omkostning. Stack Overflow er for programmøren hvad Wikipedia er for den stileskrivende gymnasieelev, på godt og ondt. En mulighed for at gå uden om det enorme besvær - at erobre sit eget suveræne overblik.

Spørgsmåler er så: Ved jeg overhovedet det jeg finder svaret på, på Stack Overflow? Puristen fra fortiden svarer klart nej. Skoleeleven og den travle og trætte programmør er tilbøjelig til et pragmatisk ja, men pointen her er, at puristen har mere ret. Det er samfundet på Stack Overflow. der er intellektet her. Vi andre bruger det bare.

Lad os tage den påstand længere ud, med et eksempel mere.

Filmsitet Netflix har gennem de sidste par år haft en konkurrence kørende om at forbedre sitets mulighed for at foreslå nye film at leje til sitets brugere, baseret på de film de iøvrigt kan lide.
Den måde man løser den type opgaver på, ser forenklet sådan her ud. Man laver en model af hvordan brugere rater film. I den propper man de ting man ved om brugeren - hvad han ellers har ratet hvordan - Modellen vil som regel afhænge af en hel masse parametre, og man bruger så data fra Netflix til at tune parametrene, så man får den mest troværdige nye rating.


rating = Model(film, bruger, parametre)

Det interessante for os er, at der ikke egentlig er så meget information i modellen - det er tit og ofte de samme slags modeller man bruger til alt muligt forskelligt fra film-ratings til fabriksoptimering til videogenkendelse. Kunsten består i at optimere modellens parametre så der kommer de helt rigtige ratings ud.
Når nu modellen kan betyde hvad som helst og ikke handler specifikt om film overhovedet, men bare er en mønstergenkender bliver det modelparametrene, der er den egentlige viden, ikke modellen. Og parametrene er altså ikke formuleret som en smuk historie om Netflix-brugeren, og hvad han eller hun er for en, og hvorfor de derfor foretrækker det ene eller andet. Historien er væk - der er kun den rene viden - "hvad foretrækker han?" tilbage.

Hvis det var nemt at påstå at vi skam stadig ved det vi ved, vi organiserer det bare anderledes, i Stack Overflow-eksemplet, så skulle Netflix-eksemplet gerne gøre det lidt sværere.

I den sidste uges tid dukkede endnu et illustrativt eksempel op i min linkstrøm. Der har været meget opmærksomhed omkring Stuxnet-ormen - et formodet israelsk cyberangreb på de fabrikker i Iran der beriger Uran til atombombeproduktion . Som Antikythera-mekanismen, er ormen et umådeligt sofistikeret værktøj af ukendt oprindelse. Eksperter har kunnet matche kodens funktion med visse helt bestemte Siemens industrikontrolsystemer, som det var kendt Iranerne brugte på deres atomfabrik.
Stuxnet-ormen har en slægtning, Duqu. Den angriber den samme type systemer, men de viruseksperter, der analyserer den, er stødt på det problem i analysen, at dele af den er skrevet i et sprog de ikke kan regne ud hvad er. Det relevante her er at man altså ikke alene - som med Stuxnet - ikke kender virussens design. Man ved end ikke hvilket værktøj den er designet med.
Den form for viden - og uviden - bliver der mere og mere af. Tilbage i 1970, da de første CPUer til de første mikrocomputere blev designet, kunne man lave dem i hånden. I en moderne CPU er der tæt ved en milliard enheder. Ingen designer kan redegøre for den præcise placering af alle dem.
Den form for maskine kan kun designes af andre maskiner - et menneske, der ikke allerede formulerer sig gennem andre maskiner, har ikke en chance for at bygge den slags.
I tilfældet Duqu er det formodentlig helt med vilje at man har valgt et eksotisk designværktøj for at gøre det sværere for os andre at følge med, men Duqus ukendte kildekode, og Netflix' tusindvis af parametre er i virkeligheden eksempler på det samme. Den kode Duqu-forskerne kigger på, er dataoutput fra andre stykker kode.

Den meget komplicerede maskine, er kun med allerbedste vilje designet af et menneske. I en ikke alt for fjern fremtid vil mere og mere af den viden der omgiver os være designet måske af mennesker, men af mennesker, der brugte maskiner, der var designet af maskiner, der var designet af maskiner, der var designet af maskiner. Og, hvad der er lige så interessant, Duqu og Stuxnet er ekstrasvære at forstå, fordi de handler så specifikt om ét eneste system i Iran, som de er designet til at angribe. Duqu og Stuxnet er superavancerede væsener, der læner sig op af en global infrastruktur og er bygget til at mønstergenkende en eneste fabrik i Iran og ødelægge den. For alle os andre, der ikke bliver genkendt, gør maskinerne simpelthen ingenting. Højt specialiseret viden, synlig overalt på kloden, men lavet af maskiner vi ikke kender, til maskiner vi ikke kender.

Den front der skaber fremtiden bliver større og større. Det betyder for os, at vi mere og mere ser løsninger der tager sig specialiserede ud, og som ikke primært er lagret til os som kultur vi kan forstå, men som overvældende mængder af data eller algoritmer - som i virkeligheden er præcis det samme.
Verden, som vi ser den, vil i stigende grad tage sig ud som Duqu-ormen eller Antikythera-mekanismen eller Netflix-algoritmen, der i virkeligheden er mere data end algoritme.
Vi flytter os fra en verden der er kultur, der laver teknologi, til en verden der er kultur, der betjener teknologi, der laver teknologi. Vi bliver siddende i vores jolle ovenpå, men det teknologiske farvand under os bliver dybere og dybere.

Posted by Claus at 12:33 PM
March 05, 2012
Hvad ser maskiner, når de kigger på os?

Hvis du nogensinde har taget det lille grundkursus i kommunikation, så har du helt sikkert set den model af kommunikation som Claude Shannon og Warren Weaver konstruerede i 1948, den ser ca sådan her ud

En kilde, anvender en afsender til at kode en meddelelse, så den kan transmitteres over en kanal, for siden at blive afkodet af en modtager til en destination.
Forskellige discipliner har lagt vægt på forskellige ting ved kommunikation, som beskrevet her. I den humanistiske tradition, interesserer man sig mest for kilden og destinationen, og altså egentligt mere for en model som bare er

og så handler diskussionen mere om under hvilke vilkår A og B kan blive enige om hvad kanalens budskaber egentlig betyder.
Hvis man er interesseret i den teknologiske side af sagen, så er det lige præcis det, den humanistiske vinkel forenkler væk, man er optaget af, nemlig

Hvad sker der her? To ting er særlig værd at tænke over. Det første - som vi gemmer til senere - er kanalens beskaffenhed. Det interessante ved kanalen er at alt hvad der befinder sig i den er kodet, altså omsat til symbolsk form. Det er kodningen der gør budskabet tilgængeligt til alt det symbolske maskineri Moore's lov har givet os. Med kodning og alt internettets symbolmaskineri kan man pludselig en masse. Kanaler kan flyttes hvorhen man har lyst. Koden kan lagres, Koden kan genudsendes. Koden kan manipuleres og fortolkes af maskiner, der så deler andre koder med os. Koden kan kopieres. - men alt det vender jeg tilbage til i en senere post.

Det andet er hvad afsenderen egentlig er for en størrelse. Hos Shannon og Weaver er det bare en boks. Tit ser man det hjælpsomt afbildet som om afsenderen er en mikrofon og modtageren en højttaler, men jeg synes det er mere frugtbart at forestille sig afsenderen som et kamera, og modtageren som en projektor, som her

Hvorfor er kameraet et bedre billede? Den humanistiske vinkel på kommunikation gør kommunikationen til en sag mellem A og B - men så medgørlig og friktionsløs er teknologi snart sagt aldrig. Kameraet peger - og ser kun hvad det peger på. Kameraet indrammer - måske ikke præcis det vi ønskede. Kameraet opfanger - både mere og mindre lys end vi håbede på.
Informationsteknologi er ikke spor neutral, den er mere besværlig end det - men ofte også meget mere magisk. Lad mig vise dig nogle eksempler.


Det første eksempel er i virkeligheden en hel kæde af eksempler. Timo Arnall lavede på ett tidspunkt denne magiske video af hvad maskinsynsrobotter egentlig ser, når de kigger på verden

Hvad lægger de mærke til i billederne? Hvad kan de måle som vi ikke kan overskue (hastigheder f.eks., eller store mængder af helt ens objekter) På tværs af alle eksemplerne forstår man at de seende maskiner konstant koder helt andre informationer end vi selv gør når vi kigger på filmen nedenunder de kodede data maskinerne ser. Til tider virker robotterns oplevelser fordummede - og vi overskuer billedet langt bedre, men andre af eksemplerne håndterer problemfrit massiv parallel information vi kun kan drømme om at overskue.

Tom Igoe, en foregangsmand i Physical Computing, lavede på et tidspunkt følgende billede af hvordan en normal computer egentlig ser os.

Som computeren oplever os har vi fingre - det kan trykke på knapper, et øje på skærmen og ører til lyden - resten af vores adfærd er maskinen blind for. Det er derfor vi kan være lige så rasende vi har lyst til, det skifter maskinen ikke opførsel af, vi kan læne os tilbage eller sidde ordentligt. Vi kan være i en flyver eller ved et skrivebord, det er altsammen ligemeget for computeren for den ser det ikke.
Konsekvensen af ikke at blive set af computeren blev først afsløret da vi allesammen lige pludselig blev set i uvante rammer, da ChatRoulette-feberen hærgede. Udover de utallige blottede kønsdele og andre pranks, så så man pludselig ind i en stor verden af henslængte mennesker der kedede sig i grimme omgivelser. Et kamera er ikke bare et kamera, vi optræder for det. Vi har den adfærd kameraet forventer af os - og det gælder også computeren-som-kamera. Vi negligerer det, den ikke lægger vægt på, og alle disse uiscenesatte rum kunne vi pludselig se med ChatRoulette.

Det hjælper ikke at pege på skærmen med fingrene - eller dvs. det hjalp ikke, indtil for en 4-5 år siden. Nu er umiddelbar berøring blevet standardvokabular for maskinerne. Tom Igoe burde egentlig lave sin tegning om, til en der var klar over hvor vi er - via en GPS, om vi bevæger os - via et accelerometer, og det er ikke en finger mere, den ser - det er faktisk det meste af en hånd, på skærmen.

Nogle gange ser computeren ting vi ønskede den ikke så. Forleden dukkede følgende historie op i min linkstrøm: En mand var kommet for skade at linke på Facebook til en usandsynlig vare på Amazon, nemlig et enormt kvantum glidecreme. Den utilsigtede konsekvens af det var at hans billede pludselig dukkede op som en slags anbefaling i annoncer for tøndevis af glidecreme på Facebook. På Facebook er enhver henvisning potentielt en anbefaling, og computeren var ude af stand til at se forskel på et skør-skør-verden ironisk link og en rigtig anbefaling. Man kan simpelthen ikke vise Facebook den forskel. Konsekvensen af sådan et system er nem at regne ud: Med tiden vænner man sig til at opføre sig som kameraet forventer og holder op med at se ud som en glidecremekunde. Vi optræder for kameraet, og retter vores adfærd ind efter de normer kameraet angiver for os. Det er nemmere bare at skrive om positive ting på FB.

Posted by Claus at 11:34 AM
February 22, 2012
Revolutionen foregår endnu

Af og til er det nemt at se på nettet, og nå den konklusion, med alt hvad det kan, at det hele er slut nu - det er total misforståelse. Her er et par stykker grafik, der illustrerer hvorfor.
Den første her er en nylig udgave af Netcrafts web site server survey - kig engang på listen over servere, der svarede, og se på den historiske udvikling. Kurven vokser - på 17. år - eksponentielt. Eksplosionen er løbende igang rundt om os, uanset hvor meget vi har vænnet os til den. Vi er blevet fartblinde.

Den anden grafik kommer fra The Economist og viser os noget om teknologiadoptionsrater gennem tiderne - sammenligner PCen med Mac med smartphones osv osv. Også den viser at revolutionen lever og har det godt. PCen står godt nok overfor en opbremsning i behov, men til gengæld er de mobile platforme eksploderet som kategori og står overfor at hente PCens 20 årige forspring. Det betyder forresten også at Unix, fra at have været kun til serverrummet, bliver det dominerende operativsystem ude i hjemmene, bare ikke som desktops og laptops men pakket ned i iOS og Android. Windows' uindtagelige forspring på desktoppen klarede ikke teknologiskiftet til mobile platforme.

Posted by Claus at 05:54 PM
February 01, 2012
Moores lov


I går var jeg til Singularity Salon sammen med en hel masse andre teknologiinteresserede. Singularity - det er noget med at teknologiens udviklingstempo accelerer, at det eneste der er konstant ved teknologi er lige præcis den acceleration, og at vi derfor på et tidspunkt når et punkt hvor teknologien flytter sig så hurtigt at vi rent biologisk simpelthen ikke kan følge med i hvad den udvikling består i længere. Fornuften i den forudsigelse mener jeg en hel masse om, også mere end jeg har lyst til at skrive om i den her blogpost. Den har nemlig et mere beskedent anliggende, nemlig en kort diskussion af hvordan nogen er kommet på ideen om accelerende udvikling.

Nogle ville sige at ideen er gammel, eller i det mindste går tilbage til jetalderen, men den umiddelbare inspiration er Moores lov, altså den observation, af Intel-grundlæggeren Gordon Moore, at computerchips fordobler deres kapacitet hver 18. måned. En observation, der har vist sig at være urimeligt langtidsholdbar og og i snart 55 år leveret stadige nye informationsrevolutioner. Denne eksponentielle vækst i regnekraft har kastet beslægtede eksponentielle vækstkurver af sig, med fremskridt i lagringskapacitet på verdens harddiske, fremskridt i netværkskapacitet på internettet og - næsten vigtigst af alt - fremskridt i energiforbruget i computere.
Det mest imponerende ved Moore's lov er at den i virkeligheden er en metalov. Udviklingen har holdt sit tempo til trods for at snart sagt alle de produktionsteknologier man kendte da Moore skrev sin lov ned er skiftet ud siden. Det har været en hård og stadig kamp at holde revolutionen ved lige, og dog så har den lange kæde af i princippet tilfældig og usammenhængende innovation gjort af et stort marked af eksperter, ikke en snedig produktplan hos Intel, holdt trit med forudsigelsen. Moore's lov lyder som en togplan, men det har kostet en hel verden af forskere og ingeniører 50 års hårdt arbejde, grublen, skuffelser og fiaskoer mellem alle succeserne at holde den køreplan.

Moore's lovs ufattelige holdbarhed giver plads til massiv optimisme om fremtiden, og vores umiddelbare fortid bakker bare den optimisme op. For 30 år siden, i begyndelsen af 80erne, indhentede computeren problemet "tekstproduktion" og vi kom ind i datidens revolution 'desktop publishing'. Pludselig kunne enkeltmand orkestrere og gennemføre arbejde, der tidligere krævede en hel kæde af specialister. Siden har computeren indhentet flere og flere, vanskeligere og vanskeligere opgaver, efterhånden som den naturlige problemstørrelse for opgaverne begyndte at passe inden i en laptop. Efter tekst kom musikken, og efter musikken kom fotos, og efter fotos film, sådan at alle de medier vi har kendt til i de sidste 100 år efterhånden er blevet slugt. I samme periode blev et spil som skak også slugt. Og eksemplet skak er illustrativt for hvor brutale eksponentialfunktioner er, når først de har acceleret os ud i overhalingsbanen. Skakcomputere er en gammel idé, og i årevis var de betydeligt ringere end menneskelige spillere. Så i 1988 lykkedes det langt om længe IBM at bygge en supercomputer, der lykkedes med at slå den danske stormester Bent Larsen i et parti. Bent Larsen var ikke den han havde været på det tidspunkt og computeren fik stadig tæsk af verdensmesteren uden problemer. Desuden var det nødvendigt at specialdesigne hardwaren til lige præcis denne opgave. 9 år senere - 6 Moore's lov doblinger - vandt en af maskinens efterkommere første gang over verdensmesteren, og 9 år senere igen sker det rigtigt vilde: Da slår en helt almindelig computer, sådan en jeg skriver på nu, stormesteren Kramnik ved bare at køre særlig skaksoftware. Der er ikke længere brug for dyre forskningsprojekter og særlige maskiner fra IBM, vi har allesammen maskiner foran os, der kan slå verdensmesteren. Problemet Skak kan rummes i selv den billigste computer.

Når det er sagt, så er man dog også nødt til at sige lidt mere: Skak er løst nu. Der er ikke mere Moores lov kan gøre for skak. Nu hvor problemet skak er indhentet så er ræset slut. Og på samme måde forholder det sig i virkeligheden med vores laptops og desktops. Moores lov er ræset uanfægtet videre, men de færreste af os vil have den oplevelse at laptoppen har skiftet væsentlig karakter bare fordi den idag er 50 gange stærkere end den vi købte for 10 år siden. Der er ikke mere Moores lov kan gøre for laptoppen heller, det er ikke regnekraften, der bestemmer hvad laptoppen som værktøj gør for os længere. I den forstand er det ikke rigtigt at Moores lov garanterer fremskridt. Den garanterer fremskridt der hvor beregning var en mangelvare, og det er bestemt ikke allevegne.
Hvis man gerne vil lave eksplosive fremskrivninger af sine muligheder er det altså vigtigt at man beskæftiger sig med noget som Moores lov er i færd med at flytte. Det er ikke noget tilfælde at Apple vokser hurtigere end alle de andre; Apple har med stor dygtighed flyttet sin omsætning med Moores lov, i hele sin levetid. Først fra tekstterminaler til maccens grafiske terminal. Så fra maccen over på iPodden, ved at udnytte lagringsrevolutionen. Så over på mobiltelefonen, hvor forbedringer i kapacitet og strømforbrug først i de sidste 5-8 år har gjort weboplevelser gode nok. Man er ikke blevet ved at løse de samme problemer, bare bedre. Man har omhyggeligt flyttet sig lige præcis derhen hvor eksponentialfunktionen netop på det tidspunkt var ifærd med at generere nye muligheder.

Men hvad så med Facebook og Twitter, er de virkelig Mooreske succeser? Næh. Facebook stiller ikke noget som helst til rådighed, der ikke var nemt tilgængeligt for 5-10 år siden. Google? Var det muligvis for ti år siden, men ikke længere. Amazon? Samme historie, omend firmaet med stor ihærdighed forsøger at flytte sig på kurven ved at accelerere skyen, altså flytte væksten over på online services, som får forandret deres priser løbende af Moores lov. Det gør de andre selvfølgelig også, men ikke strategisk med samme konsekvens som Amazon.
Konsekvensen af at falde af kurven for en virksomhed som Google er til at tage at føle på. Der er i virkeligheden en hær af lige så gode søgemaskiner - det er overkommeligt at investere sig til en mere - og Googles dominans er mere et spørgsmål om market power end noget andet her i 2012.
Men at market power kan konkurrere med Moores lov fortæller os imidlertid også noget andet: Det er simpelthen ikke er rigtigt at Moores lov ændrer alt. Man får ikke altid noget ud af fremtiden af at skalere det op man gør nu; måske er det der skal til at man laver noget helt andet, sådan som Apple f.eks. af et par omgange har set i øjnene.

Posted by Claus at 12:41 PM
January 26, 2012
100 års Internet

For et par uger siden gik John Elfreth Watkins' 100-års forudsigelser fra år 1900 Twitter rundt. De er lette at grine af, med "ærter så store som rødbeder" og "alfabetet vil være uden C, X og Q", men i og for sig er de ting Watkins rammer rigtigt på, næsten mere interessante. Specifikt om internettet har han 4 forudsigelser der alle er gået i opfyldelse


  • Photographs will be telegraphed

  • Man will see around the world

  • Telephones around the world

  • Grand Opera will be telephoned

Da Watkins skriver sine forudsigelser har man haft filmfremvisninger i 4-5 år, trådløs telegrafi i et par år. Hverken broadcast radio eller tv eksisterede, så på den baggrund er det meget habilt fremskrevet, navnlig af en tilfældig side fra et tilfældigt damemagasin. Værd at bemærke er det, at Watkins gætter al sin teknologi forkert, selv om han gætter anvendelserne og tilgængeligheden rigtigt. Telegrafi er forsvundet, erstattet af bedre løsninger, og telefoni har oplevet informationsrevolutionen og lever i dag side om side med telegrafiens afløsere, på internettet.
45 år senere skriver Vannevar Bush det berømte essay As We May Think i The Atlantic, hvor han forudser hypertekst, i form af fantasimaskinen Memex, andre 45 år før det endelig bliver til noget på stor skala med introduktionen af world wide web. Bush tager også fejl af teknologien, selv om han har gættet anvendelsen rigtigt: Meget af essayet består i at sandsynliggøre hvordan polaroidbilleder og mikrofilm faktisk kan etablere hypertekst og interaktive brugerskabte medier.
I "Tools for Thought" fra 1985 er Howard Rheingold tættere på at ramme teknologien for hypertext rigtigt - for eksempel skriver han mest om teknologi, der faktisk findes; men Rheingold kalder også bogen for en øvelse i 'retroaktiv futurisme' og som sådan er bogen håbløst tabt i fortiden. World Wide Web findes stadig ikke, det var ikke opfundet, istedet er der Ted Nelsons Xanadu, et kompliceret og fantastisk hypertekstsystem, langt rigere som hypertekst end WWW siden blev, men fanget, som anvendelse, i et gammelt videnssamfund, hvor viden er bogviden. Xanadu er skidesmart - hvis hypertekst skal være tekst. Men hvis hypertekst skal være webshops og Farmville og Youtube og Github og søgemaskiner og Google Docs og spotifylinks og twitterstreams osv osv, så er mere funktionalitet faktisk ikke bedre, men værre. Xanadu blev en fiasko, fordi det var svært for Nelsons team at få det bygget færdigt, og så simpelthen fordi projektet gættede forkert på hvad man egentlig kan bruge hypertext til.
Eksemplerne er ikke enestående; det er helt fast, at vi godt kan finde ud af forskyde vores adfærd en anelse og forestille os den anderledes, mens det kniber betydeligt mere med at forudse teknologien adfærden finder sted i, og det gør forudsigelserne - selv de imponerende som Watkins' - en smule komiske, fordi de systematisk tager fejl af den sammenhæng de indgår i. Alle forudsigelserne ovenfor bliver komiske af præcis den samme grund. De er i og for sig rigtige nok, som enkeltobservationer, men Watkins tager alligevel helt fejl, fordi han ikke fra 1900 kunne se at alle fire forudsigelser var forudsigelser om den samme fremtid, nemlig internettets. Ligesom Vannevar Bushs Memex senere blev det også.

Hvordan kan det være at Watkins og Bush helt misser hvilken teknologi det er der vinder, og betyder det noget, hvis nu de faktisk rammer anvendelserne rigtigt?

Lad os starte med hvordan det kan være. Da Watkins skrev, og for så vidt også da Bush skrev var der ikke noget, der hed informationsvidenskab. Det var knapt nok noget, der hed information - eller dvs. det er jo et almindeligt og gammelt ord; men i den specifikke betydning, som noget med nogen bits der løber rundt og betyder noget, er disciplinen først opfundet i 1940erne, samtidig med Bush. Da Watkins skrev var der simpelthen ikke nogen fælles abstraktion bag fotografi, telegrafi, telefoni og heller ikke bag den hypertekst Bush fabulerede om. Hvor nyt et fænomen det egentlig er kan man læse en hel del mere om i James Gleicks umådeligt fascinerende bog fra sidste år om netop information. Nu hvor vi har vænnet os til abstraktionen bag det hele, kan det være svært at forstå hvor gennemgribende en revolution det er, at den pludselig findes. Vi har vænnet os til at der er computermodeller, informationsmodeller, af snart sagt hvadsomhelst i en sådan grad at det kan være svært at skelne landkortet fra landskabet. Det er for feinschmeckere at den musik man hører er lydbølger, og ikke de bits, der ligger i mp3-filen.
Sådan var det ikke engang. Dengang var tænkere trænet i at tænke på ting, og det symbolske var en nebengeschæft ved siden af tingene. I 1968 skrev Herbert Simon sin berømte bog The Sciences of The Artificial hvor han gør opmærksom på netop det: Naturvidenskaberne handler om at observere naturen og på den måde afsløre hvordan den hænger sammen, men naturvidenskaberne ændrer ikke noget ved naturen. Kulturvidenskaberne, videnskaberne om det menneskeskabte, er symbolske videnskaber, der selv handler om symbolske systemer, systemer med hensigter og funktion. Kulturvidenskab kommer derfor hurtigt til at beskæftige sig med hvordan verden bør være, og glider helt af sig selv fra en deskriptiv til en normativ rolle. Der opstår helt af sig selv en interaktion mellem modellen og det modellerede.
Da Simon skriver i 1968 var det stadig interessant og nyt - et fremsynet udsagn. Formodentlig lyder det i skrift stadig som akademisk nonsens og postulat, men 30 år tidligere havde Alan Turing, som forøvrigt fylder 100 år i år, lagt grunden til sin berømmelse ved at demonstrere at den idé på ingen måde er filosofisk tankespind, men at det faktisk er tilfældet, sådan helt konkret, at ligegyldigt hvilken symbolsk maskine vi har lyst til at bygge, så findes der faktisk én maskine, den endelige maskine, som vi kan nøjes med at bygge, og så kan vi bagefter simulere os til alle de andre.
Simons humanistiske pointe skal med andre forstås som ramme alvor. Det er ikke relativistisk humaniora, men en ingeniørmæssig anvisning på hvordan man faktisk nu, hvor man bygger symbolske systemer, kan arbejde.
Vi skriver det lige med stort, fordi det bestemmer dybden i informationsrevolutionen:

Ethvert symbolsk system kan realiseres indenfor rammerne af ethvert andet symbolsk system

Det er ikke bare "i princippet", det skal tages helt bogstaveligt. Lige så snart det symbolske er det centrale, så kan det flyttes hvorsomhelst hen.
Jeg er med på at det kan lyde banalt*, og det er derfor det er værd at nævne Simons bog. Det er banalt idag, men for 45 år siden var det noget Herbert Simon syntes man var nødt til at skrive ned i en bog, og for 65 år siden - og 112 år siden - da Bush og Watkins skrev, var det ikke indlysende, måske knap nok erkendt, at det var sådan. Derfor så telefonen, telegrafen, fotografiet, hyperteksten og alt det andet ud til at være helt forskellige ting, selv om vi idag synes det bare er forskellige afspejlinger af det samme, information.

*Og dog. For uanset hvor bogstaveligt jeg fortæller dig at du skal tage ordene, så tør jeg vædde med at du stadig lidt synes det er noget abstrakt nonsens. Det er svært at lade være med at opfatte de overflader vi omgiver os med, som noget virkeligt. Vi har alle banket på en computerskærm på et tidspunkt, irriterede over at den "gør det forkerte", selvom vi godt ved at skærmen bare viser os noget, og al magien foregår helt andre steder. Vi er simpelthen bygget til at tage overflader for noget virkeligt.


Western Union - datidens største telegrafselskab - lod være med at købe telefonen af Alexander Graham Bell, da han havde fået patent på den, og fordømte sig på den måde selv til nutidens irrelevans. Men den samme fejl laver vi alle sammen hele tiden, den dag i dag. Virksomheder overser til stadighed at andre sådan set æder deres marked ved at inkorporere funktionalitet fra deres produkter i andre digitale sammenhænge. Der er friktion i verdensbilleder, selv om teorien fortæller os af de alle er udskiftelige.

Og hvad betyder det så, at det er så uendelig svært at tage computerens - og nettets - generalitet alvorligt?
Måske at man ikke finder et publikum til sine stærkt nicheprægede it-historiske foredrag.
Måske at man ikke får ombygget sin arbejdsplads til nye fleksible pull-medier, uden tonstunge CC:Emails.
Måske at man ikke opdager at man sådan set klarer sig fint uden servere og intranet med Dropbox og Google Docs.
Måske at man simpelthen bare ikke bliver den næste Mark Zuckerberg.
Måske at man ikke opdager at sommerhuset sådan set godt kan finde ud af at tænde for varmen en time før man ankommer, så der ikke er koldt.
Måske at man ikke opdager at en Youtube er en helt fornuftig - og billig - måde at bygge sin egen TV-station på.
Måske at man - som Google - ikke i tide opdager at det at søge, på Google, bliver erstattet af det at finde, på Twitter og Facebook og Quora.
Måske at man, som fagbogsforlag, ikke opdager at store lærebøger bliver erstattet af Q&A-sites som Stack Overflow.
Måske at man - som kortbogsvirksomhed - ikke opdager at browseren virker fint som kortbog. Måske at man - som telefonbogsvirksomhed - overser at Google virker fint som telefonbog.

Det kan lyde som en uoverskuelig, endda meningsløs, liste af konsekvenser, men lidt struktur er der nu alligevel i det, for hver eneste af eksemplerne er et eksempel på det samme, nemlig at den forklaringsramme, den sammenhæng, man har sat sig selv i, viser sig bare at være endnu en af de tvivlsomme overflader computeren og internettet har så let ved at bryde igennem - mere om det i en senere blogpost.

Posted by Claus at 06:56 PM
January 24, 2012
Siloer og markeder

I Journalisten kan man læse, at Mecom - det er dem, der ejer Berlingske - har bestemt sig for at fremtiden er paywalls og så følgende lille perle af lort

"De kommercielle muligheder i koncernen skal udnyttes bedre. Det gælder blandt andet udnyttelsen af de datamængder, Mecom har på sine abonnenter" 

Det handler om ikke at lege med, hver bit skal tjene penge, både dem man sender ud over nettet til kunderne, og dem man har samlet ind fra kunderne selv.
Anderswo på internettet er der passiv aggressiv kamp om åbenhedsmoral blandt de store siloskabere. Google er begyndt at promote Google+ i søgeresultater, men ikke Twitter og Facebook - fordi Twitter og Facebook ikke vil lege med. "Ingeniører, der arbejder hos Facebook og Twitter" svarer igen ved at vise hvordan de burde fremstå, fordi de er meget større og mere relevante end Googles resultater. "Ingeniører hos Facebook og Twitter" skal få os til at tænke at det er noget græsrodsnoget, en mashup blandt mange - men det er Blake Ross, der sidder i Facebooks øverste ledelse, der har lavet sitet, så det er vist mere bare en PR-øvelse. Om Malik har det bedste sammendrag af den slåskamp.

Det Mecom, Twitter, Facebook og Google allesammen gerne vil udnytte, men ikke vil sige, men alle handler efter er, at der er forskel på hvad man får ud af åbne netværk, når man er en lille aktør og når man er en stor aktør. Der er forskel på hvilken glæde man har at et åbent marked når man er en lille butik og når man er et nær-monopol. Når man er en lille butik er markedet et gode, fordi det er en lavfriktionsrute til kunder og brugere. Uden forhandlinger med en distributør om hvilken skat man skal betale for at få fat i kunderne. Når man er et nær-monopol er markedet en distraktion, der forhindrer en i at gøre hvad man har lyst til, og tage hvad man har lyst til for det.
Der er ikke noget ved markedet der forhindrer et monopol i at vokse - det koster bare tid at tilpasse sig markedet, og det giver de andre mulighed for at skifte fokus et sted hen man ikke selv har lyst til at gå.

Det Mecom, Twitter, Facebook og Google formodentlig gør forkert, er at tro at historien er slut nu. Der er ikke ét eneste informationsteknologibaseret marked i historien, der ikke har været hyperfølsomt overfor invasion udefra, sådan som Clayton Christensen har beskrevet harddiskmarkedet i sin berømte bog Innovator's Dilemma. I bogen beskriver Christensen detaljeret hvordan disklagringens historie Ved at tage sig selv 'af markedet' fravælger virksomhederne at deltage i det konstante kværnende skift i hvad der egentlig driver markedet, og risikoen er helt banalt den, at nye incitamenter kan vælte de gamle af pinden som de vigtigste, og så er man ilde ude, hvis man simpelthen har sat sig tilfreds i hjørnet og plejet sin egen selvforståelse for at tjene flere penge.
Det handler kort sagt om, at det kan have grusomme konsekvenser hvis man har taget fejl af hvilket marked det er forbrugerne træffer deres beslutning på.
Mecom er muligvis rigtig store på avismarkedet, men har de regnet rigtigt på markedet for digitale nyheder? Man kan have sin tvivl.
Pladeselskaberne gjorde sig selv en bjørnetjeneste ved ikke i tide at se i øjnene, at forbrugernes vilje til at gå over på digitale medier oversteg værdien af pladeselskabernes produkt. De 3-5 giganter der monopoliserede CD-salget var helt igennem marginale spillere på markedet for online, digital underholdning.
Microsoft har i 20 år ikke rigtig kæmpet med nogen om virksomhedernes IT-budgetter, men ved at ignorere smartphones og tablets som nye kategorier må Microsoft pludselig til at se Apple gøre et seriøst indtog i virksomhederne, med massive indkøb af iPhones og iPads. Det betyder ikke at der pludselig er konkurrence på laptops og desktops også, men det betyder at virksomhederne retter sig mod informationsværktøjer, der også dur på de utallige tablets og telefoner. Så mister virksomhederne langsomt afhængigheden af Microsofts dybe stak af kontorløsninger, og så er monopolet på desktops og laptops pludselig langt mere skrøbeligt overfor erosion end før.
Indenfor telefoni måtte Nokia se det samme i øjnene. Nok så gode telefoner blev pludselig irrelevante når nu webbrowseren og andre af smartphonens velsignelser ikke duede til nogetsomhelst sammenlignet med dem i de nye telefoner fra Apple og Google.
Google slås for tiden med sin identitet fordi man i Google godt kan se at det monopol man har som søgemaskine trues af segmenter, de andre spillere truer med at trække helt af markedet. Dels Apple, ved at æde søgning på mobile platforme, og dels Facebook, ved simpelthen at æde hvordan vi bruger vores opmærksomhed på nettet, og hvorda vi finder svar (spørger vi maskinen, eller spørger vi vennerne på FB).

Hvad har det med teknologi at gøre? Helt banalt det, at det er informationsteknologiens samtidig dybe og banale evne til hele tiden at skifte ham, hele tiden at skifte overflade - at danne nye overflader - der flytter de rammer markederne bevæger sig under. Hver eneste gang det ser ud til at nogen har fået sat nogle faste rammer for hvad markedet består i, starter de andre kampen ude ved randen langt fra kernen af det nye marked, med at finde andre synsvinkler, synsvinkler monopolisten ikke har gjort til sine, på de samme data, de samme brugere, de samme behov, de samme bits, og så begynder slaget for at flytte opmærksomheden og økonomien over i et nyt marked.

Posted by Claus at 10:46 PM