Hva er Internett?

Et doktorgrads-symposium avslører at selv de lærde har mange svar, skriver Arild Haraldsen.

Teknologisk utvikling er å sammenligne med det å bygge en katedral. Det skjer over lang tid, og mange bidrar. Noen legger grunnstener, andre bygger videre på andres arbeid. Mange forskjellige profesjoner deltar: arkitekter, murere, etc. Etter mange år står katedralen ferdig.

Så kommer historikeren og spør:” Hvem bygget den katedralen?”

Paul Baran (”oppfinneren” av pakke-svitsjing).

NTNU arbeider for tiden med et tverrfaglig doktorgrads-prosjekt om den norske Internett-historien. I den anledning arrangerte de forleden et symposium med en rekke personer som har vært sentrale i denne historien. Doktorgrads-arbeidet blir ventelig publisert om et drøyt år. Symposiet viste at det er mye interessant og spennende vi da vil få innblikk i. Et av de mer interessante aspektene er hvordan aktørene svarer på spørsmålet: ”Hva er Internett?”

Noen sier det er en kommunikasjonsprotokoll, andre et medium. Og mange huffer seg når noen setter likhetstegn mellom Internett og WWW (som er en applikasjon), eller sier at Internett er en markedsarena som fremmer e-handelen (som er en anvendelse). Noen sier Internett er over 30 år gammel, andre setter ”fødselen” til lanseringen av Mosaic (1993), eller til 1995 da e-handelen begynte å ta av.

Hvem har rett? Alle og ingen. Definisjonen av ”Internett” er avhengig av aktørenes sosiale og kulturelle ståsted og perspektiv. Det kan derfor være litt interessant å se hvordan synet på hva Internett, har endret seg over tid.

Glem visjonen om et verdensbibliotek, om alles tilgang til all verdens informasjon, etc. Det er en visjon som mange har hatt i lang tid før Internett. La oss heller se på de rent praktiske – og formålsrettede - oppfatningene av hva Internett er, eller burde være.

Dele knappe ressurser

Det opprinnelige formålet var å dele på felles og knappe data-ressurser gjennom et nettverk. Larry Roberts – IT-sjefen ved ARPA – var opptatt av at forskerne skulle kunne få tilgang til databehandlingsmuligheter og dokumenter som lå på andre maskiner på andre universiteter. ”When the network was originally built, Larry (Roberts) certainly had high in his set of goals of the idea that different host sites would cooperatively use software of the other sites. There’s a guy at host one, instead of having to reproduce the software on his computer, he could use the software over on somebody else’s computer with the software in his computer” som en samtidig kilde sier det.

Det var altså time-sharing via nettverk som var formålet. Det var aldri snakk om å laste ned en applikasjon ”fra nettet” for så å utføre oppgaven lokalt. Det var aldri snakk om ”distribuert databehandling”. Det var et rent kostnadsmessig formål bak den opprinnelige tanken om Internett.

Ut i fra sitt formål var Internett ganske mislykket. Det var svært få forskere som brukte Internett til å begynne med, selv om det ble laget både gulrøtter og pisker for å få forskerne til å benytte denne formen for datebehandling. Internett ble f.eks. visstnok aldri brukt til sitt opprinnelige praktiske formål – til interaktiv kommunikasjon som et ledd i adferdsforskning.

E-post som ”killer application”

Anvendelsen av Internett tok seg kraftig opp da elektronisk post (egentlig ”net notes”) kom med Ray Tomlinsons system i 1972. Da kunne forskerne utveksle kommentarer til hverandre. Ingen kunne tenke seg at e-post kunne bli brukt til noe nyttig til å begynne med. Men det ble en ”smash hit”.

Det som er det interessante her er at perspektivet forskyves. Den opprinnelige tanken var dels å dele på knappe og dyre ressurser, dels å dele på kompetanse knyttet til informasjon som lå i andre maskiner. Det opprinnelige formål var derfor tilgang til datamaskiner, men ble etterhvert snudd til tilgang på personer. Tilgang til forskerne ble viktigere enn tilgangen til deres forskningsdokumenter.

Religionskrigen: X.400 vs. TCP/IP

En særdeles interessant (teknologisk) debatt var hvilken kommunikasjonsprotokoll som skulle bli standard – de europeiske televerkenes OSI-modell med X.400 eller amerikanernes TC/IP. Den debatten har blitt kalt den store informasjonsteologiske krigen, hvor noen burde ha skjønt at TCP/IP – som til sist vant - var ”best”. Og det var jo det som skjedde til sist: Internett vant over de gammelmodige televerkene.

Så enkelt er det imidlertid ikke. X. 400 vs TCP/IP dreier seg om noe langt mer enn teknologi. Det var for det første europeernes forsøk på å bygge opp en tele- og dataindustri som kunne redusere det amerikanske hegemoniet. Den tapte de.

For det andre var det kampen om hvem som skulle ha kontrollen i den verdikjeden som etterhvert utkrystalliserte seg mellom data- og tele-industrien. Skulle det være produsenten (data-industrien, bla. gjennom IBMs SNA-konsept) eller distributøren (de statlig eide telemonopolene) som skulle eie tilgangen til markedet/kundene?

Sett fra markedets side var imidlertid perspektivet annerledes. For dem var tilgangen og ikke teknologien avgjørende. Det er derfor den pragmatiske tilnærmingen - ”ja, takk begge deler” - som Universitetet i Oslo gjennom professor Rolf Nordhagen inntok – som fikk gjennomslag, først her i landet og senere også internasjonalt. Einar Løvdal tok initativ til, og fikk gjennomført, det såkalte multiprotokoll-nettverket, kalt NORDUNET-pluggen. NORDUNET-pluggen kunne kommunisere via alle typer protokoller, altså forene både TCP/IP og X.400.

Resultatet av dette arbeidet ble stor anerkjennelse i Europa for Norges kompetanse i datanett. Som resultat fikk norske forskningsmiljøer ansvaret for en rekke internasjonale datakommunikasjons-prosjekter. Dette ga Norge en viktig plass i det videre arbeidet med utvikling av Internett-samarbeid. Norge unngikk den skjebnen som bla.. de tyske og franske universitetsnettene led: Her ble utviklingen hindret i mange år på grunn av at en sverget til OSI-modellen.

WWW =Prosjektadministrasjon

Når Tim Berners-Lee laget applikasjonen WWW var det med det ”enkle” formål å få mer effektivitet ut av forskningsarbeidet. Forskning skjer ved tilgang på dokumenter. Det kan være vanskelig nok når dokumentene er spredd. I tillegg kom at informasjon var definert som tekst og ikke omfattet f.eks. bilder og grafiske fremstillinger. Men det virkelige problemet lå i den hierarkiske og lineære strukturen som informasjon og dokumenter er lagret i. Ted Nelson hadde tidligere tenkt tilgang til informasjon via et konsept han kalte ”hypertext”.

Tim Berners-Lee realiserte – i hvert fall delvis – Ted Nelsons visjon gjennom applikasjonen www. Men to ting er vesentlige her: Tims www-konsept kunne neppe vært realisert hvis ikke data-teknologien og data-kulturen var blitt endret i løpet av 70- og 80-årene: PC-ens tilblivelse og hackernes aktiviteter skapte en mot-kultur som står i sterk kontrast til den teknologi-kultur Internett opprinnelig ble skapt i.

Men WWWs bruk av hypertext med sin ”look-and-feel”-tilnærming - og det til ”data” som var mer enn tekst, men også bilder og grafiske fremstillinger -, forandret igjen IT-kulturen. Presentasjon – og eventuelt salg – av informasjon ble fort det dominerende elementet. Børre Ludvigsen (nå professor ved Høyskolen i Østfold) lagde kanskje verdens første multimediefremstilling av helt alminnelig informasjon. På Verdensveven kan du se hans hus, få bilder og informasjon om familiemedlemmene og kan vandre fra rom til rom. Selv om huset nå visstnok er borte eller vesentlig bygget om, har Børre fremdeles siten tilgjengellig. (Se Home on Net for dokumentasjon av dennne ”tidlige” Internett-historien.)

Selv om Børres ”informasjonssite” ikke var kommersiell, dukket fort den tanken å bruke WWW til å selge informasjon. Tim Berners-Lees perspektiv på Internett var enklere tilgang til informasjon som var lagret flere steder og i forskjellig form. Det perspektivet ble snart endret til salg av informasjon.

Internett = E-handel

I motsetning til hva mange tror: Da Al Gore i 1991/92 tok initativet til konseptet om Information Highway, var det ikke for å fremme det som senere ble e-handel og den kraftige økonomiske vekst i amerikansk økonomi i 90-årene. Det var for å forbedre undervisningskompetansen i de amerikanske universitetsmiljøene. Information Highway var et tiltak for å ruste opp USA kompetansemessig for at en ikke skulle tape terreng til Japan. Kompetanse var også den gang – som nå – grunnlaget for nasjoners og bedrifters konkurransekraft.

Det var altså ikke Al Gore som skapte ”dot.com”-bølgen. At Internett ble frigitt til kommersiell bruk på omtrent samme tid var en tilfeldighet, og skyldtes andre forhold, nemlig at det var den eneste mulighet for fortsatt utvikling av Internett.

E-handelen – den ble drevet frem av gründer-holdninger, venture-selskaper og informatikk-studenter og –forskere, som ønsket å skape noe på grunnlag av den kunnskap de besatt og den fascinasjon de hadde fått av å hacke og cracke datamaskiner, samt utveksle synspunkter og delta i diskusjoner på lukkede systemer som BBS. Det var ikke lenger forskningsmiljøene som drev utviklingen, men ”informatiske guttunger” som hadde i seg en skaperdrøm.

Etableringen av Oslonett med Steinar Kjernsrød i spissen er et typisk eksempel på det. Og som hadde stor glede av å ”kuppe” resultatlistene fra OL og sende dem over Internett – slik at de ble tilgjengelig i USA lenge før fjernsynsendingene begynte. (Dette ble gjort ved et program som oversatte den norske teksten til engelsk. Helt heldig var imidlertid ikke oversettelsen. Kjetil Andrè Aamodt ble for eksempel til Kjetil Second Aamodt i resultatlisten).

Utfordringen mot establishment og storkapitalen var nok drivkreftene for noen, formet av den kulturen og det miljøet som hadde sprunget ut av 70-årene og Vietnam-krigen.

Så: Hvem bygget den katedralen som heter Internett?

I likhet med en katedral: Internett ble bygget av mange, og over lang tid, med ulik type kunnskap og formål.

Og – i likhet med Guds hus – har også Internett mange rom: Anvendelsesområdene er mange og har skiftet over tid.

Les også:

Til toppen