Drømmemaskinen - del 2

...her fortsetter Arild Haraldsens artikkel Drømmemaskinen - del 1.

I dag er det ingen som "eier" Internett. Men Internett er helheten av alle ISPene, samtrafikkpunktene og backbone-operatørene som alle har ganske klare avtaler med hverandre. Det finnes også overordnede avtaler og et teknisk rammeverk som administreres av Internet Architecture Board (IAB) - opprettet i 1984. Senere kom Internet Engineering Task Force (IETF) som utarbeider tekniske standarder. En annen gruppe er Internet Assigned Numbers Authority (IANA) som administrerer bruk av navn og nummer. Funksjonene til IANA er senere overtatt av The Internet Corporation for Assigned Names and Numbers (ICANN). I 1992 ble ISOC etablert (Internet Society). Den ble nøkkelen til internasjonaliseringen av Internett.

Tim Berners-Lee tok i 1994 initiativ til etablering av World Wide Web Consortium (W3C), som arbeider med standardiseringen og utviklingen av Web-teknologien. W3C arbeider noe anderledes enn de øvrige standardiseringsorganene ettersom en må være betalende medlem av konsortiet for å ha innflytelse.W3C har likevel valgt å forholde seg til IETF ved å respektere de standarder IETF vedtar og sender enkelte av W3C-standardene til godkjenning av IETF.

W3C - som huses i prestisjetunge MIT i Boston, og som har alle de mest sentrale IT-firmaene som medlemmer - har som mål å utvikle og standardisere web-teknologien. Drømmen er en gang i fremtiden (år 2020?) å lage en semantisk web. Det betyr at Nettet ikke vil bare hente informasjon, men det vil også forstå informasjon. Verdensveven vil kunne utføre de samme logiske sammenstillinger av informasjon som mennesket, og vil kunne "tenke" selvstendig. Internett vil bli både rasjonell, men også intuitiv, i sin informasjonssanking.

For å oppnå dette må verdensveven utvikles og standardiseres i form av konkrete produkter. Hovedidèen bak W3C er at ingen skal ha eierskap til deler av web-teknologien; det skal være fremkommet ved anerkjente standarder. Dette har vært et stridsspørsmål i komitèens arbeid. Høsten 2001 endte det nesten i et brudd: Flere IT-selskaper ville ta betalt for å la brukerne/bedriftene utnytte visse typer teknologi/software som f.eks. software for å håndtere mer sofistikerte web-tjenester. Spørsmålet om patentrettigheter kom da frem. Etter lang diskusjon ble dette avvist. Men senest for to uker siden meddelte IBM og Microsoft at de ønsket lisens på de teknologier de har bidratt til.

Spenningen er hele tiden tilstede for at det dels går for sent å etablere standarder, og dels at IT-aktørene ikke får noe igjen for det hele. På ett område har de imidlertid lykkes i å få frem en standard - XML (Extensible Markup Language). XML er en "forenkling" av SGML (Standard Generalized MarkupLanguage). XML er en software som koder - eller tagger - web-sider slik at datamaskinene kan "forstå" hva informasjonen betyr. XML peker på en slags ordliste som beskriver informasjonen. Denne ordlisten kalles RDF (Resource Defintion Framework). Noe som kalles ontologi - et slags leksikon -beskriver de detaljerte og logiske relasjonene mellom XML og RDF.

W3C har fått hjelp fra det offentlige i den forstand at Pentagons Defense Research Projects Agency (DARPA) - en etterkommer etter Lickliders opprinnelige forskningsprogram - har tatt initativet til et DAML-program - (DARPA Agent MarkUp Language). DAML, som arbeider tett sammen med W3C, skal utvikle søkeagenter for koordinering av logistikken rundt større internasjonale militæroperasjoner. Det ble først brukt under krigen i Afghanistan.

Mange aktører har kastet seg over det markedet som Internett representerer og ønsker å bli markedsleder. Vi ser her en tydelig drakamp mellom de som ønsker å utvikle Internett gjennom standardisering, og de som ønsker å få kontroll over Internett gjennom kommersiell utnyttelse basert på egne standarder og patenter:

Den med de klareste intensjoner om den nye infrastrukturen er Microsoft som med sin ".Net"-konsept har klart signalisert sin vilje til å bli en "naturlig" monopolist, på Internett som de er på PC-markedet. Microsofts "bundling" av sin nettleser til operativsystemet Windows98 utløste derfor en antitrust-sak. Strategisk sett dominerte Microsoft den sentrale plattformen mellom PC-en og dens applikasjoner. Netscapes nettleser var i ferd med å innta den sentrale plattformen mellom PC-en og Internett. Microsoft brukte svært sterke virkemidler for å oppnå denne posisjonen (se www.usdoj.gov/atr/cases/ms_index.htm). Dette er et eksempel på at en markedsleder innen ett område finner det opportunt å fremstille et produkt for å øke konkurransen i et segment som er komplementært - ikke for å tjene penger på det komplementære produktet, men å øke verdien og/eller prisen på kjerneproduktet.

Senere ble visjonen om ".Net" skapt.

Det står nå mellom to alternative plattformer for tilgang til Internett:

  • Den "åpne" Java - egentlig J2EE (Java 2 Platform Enterprise Edition) - som er utviklet for bedriftsmarkedet, som er sikkert, pålitelig og skalèrbart, som kan kjøre på hvilket som helst operativsystem, og har vunnet innpass i mobiltelefoner og TV-enes Set-top-bokser. Men som ikke har tilstrekkelig støtte av XML foreløpig.
  • På den annen side har vi Microsofts .Net-konsept som støtter XML, kan bruke alle typer programmeringsspråk (men ikke Java), Men som kun kan kjøre på Windows - Microsofts eget operativsystem.

Flere aktører frykter nå at kampen om Internett vil vinnes ved at èn aktør - Microsoft - blir en "naturlig monpolist" på plattformen for tilgangen til den nye infrastrukturen - Internett.

(Dette er femte del av en artikkelserie om infrastrukturens historie. Jeg er Håkon Styri takknemlig for supplerende og korrigerende kommentarer til et tidligere utkast til disse artiklene. Forøvrig anbefales hans hjemmeside sterkt for ytterligere informasjon, særlig om patentrettigheter og utviklingen av telefonen).

Relaterte artikler:

Til toppen