Nordmann står bak desentralisert søkemotor

Ved hjelp av P2P-teknologi vil den norske forskeren Anders Fongen revolusjonere søk på Internett.

Førsteamanuensis ved Norges Informasjonsteknologiske Høgskole (NITH) i Oslo, Anders Fongen, har designet en søkemotor som skal rydde opp i den stadig mer uoversiktlige internettjungelen.

- De fleste av dagens store søkemotorer kjenner bare 15 prosent av nettet, sier han i en artikkel skrevet av Pressekontoret.

Søkemotoren Fongen har designet, skal jobbe smartere, dypere og mer presist enn dagens søkemotorer. Fongen har jobbet med en doktoravhandling med NITH som ligger til grunn for søkemotordesignen.

Fongen sprer i forskningsprosjektet søkemotorens metadata utover som fiskestimer i et uendelig stort hav.

- Fisk av samme art holder sammen, og kaster du ut garnet i en slik stim, får du stort sett fisk av samme art. Når all informasjon om samme tema svømmer i samme stim, vil det bli mye enklere å finne fram til det du leter etter, sier han.

Når brukeren av søkemotoren ber den om å lete etter er søkeord, for eksempel "fjellklatring", vil søkemotoren umiddelbart oppsøke den "stimen" som handler om nettopp fjellklatring.

Søkemotoren Fongen har designet, er utviklet og testet i en laboratorium ved NITH med 126 datamaskiner og tre millioner dokumentpekere. Utfordringene vil ikke være små når teknologien flyttes fra laboratoriet og ut i den virkelige verden. Antallet nettsider vokser i et forrykende tempo. Fongen mener at dagens søkemotorer begynner å få problemer med å henge med i svingene.

- De store søkemotorene kjenner bare til omkring 15 prosent av den totale mengden med nettsider som eksisterer. De fleste nettsidene i verden vil du med andre ord aldri være i stand til å finne med dagens teknologi, sier Fongen. Han mener i tillegg at søkemotorene bruker lang tid både på å fange opp nye nettsider og sider som nylig er oppdaterte, og at døde lenker florerer i søkeresultatene.

- En søkemotor skal både finne nye nettsider og samtidig hente opp gamle sider for å se om de er endret. Men ressursene som søkemotorene har til rådighet, særlig nettverkskapasitet, øker ikke i takt med veksten av informasjon, sier Fongen.

Fongen vil derfor gå bort fra den sentraliserte søkemotoren, og i stedet bygge en søkemotor som organiserer seg over millioner av maskiner over hele verden som et serverløst nettverk.

- Et slik peer to peer-nettverk må være selvkonfigurerende, slik at det kan vokse til enorme dimensjoner uten å skape en administrativ flaskehals, sier Fongen. I dette nettverket vil maskinene fortløpende snakke med hverandre, slik at metadata og søkekommandoer til andre maskiner i den rette stimen. Videresendingen skjer på grunnlag av det semantiske innholdet i dataene.

- Den distribuerte søkemotoren er konstruert slik at metadata blir lagret på mer enn ett sted, slik at mange maskiner kan gi svar på en søkekommando. Dette skaper bedre tilgjengelighet, fordi systemet kan tilby en fullgod tjeneste selv om noen av maskinene faller ut eller deler av nettverket feiler, forklarer Fongen.

Fongen har også sett på metoder for å finne kategorisere de forskjellige metadataene eller søkeoperasjonene, for å finne ut i hvilke tema de hører til. Dette vil sørge for at websider om for eksempel "friluft" havner i friluftsstimen. Et automatisk klassifiseringssystem Fongen har testet, har en nøyaktighet på rundt 75 prosent av det man finner i ordinære søkemotorer.

- Dette er bra med tanke på at dette er en helt ny teknologi hvor det ikke er jobbet spesielt med å optimalisere nøyaktigheten, sier Fongen.

Han mener derfor at mulighetene for mer nøyaktige søk er store, hvis denne søkemotoren kommersialiseres.

Til toppen