Teramac trives med defekte prosessorer

Hewlett-Packards eksperimentelle datamaskin Teramac har 864 prosessorer med over 220.000 kjente feil - og virker svært tilfredsstillende...

Maskinen er omtalt i siste nummer av Science, og flere amerikanske medier har allerede rukket å snakke med forskerne fra University of California og Hewlett-Packard Laboratories.

Forskningen tar sikte på å finne ut hvordan defekte brikker kan brukes til å lage fungerende datamaskiner. Dagens datamaskiner krever perfekte brikker. Hver gang det produseres en serie brikker, må en viss andel av dem kastes. Man regner at etter hvert som kretsene gjøres enda mindre enn de er i dag, kan det være svært vanskelig eller umulig å sikre at en tilstrekkelig andel blir absolutt feilfrie.

Følgelig er det interessant å finne ut om det lar seg gjøre å produsere datamaskiner som fungerer korrekt, selv om brikkene som foretar alle beregningene og håndterer programmer og data, har alvorlige mangler.

I sin aktuelle form, er eksperiment-maskinen Teramac ingen typisk PC-erstatning. Teknologien for å komme rundt defektene i de 864 prosessorene, krever store mengder med redundante koplinger, akkurat som i den menneskelige hjernen. Maskinen veier 180 kg og inneholder 16.000 ledninger med en samlet lengde på rundt 10 kilometer.

Status for eksperimentet så langt, er at maskinen leverer en ytelse opptil hundre ganger den til en enkeltstående men perfekt brikke. Dette betraktes som et utmerket resultat: Hver av de 864 brikkene er så ødelagt at den ikke kunne gjort noe fornuftig alene i en PC.

Forskerne tenker seg at feiltolerant teknologi som den i Teramac, kan være særlig nyttig når kjemiske prosesser erstatter dagens etsing og doping av silisium i produksjonen av komponenter til datamaskiner. Slike prosesser skal gjøre det mulig å redusere en Pentium-prosessor til mikroskopisk størrelse. På den andre siden er det ingen håp om at slike komponenter noen gang vil kunne produseres feilfritt.

Teramac-eksperimentene har vist at det er mulig å omgå feil ved å bruke redundante koplinger og lære maskinen hvordan den skal komme seg forbi feilene i hver enkelt brikke.

Kjemisk-produserte datakomponenter - noe forskerne kaller "nanoskala-teknologi" - ventes ikke å bli mulig før om ti år. I mellomtiden kan prinsippene for redundant kopling og omgåelse av oppdagede feil, brukes til å bygge datamaskiner som er langt mer feiltolerante enn dem som nyttes i dag, og nytte disse i omgivelser som krever absolutt kontinuerlig og sikker drift. Men det egentlige målet med forskningen er altså å spare penger ved å gjøre det unødvendig å basere enhver datamaskin på absolutt feilfrie komponenter.

I en artikkel om "Quantum Computing" i april-nummeret til HP-tidsskriftet Ebusiness, forklares begrensningene som kommer til å umuliggjøre produksjonen av stadig mindre silisium-brikker.

Et første argument er knyttet til økonomi: Hver generasjon av nye prosessorer krever dobbelt så store investeringer i produksjonsanlegg som den forrige. Om femten år vil ikke engang Intel ha råd til slike investeringer.

Et annet argument er knyttet til fysiske realiteter. Etter hvert som kretsene blir mindre, reduseres tallet på elektroner som skal til for å tenne en transistor til under det minimum som er påkrevet for sikker drift. Elektroner oppfører seg forutsigbart bare i store mengder. Individuelt kan de bare beskrives ved hjelp av sannsynlighetsfordelinger. Når dimensjonene blir for små, viker den klassiske elektromagnetismen for kvantemekanikken.

Silisium er på veg ut. Dets erstatning må ha innebygde begrensninger som krever en helt ny feiltolerant maskinarkitektur. Tecamar-maskinen til Hewlett-Packard er et skritt fram mot en slik feiltoleranse.

Til toppen