Der skal et paradigmeskifte til i datacentret
Kevin Deierling, VP of Marketing hos Mellanox. Foto: Lars Bennetzen

Der skal et paradigmeskifte til i datacentret

Datacentrene kræver stadig mere cpu-kraft, men udviklingen kan ikke holde trit. Derfor skal der nye teknologier og metoder til, forklarer eksperter

Af Lars Bennetzen, London

I dagens it-miljø er datacentret blevet en stadig vigtigere del. Virksomheder som Facebook, Google, Apple og mange flere bruger enorme summer på at opføre datacentre som skal håndtere den nærmest eksploderende mængde data der konstant genereres, og også hos de mere traditionelle virksomheder vokser datamængden, og behovet for at håndtere dem nærmest eksponentielt.

I mange år har datacentre levet højt på Moores lov, der beskriver at mængden af transistorer på et integreret kredsløb fordobler på to år. Den udvikling har sikret at der er den nødvendige datakraft til at håndtere den stigende mængde data, men det holder ikke i fremtiden.

- Moores lov er døende. Vi har de sidste mange år set, hvordan Moores lov er ved at flade ud, og det betyder at cpu-kraften ikke kan holde trit med udviklingen i mængden af data, fortæller Kevin Deierling, VP of Marketing hos Mellanox til IT-Reload.

På et pressemøde i London viste Kevin Deierling hvordan den samlede udvikling ser ud sammenlignet med Moores lov, og fortalte hvordan det har skabt nogle helt nye udfordringer for datacentre over hele verden.

- Vi har længe løst udfordringerne med den stigende datamængde ved at bygge flere datacentre, eller opgradere computerens cpu’er til nyeste modeller, men det holder bare ikke i længden, for virkelig at løfte opgaven er vi nødt til kigge på andre dele af datacentret, siger Kevin Deierling.

Årsagen er ikke mindst at flere og hurtigere cpu betyder at opgaver der kan paralleliseres, bliver udført hurtigere, men opgaver der skal udføres serielt bliver ikke udført hurtigere.

Samtidig ser vi, hvordan flere applikationer på tværs af en række forskellige kategorier kræver hurtigere håndtering og behandling af data.

Det handler blandt andet om ting som Storage, Machine Learning, Big Data og sikkerhed, der ifølge Kevin Deierling betyder at vi skal bruge flere clustre med hurtigere computere i datacentrene, ikke bare flere computere.

Herudover betyder virtualisering at der bliver lagt et stort pres på cpu’erne, og det medfører at der ikke er så mange ressourcer til overs til datahåndtering.

Scott Raynovich, stifter og Chief Analyst hos Futuriom, fortæller at deres undersøgelser viser en tydelig tendens til at apps, ikke mindst cloud-baserede apps kræver langt flere hestekræfter.

- Det er krav der ikke forsvinder i den nærmeste fremtid, faktisk så viser alle undersøgelser og tendenser, at de krav vil stige, siger Scott Raynovich til IT-Reload.

For Kevin Deierling er svaret at accelerationen skal lægges ned i netværket, hvilket vil frigive cpu-tid i datacentret.

- Ved at gøre netværket intelligent kan vi øge hastigheden på tværs af hele datacentret. Faktisk ser vi ydelsesforbedringer på otte til ti gange, og det viser styrken i netværksacceleration, slutter Kevin Deierling.