Big data analyser medfører nyt paradigme for lagring

Big data analyser medfører nyt paradigme for lagring

Verdenen bevæger sig med hastige skridt mod analyse af data i alle mulige sammenhænge og inden for alle mulige brancher. Løsningen har i årtier været stadig hurtigere hardware, men et nyt paradigme inden for lagring kan være på vej

“Flere af de søgemaskiner vi alle brugte for 10-20 år siden udviklede sig ikke og blev udkonkurreret af nytænkere, som greb teknologien anderledes an og kunne levere langt mere præcise søgeresultater meget hurtigere. Det er det samme, vi vil opleve nu på storage-markedet. Data er forretningskritisk for virksomhederne og brugerne vil ikke vente på svar eller data. De vil lynhurtigt kunne analysere deres kunders adfærd og reagere ud fra det, de finder ud af,” siger Fredrik Arveskär, der er Regional Director for Infinidat på det nordiske marked.

Infinidat er stiftet af israeleren Moshe Yanai, der i årtier har beskæftiget sig med storage. Han har gennem årene stiftet og solgt flere virksomheder inden for området og har desuden en lang række patenter i rygsækken.

I dag er det normalt hurtige flash-løsninger, som virksomheder tyer til at for at øge hastigheden, hvorpå data kan hentes og analyseres. Meget tyder imidlertid på, at det fremover snarere er i softwaren og ikke hardwaren, at de store hastighedsgevinster skal høstes. Hyper-storage er en teknik, der er udviklet for med intelligent software at slå selv den hurtigste hardware ved at hente, lagre og håndtere data langt smartere — og hurtigere. Det sker ved, at softwaren optimerer anvendelsen af de tilgængelige ressourcer i stedet for at løse problemet med mere hardware der hurtigt bliver dyrt.

Hyper-storage-teknologien løser ikke alene dagens behov for at lagre data, der skal kunne hentes hurtigt, men også de lagrings-udfordringer, som vil findes om 10-20 år. En del af hemmeligheden ved hyper-storage er, at softwaren baserer sig på machine learning. Udgangspunktet for al machine learning er at analysere alle slags IO-mønstre og forbedre dem over tid. Generelt opnås de største gevinster fra automatisering til opgaver, der forekommer sjældent eller ofte. Og hvis en eller flere hardwarekomponenter fejler, kan softwaren starte en automatisk selvhelbredelsesproces for alle aktive komponenter.

Hurtige analyser giver konkurrencefordele

”Automatiseringen betyder, at systemet alene begynder at lære IO-mønstrene og bestemme selv. Dermed bliver det bedre med tiden og kan levere hurtigere big data-analyser til brugerne — i modsætning til den gamle hardware-baserede og dyrere teknologi, der mangler hele machine learning-delen. Desuden kan forskellige former for arbejdsbelastninger køres samtidig på samme platform, så der er enorme fordele ved hyper-storage,” siger Fredrik Arveskär.

Han forventer en meget større udbredelse af hyper storage-teknologien de kommende år blandt andet fordi hyper-storage-arkitekturen kan køre på hardware bestående af standardkomponenter, og dermed sænke virksomhedernes investering i storage.

”Formålet med hyper-storage-teknologien er at hjælpe virksomheder til at håndtere de kommende års udfordringer med eksplosive mængder af data og behov for big data-analyse for at møde kundernes behov før konkurrenterne uden at skulle pantsætte sig selv for at finansiere hardwaren. De virksomheder, der ikke følger med, risikerer at dø en hurtig og smertefuld død præcis som de gamle søgemaskiner,” siger Fredrik Arveskär.

- lb