ANNONSEBILAG FRA ARROW

HPE lanserer blokklagring med garantert 100 prosent oppetid
Gir unike muligheter for multifunksjonell infrastruktur og rask skalering.

Utbredelsen av skytjenester og hybrid IT-arkitektur har skapt behov for nye lagringsløsninger. Nå lanserer HPE et innovativt lagringskonsept som vil revolusjonere hvordan vi lagrer og jobber med data.
– Tidligere tenkte man at de store skyleverandørene kunne garantere for sikker lagring. Man tenkte ikke på at data kunne forsvinne, korrumperes eller bli utilgjengelig siden det var en annet selskap som passet på dataene. Men slik er det ikke, sier Thor-Åge Sundsby, Solution Business Manager og kategoriansvarlig servere og lagring i HPE Norge.
Trenger lokal lagring for ekstra ytelse

Sundsby forteller at selv om mange virksomheter har migrert til skyen er det fortsett et stort behov for lokal lagring.
– Om de store skyleverandørene mister dine data kan man være ute av drift i flere måneder fordi det er flere hundre andre som har samme problem. Ekstra sikring av data utover det man får fra de store leverandørene er derfor blitt viktigere. Med en «cloud first»-strategi tenkte man at driften skulle bli enklere. Det fungerer fint med applikasjoner som Salesforce, WorkDay og andre «native cloud»-applikasjoner med en spesiell funksjon, men siden proprietære applikasjoner ofte krever ekstra ytelse og rask responstid trenger man fortsatt lokal lagring.
For å behandle store datamengder trenger man tilgang på dataprosessering og mange velger eget datasenter med VMware i skyen.
– Om du leser SLA fra de store skyleverandørene begynner de vanligvis på 95 prosent garanti for oppetid og ytelse. Dette kan økes med redundans og virtuelle servere i flere soner som gir opp til 99.99 prosent oppetid. Med lokale servere kan vi garantere 99.99999 prosent oppetid, noe skyleverandørene ikke er i nærheten av. Mange har godtatt relativt lav oppetidsgaranti på grunn av enkelheten med skyløsninger, men til hvilken pris? Jeg mener man i større grad bør tenke på oppetid og sikkerhet.
– For små nyetablerte bedrifter med lave krav til oppetid er de store skyleverandørene en god løsning, men i det bedriften begynner å vokse ser man raskt behovet for lokale servere for økt responstid, oppetid, sikkerhet og ytelse, sier Sundsby.
Enklere administrasjon
De som har drevet med lokal lagring og administrasjon har sett mange administrasjonsverktøy både for virtualisering, lagring og backup. Nå ønsker HPE å gjøre denne administrasjonen enklere med felles og sentral administrasjon.
– Greenlake Cloud Portal er ikke bare en felles portal for alle plattformene våre, men også en fusjon av funksjonalitet på tvers av systemer, lokasjoner, sky og on-premise. Dette muliggjør enkel orkestrering av virtualisering, lagring, backup, «disaster recovery», «lifecycle mangement» og applikasjonsutrulling fra samme plattform. Ved hjelp av APIer kan vi skreddersy en automasjonsmotor for oppsett av volum med ulike applikasjoner og OS. Cloud Portal har et enkelt grensesnitt med «pek og klikk» for å sette opp ulike typer miljøer.
Han forteller at det fortløpende utvikles ny funksjonalitet basert på APIene.
– Vi samarbeider med Amazon og Azure for å kunne administrere både lokal arkitektur og skyfunksjonalitet i samme grensesnitt. Da kan man sømløst veksle mellom applikasjoner og raskt se hvor det er mest fornuftig å bruke ressurser. Testing egner seg ofte på dagtid i skyen, mens produksjon kjøres lokalt fordi det krever ekstra sikkerhet og høyere respons- og oppetid. Muligheten for administrasjon fra en felles plattform gjør drift og tilgang på ny funksjonalitet enklere, men også mer kostnadseffektivt, sier Sundsby.
Abonnementsbasert blokklagring
Den nylig lanserte Greenlake for Block Storage er basert på månedlig fakturering av lagringskapasitet etter behov.
– Skytjenester er populære fordi man kan tilpasse lagringsbehovet underveis, i stedet for å inngå femårskontrakter hvor det er dyrt å utvide kapasiteten. Konseptet bak Greenlake er nettopp å spre kostnadene over en lengre periode, eller å flytte kostnaden fra CapEx til OpEx.
– Vi vet at kundene er opptatt av kapasitet, ytelse og hva det koster. Med Block Storage kan du abonnere på kapasiteten du trenger nå, som ofte er langt mindre enn hva man forventer over en femårsperiode og er vanlig ved CapEx. Med OpEx kan man avtale økning av kapasitet når dataveksten kommer eller behovet oppstår. Dette frigjør kapital som kan brukes til verdiskapning i selskapet.
– Med Block Storage kan man utvide kapasitet og bygge ut med nye komponenter, kontrollere og servere underveis, men fortsette med OpEx og flat pris på support. Da får man også alltid den siste teknologien på utstyret. Vi kan i tillegg måle hvor mye kapasitet som brukes og hjelper kunden med å finne det beste oppsettet. Fordelen er at dataene ligger lokalt med god ytelse og lav responstid. Løsningen er så sikker som bedriften selv ønsker i motsetningen til en skytjeneste hvor man må ta til takke med sikkerheten som tilbys. Samtidig ligner løsningen på det man får med en skytjeneste og administrasjonsopplevelsen er som om hele miljøet er i skyen, sier Sundsby.
Bruker maskinlæring for å forhindre feil
HPE Infosight er en KI-basert motor for innsamling av telemetridata fra lagringssystemer og servere.
– Hensikten med Infosight er å redusere antallet support-henvendelser. Etter at vi lanserte gratistjenesten har antallet supporthenvendelser gått ned samtidig som salget har økt. Det viser hvor viktig store mengder telemetri og gode analyseverktøy er for stabile plattformer. Kunden kan også selv se hvordan systemet oppfører seg og kan være i forkant med tanke på behov for utvidelser. Når en tjeneste går tregt i miljøet vil det være enkelt å fastslå om utfordringen er i nettverket, på serveren, lagringen eller på et virtuelt lag imellom. Vi har ikke tilgang på dataene, men ser hvordan de oppfører seg på tvers av nettverk og virtuelle servere.
Infosight bruker en sikkerhetsmekanisme som analyserer oppdateringer og søker etter lignende installasjoner i resten av verden.
– Et eksempel er feil som oppstår som følge av firmware-oppdateringer. Med Infosight kan man få tidlig varsel på mulige feil som kan oppstå på grunn av oppdateringer. Tjenesten er basert på maskinlæring som greier å identifisere nettverkskort eller innstillinger som forårsaker feil og blokkerer automatisk oppdateringen. Da hindrer man at slike feil spres på plattformen. Antallet supporthenvendelser har gått ned fordi vi har mer telemetri på hva som forårsaker feil. Dette er et preventivt system og gjør det mulig å ta i bruk ny funksjonalitet og applikasjoner uten sikkerhetsrisiko, sier han.
Nye behov krever nye løsninger
Nå lanserer HPE en ny lagringsplattform som en del av HPE Block Storage, kalt Greenlake for Block Storage Powered by Alletra Multi Protocol, forkortet Alletra MP.
– Plattformen har rot i teknologien fra 3PAR, Primera og Alletra 9000-serien, men vi har gjort endringer som gjør det enklere å skalere siden prosessorene er blitt vesentlige kraftigere. Med arkitekturendringene kan vi skalere lagringsløsningene fra veldig små til voldsomt store. Vi kan eksempelvis gå sømløst fra noen Terrabyte til flere Petabyte gjennom enkelt å legge til flere noder og øke kapasiteten lineært. Plattformen inneholder all den kjente funksjonaliteten 3PAR og Primera er kjent for i dag, eksempelvis 100 prosent datatilgjengelighet. Her får du også flat support utover fem år, aktiv «peer persistence» og «data immutability» rett ut av boksen uten andre kontrakter enn en ordinær supportavtale.
– Dette er i utgangspunktet et blokksystem, men etter at vi gikk bort fra ASIC og over til NVME-teknologi er dette en «software defined storage»-løsningen som også kan lagre fil og objekt. Dette gjør at vi trenger færre komponenter for å gjøre den samme jobben og er en fordel med tanke på mangel på visse komponenter. Vi ser også at behovene for databehandling har endret seg og at stadig flere jobber med maskinlæring, datamining, algoritmetrening, videoanalyse og kunstig intelligens. Da trenger man et dedikert filsystem for å håndtere dette på en god måte. Alt dette kan settes opp på en enkel måte med Alletra MP.
Sundsby peker på en enorm vekst i datamengdene som produseres og at det vil kreve mer av IT-infrastrukturen.
– Behovet for datalagring dobles annen hvert år og utviklingen går mot sanntidsproduksjon av data fra blant annet IoT. Det er kommet ekstreme krav til ytelse og lagring for å klare å behandle slike data. I tillegg behandles i økende grad data i kanten for å sendes videre for analyse sentralt. Databehandling og lagring av data fra sensorer vil være en sterk driver og vekstfaktor i markedet.
– Om skyleverandørene skal ta seg like godt betalt som i dag for å lagre og behandle store mengder data, tror jeg lokale lagringsløsninger har en lys fremtid. Behovet for lokal lagring vil øke og med våre løsninger vil det være som å danse på skyer, avslutter Sundsby.
Skaper forutsigbarhet
Han får støtte av Vegard Myrseth Østrem, Business Development Manager i Arrow.
– HPE GreenLake Block Storage gir en smidig og intuitiv skyopplevelse og en lagringsløsning som vokser i takt med selskapet. På den måten unngår man overprovisjonering siden man ikke trenger å gjøre én stor investering når man mottar utstyret.
Han forteller at i løpet av de siste årene har IT-verden dreid seg mer mot abonnementsbaserte løsninger.
– Med HPE GreenLake for Block Storage betaler for den kapasiteten man har tilgjengelig, og det er enkelt og forutsigbart om man legger til mer kapasitet eller nye tjenester. I tillegg forenkles dataadministrasjonen med kunstig intelligens for å tilrettelegge for selvbetjening på en intuitiv måte. Intelligent Quality of Service (QoS) gir også muligheter for å prioritere spesifikke volum eller applikasjoner for å sikre at avtalt SLA innfris. Man oppnår simpelthen forenklet dataadministrasjon samtidig som man maksimerer infrastruktureffektiviteten via AI-administrert og selvbetjent blokklagring, avslutter Myrseth Østrem.