Din helpdesk är affärskritisk

Dom allra flesta av oss är helt beroende av att vår personliga dator fungerar för att vi skall kunna arbeta. Vi startar arbetsdagen på kontoret med att logga in, vad vi sedan gör skiljer sig åt men gemensamt är att om inte datorn fungerar så hindras vi från att göra vårt jobb. Det är med andra ord allvar det här med ”datan”.
Med denna text skall jag försöka beskriva vilken nytta man kan ha av en väl fungerande Helpdesk och varför det ofta lönar sig att anlita hjälp utifrån.

Arbetsplatsen är också kritisk för verksamheten

Alla inser vikten av att se till att den centrala IT-miljön underhålles och skyddas mot störningar på ett professionellt sätt och förstår att detta kostar pengar. För den enskilde användaren är det ingen skillnad mellan den lokala IT-miljön och den centrala. Fungerar inte den personliga arbetsplatsen så kommer man inte åt de centrala IT-systemen heller. Inte nog med det, man kan inte skicka/ta emot mail, skriva på sin rapport eller vad det nu kan vara.

Snålheten bedrar visheten

Då kan man tro att det läggs ännu mer resurser på att supportera den lokala IT-miljön? Icke så! Det är ju ”bara” en dator och ordna med sådant anses ofta vara mindre kvalificerat arbete och något som vem som helst som kallar sig för IT-tekniker kan klara av. I större organisationer är det dessutom så att man ofta outsourcar supporten av den lokala IT-miljön, inte bara utanför det egna företaget utan även utanför landet. Allt med syftet att spara pengar. Man visar upp kostnadsbesparingar på IT-kontot men hur gick det med tillgängligheten? Blev resultatet en sämre tjänst så drabbas andra konton av kostnadsökningar som resultat av en sämre produktivitet.

”Gungor och karuseller”, ”snålheten bedrar visheten” – ja, ni fattar.

Ideal värld – verkligheten

Som användare vill man helst kunna ropa på en IT-tekniker som då genast kommer springande och pekar vart på skärmen man ska klicka för att kunna ansluta till den telekonferens som precis har startat. I en ideal värld är det också så det fungerar men det är lätt att inse problemen med att ha ett tillräckligt antal IT-tekniker konstant redo i startgroparna.
I stället brukar lösningen bli att man får ringa eller gå till IT-avdelningen och be om hjälp som man sedan får direkt om man har tur eller senare om det är andra före i kön.
För vissa är det inga problem att vänta men för andra kan hela arbetsdagen gå till spillo. Jobbar man direkt mot kunder är det lätt att inse vad som händer om inte datorn fungerar, tänk också på att “kunder” t.ex kan vara patienter som inte får sin diagnos eftersom läkaren inte kommer åt röntgenbilderna. Dessutom,  även om supporteknikern snabbt blir expert på det egna IT-systemet så är det svårt att hinna med att sätta sig in i ny teknik och dyker det upp något som inte hänt förr så blir det ofta problem.

Förstärk din IT-avdelning med en extern Helpdesk

Arbetet i en Helpdesk är mer komplicerat än vad många kanske tror och det krävs inte bara kompetens gällande den miljö man supporterar utan en hel del avancerade system i bakgrunden för att arbetet skall kunna utföras effektivt. Om vi nu förutsätter att kringsystemen finns på plats och ser på den enskilde supportteknikern så avgörs personens problemlösningsförmåga till stor del av den erfarenhet av relevanta system man hunnit samla på sig. Ju fler ärenden man hanterar per dag desto snabbare växer och bredare blir denna erfarenhet. Sitter man sedan i en grupp där kollegorna arbetar med samma saker och det är lätt att fråga och få svar så blir man fort väldigt duktig. Inget ont om den supportteknikerns hos det enskilda företaget men förutsättningarna är inte desamma.
Anlitar du en extern Helpdesk får du tillgång till ett team av supporttekniker med lång erfarenhet och backofficesystemen som de finjusterat i ett antal år kommer med på köpet!

Hur väljer jag rätt leverantör?

Om vi är överens om att kvalitén och inte priset är avgörande så kan man vara hyfsat trygg att ha hamnat rätt om leverantörern kommunicerar på samma språk som användarna och dom har möjlighet att lära sig vad som är unikt för varje kund. Detta kan låta självklart men punkt två “lära sig vad som är unikt” ställer rätt stora krav på leverantörens vilja och förmåga att förstå era kringsystem. Misslyckas man med detta så är det omöjlig att hålla en hög kvalité i supportarbetet och användarna kommer i stället söka efter support inåt i organisationen.
Här brukar invändningarna låta i stil med “viktigt att följa standard”, “vi jobbar med Best Practises”. Inga som helst fel med standardiserade rutiner och processer men skall man leverera supporttjänster med hög kvalité skall dessa fungera som en grund på vilken tjänsten sedan byggs unikt för varje kund.

Är en extern Helpdesk samma sak som outsourcing?

Kanske det om syftet enbart är att spara pengar men nu är ju inte det riktigt budskapet i denna text. Tvärtom så anser vi att det i särklass bästa projekten är de när den externa Helpdesken har tydliga kontaktvägar in i uppdragsgivarens IT-avdelning och att parterna samarbetar på daglig basis. En självklar uppgift för intern IT är att vara på plats och ge användarna personlig kontakt när det verkligen behövs. Som tack för hjälpen avlastar den externa Helpdesken intern IT från det dagliga arbetet med användarsupport och låter dem fokusera på att utveckla IT-stödet.

Vad ska Helpdesk kosta?

Visst hade det varit bra för artikelns läsvärde att sätta en siffra men med poängen att IT-support måste anpassas för den unika verksamheten för att fungera bra så blir svaret på vad det skall kosta “det beror på”. För att att bedöma om priset är rimligt eller ej bör man kunna jämföra leverantörens pris med vad det skulle kosta att ha motsvarande tjänst internt. Detta behöver inte vara någon tyngre raketforskning utan räkna antal tekniker som behövs, anta en rimlig månadslön och lägg på 50% som täcker sociala avgifter och övrigt så har ni en grov uppskattning. Gör ni detta någorlunda rätt så borde leverantörens pris vara klart lägre med tanke på stordriftsfördelarna denne kan dra nytta av.

Hur skall jag betala?

Månadsvis i efterskott, punkt. Om man sedan betalar per enhet (dator, mobil etc) eller per ärende kan variera men min erfarenhet pekar på att betalning per ärende är det som fungerar allra bäst för bägge parter när det gäller Helpdesk.

Måste jag binda mig i långa kontraktsperioder för helpdesk?

Nej, allt längre än tre månader är normalt sett för långt. Visst, leverantören har uppstartskostnader som det vill ha garanterad täckning för via långa avtal men du som kund har ju motsvarande för avveckling och byte av leverantör om inte samarbetet skulle fungera. 

Slutsats

När helpdesken levererar som den ska kan IT-stödet utnyttjas optimalt av användarna och produktiviteten höjs i hela organisationen samtidigt som stress från dåligt fungerande system eliminieras.

Att helt eller delvis köpa in tjänsten från en extern leverantör kan höja kvalitén och sänka kostnaden för Helpdesk.

 

/ Peter Gyulai, vd Parera AB, stolt leverantör av användarsupport med guldkant.

Bestycka din server med en singel CPU!

I dag finns det flera anledningar att välja en singel CPU när du väljer hårdvara för virtualisering av servrar.
Tidigare var ofta nödvändigt att installera dubbla CPU:er för att erhålla tillräckligt många CPU-kärnor och tillräcklig kapacitet i racket.

Utvecklingen har lett till att antalet kärnor per CPU har ökat och på senare år har Microsoft förändrat sin licensmodell. Tidigare räknades licenser för VMware eller Hyper-V (Windows Server)  enbart mot antalet CPU:er och inte kärnor (cores). I dag räknas licenserna mot antalet kärnor (cores) i servern. Samtidigt har hyperkonvergerade lösningar för virtualisering blivit regel snarare än undantag. I VMwares fall innebär detta att en extra licens för vSAN krävs vilken räknas mot antalet CPU:er.
Från ett licensperspektiv finns det alltså idag flera anledningar till att hålla antalet CPU:er och kärnor nere. Hur ser det då ut med tekniken, finns det några fördelar med fler än 1 CPU? Det korta svaret är nej.

Det är i dag generellt sett inga problem att tillgodose behovet av antal kärnor i en och samma server med 1 CPU. Framförallt inte om man vill snegla åt AMD, nu finns nya Dell PowerEdge modeller med senaste EPYC CPU https://storagereview.com/dell_releases_epyc_rome_poweredge_servers
Håller vi oss till Intel och deras rådande rekommendationer om antalet minnesmoduler per CPU så kan det i en server med 2 CPU:er vara svårt att följa dessa och hålla sig till så kallade binära minneskonfigurationer (128, 256, 512…).
Strömförsörjning och plats i racket är en viktig aspekt i många fall. Med 1 CPU och maximalt 16 minnesmoduler begränsas effektförbrukningen i servern. Har vi fullt utbyggda servrar med 2 CPU:er, 32 st. minnesmoduler och kanske till och med en GPU så kan du få svårt att nyttja all plats i ett rack. Strömförsörjningen räcker helt enkelt inte till.
I en server med 2 CPU ökar också komplexiteten för resurshantering och schemaläggning. Det finns situationer då rätt konfiguration av NUMA eller “CPU affinity” blir kritisk för prestandan. Vill du läsa mer om detta eller temat i stort kan du göra det här: https://www.nextplatform.com/2019/04/24/why-single-socket-servers-could-rule-the-future/

Hör av dig om du vill diskutera hur du ska dimensionera servrarna nästa gång!
/Frej

Microsoft Azure Stack HCI: Nytt namn och ny version av S2D

Sedan Storage Spaces introducerades i Windows Server 2012 så har Microsofts väg mot hyperkonvergerade lösningar varit något vi följt väldigt noga. Företag som VMware och Nutanix var tidigt ute men nu har Microsoft en lösning framme som på allvar kan konkurrera med dessa.
I den här artikeln reder vi ut begreppen och pekar på vad som är nytt och ser fram emot att skriva mer om våra tidigare erfarenheter av Storage Spaces Direct och nya med Azure Stack HCI.

I slutet av mars 2019 annonserade Microsoft Azure Stack HCI som i praktiken är ett nytt namn för Storage Spaces Direct (S2D) eller det bredare begreppet Windows Server Software Defined Program. Kanske är namnbytet mest marknadsföring men det signalerar ändå en hel del om hur Microsoft vill positionera sina produkter.

Jag resonerar så här:
Microsoft lanserar många nya och bra funktioner inom ramen för Windows Server och på grund av detta kanske det här med hyperkonvergerade lösningar hamnar lite i skymundan. Windows Server anses ju av många vara ett traditionellt operativsystem som i första hand används för att drifta de nödvändiga infrastrukturtjänsterna och traditionella klient-server applikationer. Inte lika många ser Windows Server som en plattform för hyperkonvergerad infrastruktur eller hybrida moln.

Hittills har Microsofts lösning på molnbaserade lösningar varit Azure Stack. Något som på papperet är kanon men i praktiken en stor och dyr apparat. Jag tror att Azure Stack tilltalar större företag med en tydligt uttalad “cloud first” eller “cloud only” strategi. Hoppet från traditionell Hyper-V till Azure Stack innebär också en stor förändring eftersom Azure Stack innebär konsumtion av tjänster enligt de principer vi känner igen från publika moln. Det är här Azure Stack HCI kommer in och fyller tomrummet mellan Hyper-V och Azure Stack.

Förutom att vara en mjukvarudefinierad lagringslösning för Windows Server så är Azure Stack HCI mer av en nyckelfärdig lösning för hyperkonvergerad infrastruktur med en ansenlig mängd funktioner för hybrida moln. Fokuset är på traditionella virtuella maskiner och inte applikationer och tjänster som generellt återfinns i publika moln byggda på Azure Stack.

Azure Stack HCI låter dig köra virtuella maskiner on-premise ovanpå en infrastruktur som består av Windows Server, Hyper-V, Storage Spaces Direct och hanteras i nya Windows Admin Center.

Du köper hårdvaran i form av godkända konfigurationer från certifierade tillverkare, t.ex. Dell, HPE, Supermicro m.fl. Förutom godkända konfigurationer skall detta också innebära support på hela lösningen (alltså hw + sw) från en och samma kontakt, tillverkaren i det här fallet.
Det här är en av de stora skillnaderna med Azure Stack och Azure Stack HCI, i fallet med HCI är konfigurationen av hårdvaran mer flexibel och du får ändra på den. Medans Azure Stack kommer i mindre dynamiska block. Du har också tillgång och kontroll över de underliggande komponenterna Windows Server, Hyper-V och S2D, vilket du inte har i Azure Stack.

Om vi lyfter blicken ovanför infrastrukturen och tittar på tjänsterna så skiljer sig Azure Stack och Azure Stack HCI väsentligt. Azure Stack HCI erbjuder inte samma möjligheter att driftsätta applikationer och tjänster on-premise på samma sätt som Azure Stack. I stället erbjuder Azure Stack HCI integrationer med Azure i form av:

• Azure Site Recovery for high availability and disaster recovery as a service (DRaaS).
• Azure Monitor, a centralized hub to track what’s happening across your applications, network, and infrastructure – with advanced analytics powered by AI.
• Cloud Witness, to use Azure as the lightweight tie breaker for cluster quorum.
• Azure Backup for offsite data protection and to protect against ransomware.
• Azure Update Management for update assessment and update deployments for Windows VMs running in Azure and on-premises.
• Azure Network Adapter to connect resources on-premises with your VMs in Azure via a point-to-site VPN.
• Azure Security Center for threat detection and monitoring for VMs running in Azure and on-premises (coming soon).
Nyheter inom Storage Spaces Direct för Windows Server 2019 är följande, vilket vi då också återspeglas i Azure Stack HCI:
• Deduplication and compression for ReFS volumes
• Native support for persistent memory
• Nested resiliency for two-node hyper-converged infrastructure at the edge
• Two-server clusters using a USB flash drive as a witness
• Performance history
• Scale up to 4 PB per cluster
• Mirror-accelerated parity is 2X faster
• Drive latency outlier detection
• Manually delimit the allocation of volumes to increase fault tolerance

De nyheter vi tycker är mest spännande är deduplicering och komprimering för ReFS samt två noders kluster. Båda dessa funktioner bidrar till lägre investeringskostnader. Att kunna bygga ett cluster med bara två noder passar mindre företag som har en stor andel traditionella applikationer och virtuella maskiner perfekt. Prisbilden blir riktigt intressant samtidigt som prestandan brukar räcka till med marginal.

Sammanfattningsvis tycker vi att det är kanon att Microsoft numera har en paketerad lösning för hyperkonvergerade infrastruktur. Dessutom kan vi lita på att hårdvarutillverkarna har gjort en del av arbetet och tar ansvar för att komponenterna skall lira ihop.
Men framförallt är detta en lösning där vi kan få riktigt grym prestanda och kapacitet till ett lågt pris i vårt lokala datacenter och sedan nyttja Azure för backup och katastrofsäkring.

Cryptolockers i Sverige 2019

För några år sedan ringde det ibland kunder och hade den där speciella tonen på rösten som hintar om att något allvarligt har hänt. På den tiden förutsatte vi nästan att orsaken berodde på en cryptolocker av något slag.

Majoriteten av de kunder som drabbades kunde vi snabbt hjälpa genom att återställa data från snapshots. I resten av fallen fick vi återställa från backuper eller kanske replikerat data. Men vi hade aldrig en kund som drabbades av en dataförlust och tvingades betala lösensumman.
Nu har tiden gått och samtalen angående cryptolockers har minskat rejält. Både säkerhetsprodukterna och vi människor har anpassat oss till det hotet.

Häromdagen fick vi ändå ett nytt samtal gällande cryptolockers och denna gång var det illa, riktigt illa. Kunden i fråga hade upptäckt att ett konto var inloggat på servrarna som inte ska vara inloggat, samt att alla filer var konstiga, alltså krypterade.
I det här fallet fanns inga SAN snapshots. Replikering av virtuella maskiner då? Ja, men de servrar som var drabbade hade inte klassificerats och konfigurerats för replikering. Men det är ju lugnt, alla har ju backup? Ja visst, men olyckligtvis hade backupservern en utdelad katalog via vilken smittan spred sig. Det ledde till att backuperna var obrukbara.
Efter en hel del arbete stod vi inför faktum att enda utvägen var att betala den begärda lösensumman för att få backupservern återställd och därefter kunna återställa data från övriga servrar som drabbats.

Med anledning av den senaste upplevelsen där allt sket sig har jag sammanfattat ett par lärdomar som jag vill dela med mig av. Vissa saker är kanske självklarheter för somliga men jag hoppas att alla hittar något nytt:

  • Låt inte någon server vara exponerad på internet via RDP och se verkligen till att du inte använder dåliga lösenord. I dag verkar den vanligaste attackvektorn för cryptolockers vara just brute force attacker mot kända konton via RDP.
  • Om du har möjlighet inaktivera SMB1 protokollet och inventera dina utdelade mappar. Behöver du verkligen ha det där restore$ sharet på backup-servern tillgängligt hela tiden?
  • Överväg om din backupserver verkligen ska vara medlem i ditt AD. Detta för att undvika att ett kompromissat konto kan manipulera din backupserver. Det finns andra goda effekter av detta också som att din backupserver kanske är lite gladare även om hela ditt AD är nere.
  • Utnyttja snapshotteknik om du har det i ditt lagringssystem, detta är en oerhört effektiv metod för att snabbt kunna återställa stora datamängder. För hur snabbt går det egentligen för dig att återställa 10 servrar från backup? Har du inte tillgång till snapshotteknik kanske du ska byta lagringssystem?
  • Om du replikerar data eller virtuella maskiner mellan flera datacenter så fundera igenom vilka maskiner som omfattas av detta. Normalt sett väljer man kanske bara det som verkligen är affärskritiskt eftersom en sekundär site driver kostnader utan att generera någon direkt nytta. En stor fördel med replikerade virtuella maskiner är att dess kopior är avstängda och bortkopplade från nätverket. Vilket är ett av de bästa skydden mot smittor. Så även om du inte anpassar din sekundära site för att kunna köra alla system bör du överväga att kunna lagra en kopia av allt data.

VMware Update Manager ESXi Upgrade Incompatible

När ESXi servrar skall uppdateras från en version till en annan är det väldigt smidigt att använda Update Manager. Det är enkelt att ladda hem en ny så kallade Custom ISO från hårdvarutillverkaren för den nya versionen och med hjälp av en Upgrade Baseline i Update Manager genomföra uppgraderingen.
Men många gånger stöter man på problem. Vi har stött på många olika orsaker så som för små partitioner för ESXi, bootbank state kataloger som inte är tomma, konflikter med VIB:ar som inte stöds av den nya versioner etcetera.
Just VIB konflikter kanske är en av de vanligare orsakerna. Nyligen utförde vi en vSphere 6.0 till vSphere 6.7 uppgradering. I den aktuella miljön körs det Dell PowerEdge R630 servrar och vi använde Dells senaste Custom ISO för ESXi 6.7 U2 för att genomföra uppgraderingen.
Inför uppgraderingen flaggades servrarna som “Incompatible” av Update Manager. Från resultatet av “Scan Entity” framgick följande

“The upgrade has VIBs that are missing dependencies. Remove the VIBs or use Image Builder to create a custom upgrade ISO image that contains the missing dependencies, and try to upgrade again.”

Tyvärr framgick inga ytterligare detaljer om vilken VIB som saknade beroenden. Men genom att gå igenom loggfiler /var/log/vua.log och leta efter texten “MISSING_DEPENDENCY_VIBS” kunde vi identifiera vad som orsakade detta.

–>     <test>

–>       <name>MISSING_DEPENDENCY_VIBS</name>

–>       <expected>

–>

–>       </expected>

–>       <found>

–>         <value>VMware_bootbank_scsi-qla2xxx_902.k1.1-9vmw.510.0.0.799733</value>

–>       </found>

–>       <result>ERROR</result>

–>     </test>

Vi avinstallerade scsi-qla2xxx och startade om ESXi servern

[root@esx07:/var/log] esxcli software vib remove -n scsi-qla2xxx

Removal Result

   Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.

   Reboot Required: true

   VIBs Installed:

   VIBs Removed: VMware_bootbank_scsi-qla2xxx_902.k1.1-9vmw.510.0.0.799733

   VIBs Skipped:

Efter omstart körde vi en ny Scan på ESXi servern och status för uppgraderingen ändrades från Incompatible till “Non-Compliant” så nu gick det bra att köra igenom uppgraderingen.

Slutsatsen är alltså att /var/log/vua.log är en mycket bra plats för att få ytterligare information om varför olika åtgärder som utförs av Update Manager strular.

Backup till molnet och katastrofsäkring (DRaaS) som tjänst med Veeam Cloud Connect

Backup till molnet och katastrofsäkring (DRaaS) som tjänst med Veeam Cloud Connect

Att ha en kopia av sitt data offsite blir allt viktigare i takt med att cyberattacker i form av ransomware ökar. Risken att drabbas blir allt högre och alla kan råka illa ut oavsett storlek på företag och resurser för att skydda sig mot en attack.
Är olyckan framme så är oftast enda räddningen att kunna ladda en kopia av sitt data som inte är smittad.

Med Veeam Cloud Connect kan man enkelt få en backup av data på annan plats. Man kan också ha en kopia av viktiga maskiner (virtuella och fysiska) och applikationer vilande för att snabbt kunna flytta driften av de mest kritiska systemen till molnet. Backupen krypteras innan den skickas till molnet. VPN-kryptering behövs inte utan Cloud Connect erbjuder en förkonfigurerad SSL-tunnel med WAN acceleration. Därefter kan man välja om datat skall lagras krypterat eller ej. Återställningstid för en virtuell maskin är i snitt endast 15 minuter. Du kan själv nå din backup, se status och vid behov återställa via Veeams kontrollpanel.

Parera erbjuder i egenskap av  Veeam Cloud & Service Provider (VCSP) i första hand lagring av datat i något av våra rack hos CONAPTO (tidigare SunGard) men vi kan även använda oss av molntjänsterna från Amazon AWS.

 

Vad är hyperkonvergerad infrastruktur?

Bakgrund

För tio till femton år sedan så var en av de starkaste trenderna konsolidering. Servrar konsoliderades med hjälp av virtualisering vilket minskade behovet av rackutrymme, ström och kyla rejält. Men allra mest minskade arbetet med att administrera systemen.
Nästa steg för att fortsätta spara resurser och tid är att virtualisera hela miljön, dvs även storage och nätverk. Tekniken har använts länge av de stora molnleverantörerna såsom Microsoft och Amazon och nu är den tillgänglig för alla.

För oss på Parera är hyperkonvergerade system en självklarhet och ett naturligt hack på tidsaxeln som beskriver utvecklingen av våra IT-miljöer.

Två viktiga egenskaper hos en hyperkonvergerad infrastruktur

1.”Konvergerad” hårdvara

Själva ordet ”Hyperkonvergerat” betyder något i stil med ”väldigt sammanslaget” och med bara “konvergerat” menas att hårdvaran är koncentrerad till ett enda system, man har alltså inte fristående system för servrar, datalager och nätverk utan allt finns i samma rack.

2. Virtualiserad datalagring

På samma sätt som vi kan köra många virtuella servrar på en fysisk server vill vi kunna använda fysiska diskar i servrarna för att med programvara bygga virtuella lagringssystem. Virtualiserad datalagring innebär att slå samman separata diskar till något som ser ut och fungerar som en enda gemensam lagringsyta. Nu har vi även fått med “Hyper” i ordet “Hyperkonvergerat”.

Resultatet av punkt 1 och 2 blir att man kan man kan konfigurera kompletta datacenter med i stort sett enbart programvara och standardiserade servrar som byggblock.

Så här fungerar det

  • Programvaran ser till att servrar automatiskt slås ihop till kluster med allt vad det innebär gällande lastbalansering och tillgänglighet.
  • Anslut en server till och få automatiskt en ny nod i klustret.
  • De diskar som finns lokalt på varje server hanteras som ett enda lagringsutrymme och byggs sedan ut i takt med att fler diskar ansluts till respektive server.
  • Hela systemet (servrar och datalager) administreras från ett och samma ställe.

 

Vi sammanfattar fördelarna med hyperkonvergerade system här: Läs mer

Hyperkonvergerade system baserade på vmware hittar du här: vxrail

Fördelar med hyperkonvergerad infrastruktur

Bakgrund

I en hyperkonvergerad lösning används standardiserade servrar med lokalt ansluta diskar för att bygga centrala IT-miljöer. Med programvara i stället för specialtillverkad hårdvara så skapar man system som är lätt att expandera, har mycket bra tillgänglighet och enkla att administrera. Dessutom till ett lägre pris än traditionella system.

Tror ni oss inte så fråga Microsoft, Google eller Amazon, dom har använt sig av denna teknik länge. Det nya är att tekniken för hyperkonvergerade system nu är tillgänglig även för mindre och medelstora IT-system.

Fördelar från hela organisationens perspektiv:

  • Lägre driftskostnader – Enkelt att skräddarsy, snabbt sätta upp och hantera en miljö.
  • Betala för det du använder – Eftersom det är så lätt att expandera miljön så slipper man betala i förskott för planerad tillväxt.
  • Effektivare drift – Allt kontrolleras från ett interface och mallar finns för automatisering, detta ökar IT-personalens produktivitet.
  • Kraftigt förbättrad pris/prestanda –  utvecklingen av standardservrar och disk går mycket snabbare jämfört med traditionella lagringssystem. Speciellt SSDdisk påverkar prestanda kraftigt.

Fördelar från IT-avdelningens perspektiv:

  • Minskat behov av rackutrymme, ström och kylning till följd av att det blir färre hårdvarukomponenter.
  • Systemhanteringen förenklas eftersom hela miljön oftast hanteras från samma interface och av samma administratörer.
  • Förenklad automatisering tack vare att det är ett API att arbeta mot vilket frigör tid.
  • Snabbare provisionering av nya maskiner eftersom allt sköts från ett och samma interface.
  • De flesta hyperkonvergerade lösningarna har även dataskydd, backup och återställning integrerat i infrastrukturen.

Alla dessa saker sammantagna medför att organisationerna kan fortsätta att göra ”mer” utan att behöva högre budget eller mer resurser.

Prisbilden 2018

Om man tittar på dagens prisläge så är det ingen större skillnad mellan traditionell eller hyperkonvergerad infrastruktur. Den hyperkonvergerade var tidigare dyrare i inköp men hade en lägre kostnad för utbyggnad. Under andra halvan av 2018 har prisbilden ändrats och frågan är om inte hyperkonvergerat nu är billigare även som grundinvestering. Som alltid beror totalkostnaden på hur man räknar och vilka kostnader man väljer att ta med.

Generellt kan man säga att ju större systemen är desto mer prisvärda blir hyperkonvergerade lösningar. Det man tjänar på ett effektivt resursutnyttjande ökar i takt med systemets storlek.

Vill man sätta upp ett system för test så kan man i stort sett komma igång direkt utan några större investeringar givet att man har två servrar över och Windows Server 2016 så att man kan köra Storage Spaces Direct. Man ska ha tur om man får allt fungera perfekt från start men som testmiljö kan det vara ett alternativ.

Intresserad? Läs mer här!

Hur anpassar jag mina IT-system till molnet?

Hur anpassar jag mina IT-system till molnet?

Molnet är byggt med hyperkonvergerad infrastruktur

Om virtualisering var en förutsättning för att vi skulle kunna flytta applikationer till molnet så är en hyperkonvergerad infrastruktur förutsättningen för själva molnet.

Skall man kunna skala upp molnbaserade system i takt med att efterfrågan kräver det så håller inte det gamla ”silo-tänket” längre där man separerar servrar, lagring och nätverk var för sig. Problemen kring managering, uppgraderingar, säkerhet och inte minst kostnadskontroll blir helt enkelt för stora. Lösningen på dessa problem stavas programvara:  Virtualisera servrar, lagring och nätverk och använd standardservrar med plats för lokal disk och så är du färdig!

Lämplig programvara som klarar detta har funnits att få från t.ex Nutanix länge, under de senaste åren har även VMware etablerat sig med sitt vSAN och Microsoft med Storage Spaces Direct.

Problemet har tidigare varit att du behövt köpa programvara och hårdvara separat och sedan sätta ihop systemet själv.  Inga större problem för de större leverantörerna såsom Microsoft och Amazon men många andra har tyckt att det blivit för komplicerat.

Även om molntjänster inte är lösningen på alla IT-problem är själva modellen rätt väg. Med ett hyperkonvergerat datacenter kan du få alla fördelar hos molnet, men till lägre kostnader och med större kontroll.

Nu finns färdiga system

Under 2016-2017 lanserade i princip samtliga leverantörer färdigkonfigurerade system och började dessutom erbjuda full support. Resultatet blev att tekniken nu är tillgänglig även för mindre och medelstora företag.  Man kan välja helt kompletta system som innehåller allt man behöver inklusive omfattande support. Som med alla kompletta system minskar flexibiliteten en aning och leverantörerna vill självklart ha betalt för “premium”. Har man egen kompetens och/eller värdesätter flexibilitet och maximal pris/prestanda väljer man i stället s.k. “ready nodes”. Dessa är förkonfigurerade servrar testade för den aktuella programvaran (tex. VMware eller Microsoft Storage Spaces Direct). Att sedan bygga system av dessa noder är inte speciellt svårt men förutsätter att man har kompetens inom VMware eller Windows 2016.

Vi går igenom för- och nackdelar med de vanligaste systemen, VMware vSAN, Microsoft Storage Spaces Direct och Nutanix i nästa artikel.

 

 

Skillnaden mellan Konvergerad och Hyperkonvergerad infrastruktur

Att bygga en konvergerad infrastruktur i en organisation betyder mer än att bara byta ut några hårdvarudelar.

Traditionell IT-infrastruktur består av de man i branschen kallar för teknik-silon. Med ”silo” menar man fristående system inom servar, lagring och nätverk. Dessa inkluderar hårdvara, mjukvara och teknisk kompetens för att hantera dom. Denna uppdelning har dock luckrats upp under det senaste årtiondet då virtualisering knutit samman serversidan med nätverket.

Det nya är att många leverantörer nu erbjuder lösningar där all infrastruktur knutits samman, även datalagret.

Generellt sett finns det två principer för att bygga en konvergerad infrastruktur:

  • Det hårdvarucentrerade, byggblocksbaserade sättet som kallas konvergerad infrastruktur.
  • Det mjukvarudefinierade sättet som kallas hyperkonvergerad infrastruktur.

Konvergerad Infrastruktur:

En av de viktigaste skillnaderna mellan de två koncepten är att i en konvergerad lösning är varje byggblock en separat komponent som kan användas för sitt ursprungliga syfte. En server eller lagringslösningen kan ”brytas ur” och användas som just server eller lagringslösning.

I en konvergerad infrastruktur installeras ett fullt konfigurerat system som inkluderar server, nätverk, lagring och programvara för virtualisering i ett chassi eller rack som utgör en byggkloss. Sedan kan systemet expanderas genom att addera en eller flera byggklossar.

Ett av huvudargumenten för konvergerad infrastruktur är att systemet enkelt kan byggas ut med fler block när behovet av prestanda ökar.

Nackdelen är att även om utbyggnaden sker ”stegvis” är det ändå ett komplett block som skall anslutas vilket naturligtvis kostar en del pengar. Dessutom är man bunden till att använda sig av leverantörens block.

Hyperkonvergerad Infrastruktur:

I en hyperkonvergerad lösning är tekniken mjukvarudefinierad, dvs all funktionalitet körs i program på en server. Programvara som används är ofta VMware vSAN eller Microsoft Storage Spaces (vi kommer fördjupa oss i dessa två i kommande artiklar).

Till detta ansluts sedan diskar direkt i de fysiska servrarna. Styrenheten för lagringen, som normalt är en del av lagringshårdvaran, körs som en tjänst på varje nod i klustret för att öka skalbarheten och elasticiteten.

När marknaden växer så suddas gränserna mellan konvergerad och hyperkonvergerad infrastruktur ut och definitionerna kan ibland användas nästan synonymt. Det är därför viktigt att ta reda på vad leverantören menar med respektive begrepp.