2011-04-21

Applikations virtualisering (del 2)

Jag skrev tidigare om att vi som IT organisation behöver fundera på hur vi levererar klienter och applikationer till klienter.
Idag är det många som har en klient image och sedan har man SCCM, Symantech Ghost, Altiris, LANdesk eller liknande för att skjuta ut image och MSI-paket för applikationer.

I förra artikeln så skrev jag om en tårta där allting är hopbakat med lite olika lager, fast mellan lagren ligger det smörkräm eller sylt som gör att lagren ändå sitter ihop mer eller mindre.
För att åskådliggöra detta så brukar jag använda en bild på en tårta. Dock går det att rita detta på ett annat sätt. Nämligen så här:

Detta är ett sätt att hantera klienter som har en del fördelar, men även en del nackdelar. Om vi börjar med att kika på fördelarna:
  • IT har ett snabbt sätt att få på operativsystem och det blir likadant varje gång.
  • Installation av applikationer är automatiserat så inställningar och liknande blir likadana varje gång
  • Beprövad teknik, vi har gjort så här ett tag
Nackdelar då:
  • Det är svårt att byta ut delar i lösningen. Även om vi kan skapa ett nytt MSI-paket för Office 2010 och skjuta ut så innebär det väldigt mycket tester innan produktionssättning. Detta bland annat eftersom att vi inte kan ha både gamla och nya versionen av applikationen installerad samtidigt på klienterna och att en rollback innebär en stor manuell arbetsinsatts.
  • Leverans av applikationer till datorer som inte tillhör företaget (ex. konsulter eller liknande) blir svår, alternativt går inte att genomföra
  • Vi har en image som skall passa alla. Oavsett arbetsuppgifter och behov. En lösning som skall passa många gör att det tyvärr ofta blir en del kompromisser.
  • När en användare inte behöver en applikation längre krävs manuell hantering för att ta bort applikationen. Om datorn dessutom inte har kontakt med nätverket (exempelvis för att det är en extern dator) blir det en ännu större utmaning.

OK det är dåligt att göra som vi gör idag, men vad är alternativet??
Det finns som sagt mängder av sätt att lösa detta, men samtliga bygger på virtualisering. Att virtualisera hårdvara, operativsystem, applikationer, användardata och inställningar. Helt enkelt göra så att de olika delarna inte sitter ihop utan att de är separata delar...
Delar av ovanstående har vi gjort hur länge som helst. Att ha en redirect på hemkataloger från användarens dator till en filserver är en typ av användardata-virtualisering....
Roaming profiles för att hantera inställningar är en annan.
Virtualisering av hårdvara har vi gjort på servrarna i ett par år också.. det är alltså inget nytt eller konstigt detta. Det handlar bara om att börja med tänket för varje applikation och användare...


Slut för nu...
Jag vill bara nämna detta. I en tråd efter en artikel på IDG.se så stod det följande för nån vecka sedan:

"Jag är inte negativ mot nytt tänk, allt har sin plats och sin nytta, men ibland så känns det som att vi ska införa saker bara för att det går"
Svaret var lika klockrent som det är kortfattat:
"Det är ju det som är problemet. Vi vill begränsa användarna bara för att det går, inte för att det behövs. Sätt nytta och ekonomi först, men glöm inte bort slutanvändaren…"
och det är just detta. Att se till att vi levererar den lösningen som varje applikation och varje användare behöver. Varken mer eller mindre.

För idag har vi möjligheten att göra just detta. Det kräver bara att vi tänker lite annorlunda... och det kommer ytterligare bloggposter att handla om framöver. :)

Inga kommentarer:

Skicka en kommentar

Related Posts Plugin for WordPress, Blogger...