maandag 25 augustus 2014

Doet VMware het beter dan Netscape?

Webbrowsers

l'histoire se répète, de geschiedenis kan inzicht geven en we kunnen lering trekken om de toekomst beter te kunnen voorspellen. Om naar de toekomst van VMware te kijken, is het denk ik zinvol om een vergelijking te trekken met de opkomst en ondergang van webbrowsers.

Browser wars

In december 1990 werd het World Wide Web gecreerd door Tim Berners Lee. Eind 1992 waren er 26 websites . In 1993 kwam Mosaic beschikbaar en met deze basis richtte Marc Andreessen de Netscape corporation op. Netscape verkreeg met zijn browser een marktaandeel van 80%.
Microsoft had de start van het internet gemist en begon in 1995 met Internet Explorer 1.0. De software werd door Microsoft gratis geleverd, zowel voor consumenten als voor zakelijke klanten kwam daarmee een gratis browser beschikbaar. Het resultaat van de gratis software is dat Netscape uiteindelijk het onderspit moest deleven in de browseroorlog. Internet Explorer bereikte een marktaandeel van 96%.
Een gevolg van het wegvallen van Netscape als concurrent was dat er een einde kwam aan de vernieuwing bij webbrowsers.

Techniek

Er is voor mij geen twijfel mogelijk dat VMware (nog steeds) betere virtualisatiesoftware is. Zeker als het gaat om Windows server 2008 R2. Met de komst van Windows server 2012 R2 heeft Microsoft technisch gezien de belangrijkste virtualisatiefeatures geimplementeerd. Tevens heeft Microsoft nieuwe features toegevoegd zoals live migration zonder shared storage.
Dankzij de competitie tussen VMware en Microsoft worden er door beide bedrijven steeds meer features geleverd en dat is voor de eindklanten de grootste winst.

Kosten

Het grote voordeel van Hyper-V zijn de kosten, het wordt gratis meegeleverd. Vooral wanneer er virtuele Microsoft servers moeten worden gehost, is het kostentechnisch zeer aantrekklijk om voor Microsoft te kiezen.
Mede dankzij de concurrentie heeft VMware het kostenmodel op basis van geheugen alweer laten vallen. Een strategische blunder die ongetwijfeld goodwill en klanten heeft gekost. Ik verwacht en hoop dat VMware zijn prijzen verder zal moeten aanscherpen.

Conclusie

Ik denk dat voor veel (kleinere) bedrijven Hyper-V aantrekkelijker is vanwege de lagere kosten. Dit kan een kostenvoordeel uit zich in licenties en kennis omdat de Windows kennis vaak al beschikbaar is. De kwalitatief beste oplossing is denk ik VMware en voor de eindklanten is het te hopen dat de concurrentie nog lang voortduurt zodat de technische ontwikkelingen doorgaan en de prijzen voor eindklanten lager worden.
Volgens Gartner leidt VMware nog steeds en we zullen zien wat de toekomst brengt. Qua investering raad ik VMware niet aan. Het is lastig concurreren als de concurrent zaken gratis aanbiedt.

dinsdag 19 augustus 2014

Maximale netwerksnelheid van (WAN) verbindingen

Dalende kosten, hogere snelheden

De kosten van netwerkinterfaces worden steeds lager. Een lagere snelheid dan Gbps is al bijna niet meer acceptabel. Met de uitrol van steeds snellere WAN verbindingen, zijn bij gebruikers de verwachtingen vaak hoog. Consumenten hebben tegenwoordig eenvoudig toegang tot FTTH verbindingen op Gbps snelheid.
Er zitten sterke beperkingen aan de snelheden die gehaald kunnen worden met standaard applicaties en protocollen. Dit is geen gevolg van de keuze in provider of hardware, maar wordt veroorzaakt door de gebruikte protocollen.

UDP of TCP

De twee belangrijkste protocollen waarover communicatie via internet plaatsvindt, zijn UDP en TCP. Beide hebben zeer verschillende eigenschappen en voor de meeste applicaties is snel duidelijk welke de voorkeur heeft. Wikipedia heeft een heldere vergelijking tussen UDP en TCP.
  • TCP - Veel overhead en betrouwbaar, bijvoorbeeld voor bestanden (ftp), webverkeer (http).
  • UDP - Lage overhead zonder garanties, bijvoorbeel voor streaming audio (voip) en video.
Vanwege de betrouwbaarheid wordt voor veel protocollen TCP gebruikt. De applicatie kan dan op de netwerklaag vertrouwen voor het datatransport, bijvoorbeeld tussen een client en een server.

Latency of afstand

Alle afstanden zijn uiteindelijk terug te vertalen naar latency. Het is niet relevant wat de fysieke afstand is tussen twee locaties. Alleen de onderlinge latency is belangrijk om de maximale netwerksnelheid te bepalen. Dat geldt zowel voor verbindingen over koper of over glasvezel.

Netwerken op lichtsnelheid

Montgomery ScottZoals Scotty al aangaf, `I cannae change the laws of physics`. Er zijn testen gedaan met licht door een dun luchtkanaal, maar vanwege hogere demping zitten we de komende tijd nog vast aan glas als medium. De lichtsnelheid in glasvezel is ca. 200.000 km per seconde. We kunnen daardoor snel bepalen wat de te verwachten latency is als gevolg van het glasvezeltraject.
Straal/radioverbindingen komen wel in de buurt van de lichtsnelheid. Verbindingen over langere afstanden gaan meestal via glasvezel. Zowel DSL als kabelmodem hebben een glasvezel backbone.

  • 200km (retour Amsterdam - Enschede) ~ 1ms
  • 800km (retour Amsterdam - Londen) ~ 4ms
  • 1600km (retour Amsterdam - Dublin) ~ 8ms
  • 4000km (retour Amsterdam - Reykjavik) ~ 20ms
  • 12.000km (retour Amsterdam - New-York ~ 60ms

Maximale TCP-bandbreedte

Binnen het tcp-protocol geld binnen de meeste besturingssystemen een maximale buffergrootte van 64KB. Wanneer deze hoeveelheid data verstuurd is, moet de zender wachten totdat de ontvangst bevestigd is. Dit geeft de belangrijkste limiet aan de netwerksnelheden bij verschillende latencies.
  • 60ms geeft een maximale bandbreedte van 9Mbps
  • 20ms geeft een maximale bandbreedte van 26Mbps
  • 10ms geeft een maximale bandbreedte van 51Mbps
  • 5ms geeft een maximale bandbreedte van 105Mbps
De berekende snelheden zijn onafhankelijk van de snelheid van de netwerkverbinding.

Hoe kan het sneller?

Er zijn diverse optimalisaties. De buffergrootte kan omhoog, er kunnen meerdere tcp-streams worden gebruikt, waardoor de gebuiker een hogere snelheid ervaart. Tevens zijn er ontwikkelingen om op basis van UDP nieuwe protocollen te ontwikkelen.
Naast ontwikkelingen om zaken sneller te maken dient men ook rekening te houden met vertragende factoren zoals switches, routers, firewalls. Al deze apparatuur kan latency toevoegen en vooral packetanalyse van firewalls kan latency toevoegen.

TCP verbindingen langzaam over grote afstanden

Het basisprincipe dat door een beperkte TCP-buffersize er een maximale bandbreedte gehaald kan worden blijft staan en is voor de komende tijd een belangrijk feit om rekening me te houden.

maandag 2 augustus 2010

Storage - wensen en eisen

Recent kwam er weer een storageleverancier over de vloer. Er zijn zoveel storageoplossingen dat ik het lastig vind om in dat oerwoud de beste keuze te maken. Vooral omdat elke leverancier weer andere functies en mogelijkheden heeft.

Laat ik eens een wensenlijst maken:
  • iSCSI. Wij gebruiken geen tokenring netwerken meer. Ethernet all the way, 1 techniek voor de beheerders om zich eigen te maken. Zeker met de ontwikkelingen van 10Gbps ethernet is ethernet de enige juiste weg naar mijn mening.
  • Automatische tiering. Storagebeheer kost tijd en dus geld, het is dus zaak om tiering te automatiseren zodat niet iemand handmatig data heen en weer moet slepen. Met echte tiering bedoel ik dat data optimaal wordt geplaatst op SSD, SAS en SATA.
  • SSD support. De revolutie vindt nu plaats. Een array zonder toekomstige mogelijkheid voor SSD speelt voor mij niet meer mee. SSD is qua performance ten opzichte van spindles revolutionair.
  • SATA (2TB) support. Er gaat niets beneden de kosten van 2TB sata disks als grote pool voor storage. Data uitzoeken kost tijd en dus geld. Liever enkele extra 2TB disks zodat ook de oude data gewoon (op lage snelheid) online kan staan.
  • 10Gbps support. Hebben we het nodig? Meestal niet, maar omdat we niet willen dat 1 systeem de pijp vol kan duwen en bundeling van 1Gbps niet werkt is het wenselijk om 10Gbps te ondersteunen. De prijzen van 10Gbps poorten daalt, de verwerkingskracht van (virtuele) systemen neemt toe, dus de behoefte om snel data van storage naar cloud te krijgen neemt toe.
  • Schaalbaarheid. Zonder schaalbaarheid (in combinatie met automatische tiering) kan ik een topleverancier niet serieus nemen. Wat zijn de mogelijkheden om uit te breiden en door te schalen.
  • Asynchrone replicatie. Om zeker te weten dat je data clean aan de overkant staat is een asynchroon snapshot onontbeerlijk. Onder andere in de combinatie met Microsoft VSS. Na een calamiteit kan de applicatie snel weer in de lucht worden gebracht met een clean snapshot zodat mensen snel verder kunnen werken. Met een goede asynchrone replicatie wordt een lage RTO bereikt.
  • Synchrone replicatie. In sommige applicates mag er geen data verloren gaan. 2x hetzelfde bedrag van een rekening afschrijven is niet altijd wenselijk. Een lage RPO is voor sommige klanten zeer belangrijk.
  • Qos op storage. De mogelijkheid hebben om een bepaald volume voorrang te geven boven andere volumes. Kan de databaseserver voorraang krijgen boven de fileserver?
  • Eenvoudig licentiemodel. Hoeveel licenties zijn er mogelijk? Door de bomen is soms het (toekomstige) bos vaak niet meer te zien. Natuurlijk is de aanbieding bij de eerste aanschaf super, maar wat als je na anderhalf jaar uit wilt breiden? Of toch ook VSS wilt gaan gebruiken? Replicatie? Tiering?
  • Hoge beschikbaarheid. Array's gebaseerd op 1 moederbord, 1 netwerkcontroller, 1 storagecontroller, ik word er niet warm van. Als het aantal SPOFS groter wordt dan het aantal disks, mag een leverancier dan nog hoge beschikbaarheid claimen? Juist voor een SAN is beschikbaarheid key. Zonder hoge beschikbaarheid, geen betrouwbaarheid waardoor alle data weer lokaal op de disks wordt opgeslagen.
Een lange lijst met zaken om naar te kijken. Zover ik het aanbod kan overzien vult geen enkele leverancier alle wensen perfect in. Suggesties natuurlijk zeer welkom!

vrijdag 11 december 2009

EqualLogic lanceert 10GE iSCSI

Vandaag heeft Dell-EqualLogic (eindelijk) de 10GE controllers gelanceerd. Ik denk dat het een goede stap vooruit is voor iSCSI.

Technisch
SAN-performance draait om random IOPS. Bandbreedte is meestal niet het issue. Zodra er voldoende applcaties/streams zijn, wordt alle data-toegang random. Alles wordt bepaald door de random IOPS en daarin zijn we meestal nog afhankelijk van disks.
Toch maakt het wel uit voor de performance. Buffered reads en writes kunnen veel sneller voldaan worden, latency wordt lager en 1 server kan minder eenvoudig een link dichtdrukken met een datastroom. Truncing heeft in veel gevallen beperkingen die door 10GE worden weggenomen. Zeker in combinatie met VMware servers een goede stap vooruit.
Nu wachten we alleen nog op (grotere) daling van SSD prijzen en dan kan SAN-performance straks met sprongen vooruit.

Commercieel
Vanuit sales bekeken is het echt heerlijk om 10GE te hebben in het SAN. Daarmee worden de FC links eindelijk ingehaald en is er geen discussie meer over de netwerkperformance binnen het SAN.

zondag 31 mei 2009

SSD als holy grail

Er is veel te doen over SSD. In hoeverre is het echt disruptive als technologie?

Performance
De prestaties van SSD zijn van een andere order dan van standaard harde schijven. Hierbij moet je wel goed letten op de kwaliteit, type en model. De eerste exemplaren waren zeer teleurstellend, maar bijvoorbeeld de disks van Fusion-io presteren zeer goed. Voor databaseservers zal SSD dit jaar de standaard worden. Iedereen die nog trage 15k SAS schijven in een databaseserver plaatst moet eens eens goed rekenen hoe groot zijn database is en wat de gewenste performance is.

Groen
Ook een SSD kost energie. Het is dus niet noodzakelijk groener. Vooral niet als naar de (energie-)kosten per TB gekeken wordt. Voor fileservers en grote storagehoeveelheiden is SATA nog steeds de perfecte keus. voor databaseservers kan SSD een enorme besparing opleveren omdat er minder disks en/of servers nodig zijn voor dezelfde performance. Afhankelijk van de applicatie kunnen deze besparingen significant zijn.

Is het een disruptive technologie? Absoluut. de performancewinst is enorm en mits goed toegepast kan het leiden tot flinke besparingen.

donderdag 2 april 2009

Stroomverbruik/vermogen per rack

Zijn er grenzen?
Gebruikers willen steeds meer vermogen, de energiedichtheid wordt steeds hoger in een datacentrum. Gaat dit ergens stoppen of wil iedereen alleen maar meer stroom? Kan het nog weggekoeld worden?

Geschat wensverbruik
Blades - Een bladechassis verbruikt al snel 2-4KVA. Wanneer je daarvan 4 ophangt in een rack zit je dus op 8-14KVA aan energie in een rack.
Rackservers - Een 1U dual cpu quadcore server gebruikt ca. 1A aan stroom. Wanneer daarvan 40 in een rack hangen, zit je dus op 9KVA.

Max koelvermogen?
Dergelijke vermogens kunnen alleen weggekoeld worden als de racks en de koeling in een datacentrum goed ontworpen zijn. Koude en warme paden met afgedichte koude gangpaden, kunnen in elk geval 10KVA in een rack wegkoelen.
Dergelijke vermogens vergen van de basiskoelingsinfrastructuur natuurlijk ook aanzienlijke performance. Toch verwacht ik dat we nog niet aan de grenzen zitten wat er met een goed ontworpen luchtkoeling mogelijk is.

woensdag 25 maart 2009

Intel Atom

De Intel Atom processor is voor servers een zeer veelbelovende oplossing voor de warmteproblemen waar huidige hosters tegenaan lopen. Met deze CPU heeft een server voldoende aan 40W. Natuurlijk is ook de performance lager dan een high end server, maar in de praktijk hebben de meeste servers ook geen hoge performance nodig.

Jammer dat Intel zelf deze cpu nog niet voor deze markt positioneerd, wat ook alles te maken heeft met de lage kosten en het feit dat ze zelf de Xeon voor de servermarkt neerzetten.