Virtualisering (MS Hyper-V server)

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Da har jeg fått fingeren ut og kjøpt meg en ny maskin som mellom annet skal være filserver, plex-transkoder og diverse annet snacks. Den har 32GB ECC-RAM, hovedkort fra Supermicro og en Intel Xeon E5-2690 med 8 fysiske kjerner så den burde klare biffen ganske bra regner jeg med...

Tenkte å kjøre Hyper-V i bunnen og lurer på om jeg har skjønt dette korrekt:

- Den er HELT gratis og gratisversjonen er ikke tidsbegrenset
- Jeg kan få et fornuftig management-GUI vha klientprogramvare som følger med Windows 10

Alternativet er å kjøre Linux som host OS og virtualiseringsprogramvare oppå der, men det lille jeg har lest meg opp på tilsier at Hyper-V er et godt valg.
 

Brummund

Hi-Fi entusiast
Ble medlem
19.11.2007
Innlegg
450
Antall liker
282
Sted
Fredrikstad
Ren nysgjerrighet: Hvorfor skal du virtualisere dette? Skal du ha mye forskjellig ræl på boksen? På jobb er det seff virtualisering og skyen som gjelder, men hjemme?

Googlet litt rundt på dette med lisenser og mitt inntrykk er absolutt at dette er gratis, så lenge du har Win10 pro og høyere.

(Har ingen problemer med å forstå hobby/hæppe/teste-aspektene, altså)
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Ren nysgjerrighet: Hvorfor skal du virtualisere dette? Skal du ha mye forskjellig ræl på boksen? På jobb er det seff virtualisering og skyen som gjelder, men hjemme?

Googlet litt rundt på dette med lisenser og mitt inntrykk er absolutt at dette er gratis, så lenge du har Win10 pro og høyere.

(Har ingen problemer med å forstå hobby/hæppe/teste-aspektene, altså)
Litt (ok, en god del) geek-faktor, litt fordi jeg ønsker å kjøre litt forskjellig på den. I alle fall en Linux + en Windows-instans + mye enklere å teste ut nye ting uten å føkke med installasjonen som er i bruk.

Planen er også å ha Tilgang til Plex-server fra Internett og innbiller meg (muligens uten grunn) at det er tryggere om den kjører på en virtuell instans og ikke direkte på en av boksene jeg bruker til daglig
 
Sist redigert:

Brummund

Hi-Fi entusiast
Ble medlem
19.11.2007
Innlegg
450
Antall liker
282
Sted
Fredrikstad
OK:)

Virtualisering gjør jo veien lengre for ondsinnet nettverkstrafikk i de fleste tilfeller. Det er ålreit å kunne konfigurere en boks etter hjertens lyst uten å måtte bekymre seg for andre tjenester som kjører på instansen. Ulempen er å måtte dedikere ressurser på forhånd.

Har du sett på docker? Har prøvd det litt selv på diverse tjenester for utvikling, og det er et kompromiss mellom alt på en instans og virtualisering av hele OS-et. I tillegg er det forholdsvis nytt og hipt for de fleste av oss ;)
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Har såpass mye ressurser tilgjengelig at akkurat det ikke plager meg - 8-kjerner xeon og 32 gig ram burde holde til hjemmebruk (fikk maskinen rimelig på Finn.no)
 

xerxes

Hi-Fi freak
Ble medlem
08.01.2005
Innlegg
9.630
Antall liker
5.276
Sted
Holmestrand
Har såpass mye ressurser tilgjengelig at akkurat det ikke plager meg - 8-kjerner xeon og 32 gig ram burde holde til hjemmebruk (fikk maskinen rimelig på Finn.no)
HVor mye omtrent er rimelig?
Jeg har ringt på en del servere, men de er ofte GAMLE og ikke spesielt rimelige.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Alt er relativt, men jeg betalte 8.5k for følgende:

8-core xeon e5 2.9Ghz (dvs føste generasjon. Ytelsen er fortsatt top notch (ca 2/3 av siste versjon), men nyere modeller bruker en del mindre strøm)
supermicro motherboard med 2x GB-lan og alt man ellers forventer av et HK derfra ("nytt")
32GB ECC-RAM ("ny")
256GB SSD ("ny")
Corsair 750W PSU ("ny")
Stort tower-kabinett fra CoolerMaster
CPU-kjøler
Low/mid-end frafikkort med NVIDIA-chip
Windows

Og ikke minst ferdig sammensatt slik at jeg slapp å gjøre den biten selv. Alternativet mitt ville være konsument eller prosumer-hardware og selvbygg - det ville blitt dyrere og sannsynligvis dårligere ytelse. Siste versjon av CPUen koster over 20 laken alene, den er raskere, men ikke SÅ mye og bruker mindre strøm (irrelevant for mitt bruk). Jeg ønsker heller ikke rackmontert som mye servere er da disse stort sett bråker noe helt forjævlig. Stapper den riktig nok i teknisk rom så slipper å høre på den til daglig, men skader uansett ikke at den er stillegående og god plass til å putte inn masse disker osv i kabinettet og god plass å jobbe i.
 
Sist redigert:
S

Syncrolux

Gjest
Hyper-V på Windows 10 er aldeles helt utmerket, det følger med Windows 10 er har få praktiske begrensinger. Tut & kjør ja.
Du får temmelig nær native performance, så man trenger ikke noe brutalt jern for å få helt grunnleggende ting til å fungere veldig bra.
 

nma

Hi-Fi freak
Ble medlem
07.12.2003
Innlegg
4.696
Antall liker
518
Torget vurderinger
1
Spennende saker :)
Selv har jeg gått til innkjøp av en ny Mikroserver som skal brukes til NAS og svært enkel virtualisering med diverse Linux-miljø. (bare for å slippe å bruke VirtualBox) Men hadde jeg vært seriøs mht virtualisering hadde regnestykket sett slikt ut (dette gir fortsatt kun brøkdelen av ytelsen til E5-2690 m/ 32GB RAM)

HP Mikroserver 2200,-
Xeon E3-1265LV2 (via Ebay) 2500,-
16GB ECC RAM 1300,-
256GB SSD 700,-
-----------------------------
Totalt +- 6700,- for en server som gir anstendig ytelse med minimal footprint.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Jeg er ikke spesielt seriøs og gjør dette mye pga geek-appealen det har, men når det var mulig å få såpass kraftig hardware for en grei penge så tenkte jeg det var like greit. Pelx-transkoding krever en del CPU, ellers er jo det meste en hjemmeserver skal drive med ganske grei skuring.

Skal leke meg litt med Hyper-V og sette opp lagringsdikser etter hvert - er ganske blank på virtualisering utover at jeg skjønner konseptene, så vi får se hvordan det går.
 

xerxes

Hi-Fi freak
Ble medlem
08.01.2005
Innlegg
9.630
Antall liker
5.276
Sted
Holmestrand
Alt er relativt, men jeg betalte 8.5k for følgende:

8-core xeon e5 2.9Ghz (dvs føste generasjon. Ytelsen er fortsatt top notch (ca 2/3 av siste versjon), men nyere modeller bruker en del mindre strøm)
supermicro motherboard med 2x GB-lan og alt man ellers forventer av et HK derfra ("nytt")
32GB ECC-RAM ("ny")
256GB SSD ("ny")
Corsair 750W PSU ("ny")
Stort tower-kabinett fra CoolerMaster
CPU-kjøler
Low/mid-end frafikkort med NVIDIA-chip
Windows

Og ikke minst ferdig sammensatt slik at jeg slapp å gjøre den biten selv. Alternativet mitt ville være konsument eller prosumer-hardware og selvbygg - det ville blitt dyrere og sannsynligvis dårligere ytelse. Siste versjon av CPUen koster over 20 laken alene, den er raskere, men ikke SÅ mye og bruker mindre strøm (irrelevant for mitt bruk). Jeg ønsker heller ikke rackmontert som mye servere er da disse stort sett bråker noe helt forjævlig. Stapper den riktig nok i teknisk rom så slipper å høre på den til daglig, men skader uansett ikke at den er stillegående og god plass til å putte inn masse disker osv i kabinettet og god plass å jobbe i.
Ikke helt gratis, men heller ikke ueffen HW, og da kan man jo betale litt.
De jeg har har sett på har hatt slækk CPU, minumum av RAM, ikke disker.
Når de da skal ha 3-4000, så blir det jo fort noen lapper når man får på plass RAM og disker.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Etter en del googling spørst det om Hyper-V core er veien å gå - virker som det ikke er helt smooth å få zfs eller lignende til å funke siden det i utgangspunktet skal ha "bare metal access" og ikke gå via en hypervisor. Hyper-V har riktig nok funksjonalitet for å koble fysiske disker direkte til en virtuell maskin - skal se om dette bare er et problem i oddball tilfeller jeg fint kan leve med eller om det er en seriøs issue. Eventuelt om det er tut & kjør med vanlig software-RAID under Linux med mdadm selv om Linux-serveren kjører virtuelt. Hyper-V core er helt minimal og uansett om det skulle være mulig å sette opp en fornuftig lagrings-løsning via kommandolinje har jeg ingen intensjoner om bli særlig flink i powershell eller win-admin fra kommandolinje.

Min opprinnelige ide var å ha en Linux-server kjørende virtuelt på toppen av Hyper-V som styrte et lagringsarray basert på zfs eller btrfs uten at Windows-hypervisoren noen sinne visste at dette arrayet eksisterte, men det ser ut til å være en del mindre smooth enn jeg trodde.

Proxmox ser ganske kult ut (essensielt en Debian-distro med KVM og Linux Containers og et greit GUI for administrering)

Hvor er marsboer når man virkelig trenger han;)
 
Sist redigert:

Class

Hi-Fi freak
Ble medlem
11.03.2009
Innlegg
2.763
Antall liker
496
Sted
Vestfold
Torget vurderinger
7
Jeg kjører VMWare ESXi på min server. Har aldri hatt problemer og ytelsen er bra.
Booter fra en minnepinne, og VM som trenger maks ytelse ligger på en SSD.
 
S

Syncrolux

Gjest
VMware ESXi er litt mer kilen på hardware enn Hyper-V, spesielt disk- og nettverkskontrollere. Fordelen med Hyper-V er at Windows har mye bredere driverstøtte. Men med supportert hardware ville jeg nok valgt ESXi, da det er enklere å administrere enn Hyper-V, og dessuten slipper man en 1-2 GB Windows kernel i bunn. ESXi er veldig "tynn" og bruker lite ressureser i seg selv, noe man nok ikke kan påstå når det gjelder Hyper-V på Windows 10....
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Hvordan har dere satt opp lagringsløsningen?
 

nma

Hi-Fi freak
Ble medlem
07.12.2003
Innlegg
4.696
Antall liker
518
Torget vurderinger
1
Når jeg får min server, så tenker jeg å sette det opp med Hyper-V og kjøre XPnology (synology sin NAS distro), buildroot med Debian 7 32 og 64bit, Debian 8 32/64bit, Ubuntu 14.04 32/64bit samt/muligens Ubuntu 16.04 32/64bit, og kanskje en egen distro for Webutvikling.

Tenker at Xpnology får 2 disker i raid (og mulighet for å koble til 2 til ved behov), mens resten kjøres direkte fra SSD'en. Jeg er helt novise selv, så dette blir jo morsomt.. Nå har jeg 5 NAS liggende rundt omkring, det hadde vært fin å fått samlet alt i en box og i tillegg kjøre VM.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Jeg tror jeg skal gå for en Linux-løsning i bunn fremfor Hyper-V, da kan jeg sette opp zfs som filsystem på lagringsdiskene styrt av Linux-serveren og så kan gjestene aksessere dette filsystemet via samba eller ved å mounte det i Linux, da får jeg fordelen med at zfs ikke kjører gjennom en hypervisor med direkte på hardwaren. RAID/zfs/osv gjennom Hypervisor ser ut til å være en ikke spesielt god ide ser det ut til. De virtuelle maskinene vil da kunne se filsystemet som et hvilketsomhelst annet delt filsystem og all lesing/skriving styres av den underliggende serveren. Hardware RAID skal jeg i alle fall ikke ha.

Med fullskala Win-server i bunn hadde det være noe enklere siden jeg kunne brukt storage spaces eller lignende windows-teknologi, men jeg har ikke tenkt å betale for Windows server siden jeg ikke trenger alt det andre som uansett følger med.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Installerte proxmox i går (Proxmox - Powerful Open Source Server Solutions) - en Debian-server med KVM, Linux-containers og en web-basert gui for å administrere sakene. Ser ganske lovende ut så langt. Er "gratis", dvs at man må kjøpe abonnement for å få tilgang til de aller siste stabile releasene, men akkurat det er neppe veldig relevant for enkel hjemmebruk siden jeg ikke akkurat bruker leading-edge funksjonalitet eller har et komplisert cluster som skal administreres.

Installasjon er veldig rett frem, ditto å opprette nye virtuelle maskiner. GUI-ytelsen over VCN er ganske dårlig, men det er visstnok noen workarounds på dette og det er strengt tatt også begrenset hvor mye gui man trenger på en slik sak når den faktisk er i drift.

Planen min er da som følger
- Installere proxmox på SSDen i serveren. Virtuelle maskiner legges også på SSDen.
- Serveren kjører også filserver via Samba, setter opp et ZFS-pool med RAID-Z. Dette filsystemet kan da deles ut vha Samba eller mountes dirkekte fra Linux-VMer. Da skulle i min enkle verden den underliggende Debian-serveren kjøre hele filsystemet og vil holde styr på dette uten å gå via noen VM. Internkommunikasjon mellom VMene går uansett over en virtuell nettverksswitch i software og vil uansett være raskt som fy siden det ikke er noe fysisk nettverksinterface involvert uansett.
 

Midas

Bransjeaktør
Ble medlem
07.01.2015
Innlegg
1.061
Antall liker
772
Sted
Stavangerområdet
Følger denne.

Har ikke noe å bidra med i forhold til hypervisor, men har brukt zfs i veldig mange år (i Ubuntu). Hva slags raidz config setter du opp?
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Ingen foreløbig siden jeg kun har to "smådisker" (500GB pr stk) i serveren - skal teste ut konseptet først før jeg gjør noe endelig, men planen er å bruke RAIDZ-1 eller hva det heter (tilsvarende RAID-5) med 4 eller 5 stk 4-TB-disker. Med zfs må man jo bestemme seg på forhånd siden det ikke kan legges til en enkelt disk senere som man kan med mdadm. Forløbig står de kun i RAID-0 slik at systemet ser en disk på 1GB med ingen redundans. Virker også som det er anbefalt å reservere litt av en rask disk (dvs en SSD) som cache for zfs pga måten zfs flusher til disk. Trenger også mye RAM for zfs, anbefalingen er vel noe slikt som 4GB + 1GB pr TB disk
 

Midas

Bransjeaktør
Ble medlem
07.01.2015
Innlegg
1.061
Antall liker
772
Sted
Stavangerområdet
Ingen foreløbig siden jeg kun har to "smådisker" (500GB pr stk) i serveren - skal teste ut konseptet først før jeg gjør noe endelig, men planen er å bruke RAIDZ-1 eller hva det heter (tilsvarende RAID-5) med 4 eller 5 stk 4-TB-disker. Med zfs må man jo bestemme seg på forhånd siden det ikke kan legges til en enkelt disk senere som man kan med mdadm. Forløbig står de kun i RAID-0 slik at systemet ser en disk på 1GB med ingen redundans. Virker også som det er anbefalt å reservere litt av en rask disk (dvs en SSD) som cache for zfs pga måten zfs flusher til disk. Trenger også mye RAM for zfs, anbefalingen er vel noe slikt som 4GB + 1GB pr TB disk
Jeg trodde at du kan legge til disker senere i en eksisterende pool (dam? pytt? bassenget?), men jeg ser at du nok har rett. Det man kan heller ikke endre raid-z typen etter at poolen er laget. Når man bytter disker, kan man erstatte med nye større disker. Når alle diskene i en pool er byttet ut med større drev, kan man øke størrelsen på hele poolen.

Jeg har en NAS med vanlige commodity NAS-disker (WD RED) hvor jeg kjører raidz-2 og totalt 6 stk 3TB disker. Jeg endte opp med en redundans på 2 disker fordi jeg var på hengende håret nær på å miste alle datatene da en disk røyk og disk nr 2 hadde status kritisk feil. Jeg har kjørt dette arrayet siden 2012, og har mistet alle opprinnelige harddisker på alder og defekter, byttet ut feilende disker med nye og kjørt videre uten datatap. I denne prosessen har jeg økt diskstørrelsen fra 1TB til 3TB per drev og dermed 3-doblet poolstørrelsen. Jeg kjørte serveren med 8GB minne en lang stund, og det var ikke noe sjakktrekk. Nå har jeg oppgradert til 16GB, og det hjalp stort, men den makser fortsatt minnet. Så ja, planlegg MYE minne.

Vedrørende cache disk, så er dette ikke helt rett frem. Mye avhenger nok at hvor høyt du sikter performance-messig og hva slags bruksmønster det vil bli på lagringen (f.eks. synkron vs asynkron writes). Du kjenner kanskje til forskjellen mellom zil og l2arc?

The ZFS ZIL and SLOG Demystified - FreeNAS - Open Source Storage Operating System
https://www.ixsystems.com/blog/o-slog-not-slog-best-configure-zfs-intent-log/
Things you should consider when building a ZFS NAS

Merk at en cache SSD krever en SSD med høy kvalitet. Den blir utsatt for et svært høyt volum av skriveoperasjoner, og det er leit hvis dette blir single-point of failure for dataintegriteten på systemet. For det andre krever det minne å håndtere SSD-en. Jeg har ofte blitt rådet at for mindre applikasjoner det er bedre å investere med i fysisk minne, slik at den får mer plass til den vanlige filcachen.

Jeg har lenge vært på vippen for og mot SSD caching, men har egentlig slått det fra meg. Dels fordi jeg er allerede begrenset på minne (det krever mer minne å håndtere en SSD cache). Og dels fordi jeg "bare" har en liten SMB NAS, så det totale skrivevolumet er egentlig veldig lite.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Ja, jeg tenker også i de baner at det ikke er så nøye for mitt bruk, i praksis skal det jo stort sett streames filer med ganske lav datarate - er jo ikke akkurat en høyvolum transaksjonsdatabase på et webhotell det er snakk om akkurat...
 

Class

Hi-Fi freak
Ble medlem
11.03.2009
Innlegg
2.763
Antall liker
496
Sted
Vestfold
Torget vurderinger
7
Det er ikke noe problem å migrere mellom disker med ZFS om du vil begynne med noen få, mindre disker.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
20.561
Antall liker
13.023
Jeg mente at når man først har laget et vdev med RAIDZ kan man ikke legge til flere disker i sammme VDEV. Man kan evt opprette et nytt VDEVmed flere disker i RAID-Z og så koble disse sammen med de opprinnelige i en zpool, men så langt jeg har forstått kan man ikke øke RAIDZ-arrayet med en og en disk som man kan dersom RAID er basert på mdadm eller lignende løsninger.
 

Class

Hi-Fi freak
Ble medlem
11.03.2009
Innlegg
2.763
Antall liker
496
Sted
Vestfold
Torget vurderinger
7
Jeg har brukt ZFS noen år nå og har ikke sett det som noe problem at man ikke kan legge til RAIDZ disker.
Tror det er litt gammeldags RAID tankegang som ser problemer der det egentlig ikke er noen. :)
 

nma

Hi-Fi freak
Ble medlem
07.12.2003
Innlegg
4.696
Antall liker
518
Torget vurderinger
1
Dette er dere andre sikkert vant til, men for meg er dette er positiv overraskelse: Det beste med dedikert server-hardware at kvm over IP fungerer uten problemer whatsoever. Det er basically bare å fylle den oppe med diskene man trenger, så er det bare å stue serveren vekk, siden alt kan gjøres via nettleseren til en annen PC. Man får både skjermbildet opp, og kan laste inn ISO/Image som serveren booter fra.

Prøver ut ESXI trial nå (60 dager) vet ikke hvor jeg ender, men ombestemte meg ang Hyper-V siden det krever litt mer jobb med å få opp et GUI.
 

nma

Hi-Fi freak
Ble medlem
07.12.2003
Innlegg
4.696
Antall liker
518
Torget vurderinger
1
For en som har en bunke med Virtualbox VM'er så var det ikke rett fram å få konvertert dette ESXi-kompatible VM'er.
Fulgte oppskriften fra et par Googlesøk, og det gikk ikke. Etter mye om og men ble dette fremgangsmåten:
Eksportere VM'et fra Virtualbox som i OVA-format, bruke VMware Desktop til å importere dette, finjustere et par småting slik at det fungerer som det skal. Så brukte VMware Vcenter converter Standalone til å eksportere VM'et til ESXi.

Puh!

edit: kan også eksportere direkte fra VMware Workstation.
 
Sist redigert:
Topp Bunn