Bygge pc for hjemmeserver (hardware)

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Da hjalp det med ny kabel hvis noen er nysgjerrig :)

Ny utfordring - jeg har en gammel neatgear readynas hvor alle mine CDer er lagret i både flac og alac. Jeg ønsker å flytte alle alac filene over til den nye nas4free serveren. Albumene er sortert i mapper, men desverre er alle flac og alac filer for hvert album i samme mappe. I tillegg ønsker jeg å flytte med folder.jpg .

Noen tips på en automatisk måte å gjøre dette på?

Kan eventuelt slette alle flac filer, men tenkte å beholde de som back-up.
Rsync er riktig verktøy (evt robocopy på Windows).

F.eks noe sånt som dette (la på en del ekstra parametere for å få mer output og statistikk):
Kode:
rsync -avihh --stats --exclude="*.flac" /source/path/ /destination/path/
Source og destination kan selvsagt også være via ssh over nettverk om det er ønskelig. (<user>@<host>:<path>)

Sleng på en -n parameter (dry-run) så du ser om kommandoen gjør det du vil at den skal gjøre før du faktisk kjører kommandoen.
Dersom du skal kjøre sync flere ganger og vil ha med slettinger fra source må du legge til parameteren "--delete-excluded"
 

Class

Hi-Fi freak
Ble medlem
11.03.2009
Innlegg
2.763
Antall liker
497
Sted
Vestfold
Torget vurderinger
7
Da hjalp det med ny kabel hvis noen er nysgjerrig :)

Ny utfordring - jeg har en gammel neatgear readynas hvor alle mine CDer er lagret i både flac og alac. Jeg ønsker å flytte alle alac filene over til den nye nas4free serveren. Albumene er sortert i mapper, men desverre er alle flac og alac filer for hvert album i samme mappe. I tillegg ønsker jeg å flytte med folder.jpg .

Noen tips på en automatisk måte å gjøre dette på?

Kan eventuelt slette alle flac filer, men tenkte å beholde de som back-up.
iTunes (som ikke bryr som om FLAC) kan jo flytte filer og ordne de i mapper.
 

Antonsen

Hi-Fi freak
Ble medlem
09.04.2010
Innlegg
4.874
Antall liker
5.480
Sted
Hvittingfoss
Torget vurderinger
9
takker for alle tips, har lest litt i går også så virker som rsync og ssh er veien å gå. Ligger inne en egen fane for rsync også i GUI på nas4free, så håper jeg får det til :)

Gjør jeg det via Itunes går det vel gjennom maskinen min i tillegg til de to serverne, noe som vil bruke lenger tid?
 

Class

Hi-Fi freak
Ble medlem
11.03.2009
Innlegg
2.763
Antall liker
497
Sted
Vestfold
Torget vurderinger
7
Gjør jeg det via Itunes går det vel gjennom maskinen min i tillegg til de to serverne, noe som vil bruke lenger tid?
Ja, det er ikke den raskeste metoden men om du bruker Apple lossless filer bruker du vel allerede iTunes og vil organisere filene der likevel?
 

Antonsen

Hi-Fi freak
Ble medlem
09.04.2010
Innlegg
4.874
Antall liker
5.480
Sted
Hvittingfoss
Torget vurderinger
9
Ja, det stemmer. Jeg tenkte jeg bare kunne slette biblioteket for så å linke det opp mot en ny folder. Mulig dette ikke er riktig måte å gjøre det på, skjønner ikke bestandig hvordan denne mac-en tenker :)
 

nma

Hi-Fi freak
Ble medlem
07.12.2003
Innlegg
4.725
Antall liker
536
Torget vurderinger
1
Du kan bruke itunes sin organiser og kopier-funksjon, men da får du ikke med Folder.jpg. Du kan forsovet kjøre et script i ettertid for å fikse dette. Det finnes også et program som gjør dette automatisk for deg (uten at jeg kommer på hva det heter i skrivende stund) , men jeg tror ikke det fungerer på nyere itunes-versjoner.
 

coolbiz

Hi-Fi freak
Ble medlem
31.03.2006
Innlegg
9.447
Antall liker
5.114
Sted
Sydvestlandet
Torget vurderinger
2
Du kan bruke itunes sin organiser og kopier-funksjon, men da får du ikke med Folder.jpg. Du kan forsovet kjøre et script i ettertid for å fikse dette. Det finnes også et program som gjør dette automatisk for deg (uten at jeg kommer på hva det heter i skrivende stund) , men jeg tror ikke det fungerer på nyere itunes-versjoner.
Sen opp i morges, Man? ;)
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
Gammel tråd, men vi fortsetter her.... jeg må oppgradere filserveren min hjemme og tenke å gå for server-grade hovedkort (Supermicro) med ECC-minne og den slags. Den jeg har stående har forsåvidt funket fjell i årevis, men jeg trenger noe mer beefy CPU for å kjøre transkoding av video on-the-fly, software-RAID og generelt ha litt mer å leke meg med. Utover å være filserver for film/musikk kommer jeg til å kjøre lokal backup fra desktop/laptopene og sikkert noe annet jeg finner på.

Jeg skjønner ikke veldig mye av produktspektert til SuperMicro og min tradisjonelle hardware-pusher i Oslo forhandler det ikke... så hva er et egnet hovedkort til en fornuftig pris fra Supermicro? Trenger ikke et fjell av SATA-kontakter, ser for meg å kjøre 5 disker a 2TB eller 3TB i RAID, det burde dekke lagringsbehovene mine i svært lang tid fremover.

Planen er å kjøre Ubuntu 14 LTS på den med Samba og det vanlige. Kanskj en virtuell maskin eller to også. Tenkte å viderebruke kabinettet og PSUen jeg har (CoolerMaster Stacker og en eller annen gaming-PS). Kabinettet har god plass og ser ingen veldig god grunn til å bytte det ut.
 

TiaZzz

Hi-Fi entusiast
Ble medlem
26.12.2015
Innlegg
135
Antall liker
41
Sted
Skedsmo
Backup synes jeg hører hjemme i skyen i disse dager. Skylagring får du billigere enn fysisk lagring og du får geografisk redundans på kjøpet (huset brenner ned f.eks). Man kan jo sette opp backup av serveren for å få dette, naturligvis.

Har du bruk for ECC-minne? Det øker kostnadene uten noen videre gevinst. Prosessor, hovedkort og minne må støtte det.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
Lokalt backup kun av digitale bilder og slikt (+ sky selvsagt, jeg bruker CrashPlan). Bare fordi det ikke tar så mye plass og går mye raskere å hente ned om behovet skulle være der. Jeg klarte faktisk å slette hele min remote backup en gang jeg skulle overføre det til ny maskin, det skal overraskende lite til oppdaget jeg... ECC-minne har jeg forstått det dithen at er kjekt å ha når man kjører RAID. Er det så veldig fordyrende, egentlig? Trenger jo ikke absurde mengder RAM heller til såpass enkel bruk som jeg skal ha.

Remote backup er også billigere om det kun tas fra en klient fremfor flere individuelle maskiner, det er også et slags argument for å samle all backup ett sted og så sende det videre til remote location derfra. Vurderer å bytte leverandør fordi jeg ikke er veldig imponert over linjehastigheten jeg får mot CrashPlan - den kommer til å bli en flaskehals om jeg skal sende opp mye musikk også. P.t. har jeg remote backup kun av digitale bilder og filmer av barna o.l. så det er ikke snakk om mer enn et par hundre GB.

Tenkte å kjøre en moderat mengde overkill, serverhardwaren jeg har er basert på rimelig hyllevare og har ikke sviktet meg, men
 
Sist redigert:

united

Æresmedlem
Ble medlem
23.07.2009
Innlegg
24.672
Antall liker
35.357
Sted
Indre Østfold
Torget vurderinger
2
Nextron holder til på Storo og selger Supermicro. Ring dem, så kan dere velge et kort som utgangspunkt for resten av hardwaren.

Veldig god service der, de server mest bedrifter, men godtar slike som oss også.
 

KJ

Æresmedlem
Ble medlem
10.10.2004
Innlegg
11.361
Antall liker
4.765
Torget vurderinger
1
Dersom transkoding etc er en/den viktigste drivkraften er det et alternativ å kjøre mediaserver på en annen datamaskin enn filserveren. Dvs mediaserveren bruker filserveren som kilde. Da kan filserveren konsentrere seg om filene, og mediaserveren ta seg av databasefunksjoner og transkoding av mediafilene. Virtuelle maskiner er det antagelig også best å sette opp uavhengig av filserveren. Et slik skille kan også gi de respektive systemene bedre responstid dersom det er flere brukere med ulike bruksmønster, kanskje spesielt filserveren som da er uavhengig av tyngre prosessering med transkodingen.

mvh
KJ
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
^ bra poeng, men tenkte å slippe med en maskin. Responstid er neppe et stort problem i praksis uansett siden det ikke er mange brukere sjelden mer enn 1 som ser på en film som evt må transkodes samtidig.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
Da installerte jeg Ubuntu 14.04 og Plex server i går kveld, CPUen på den jeg har er klart for svak til å kjøre transkoding, og når så skjer går det også ganske klart utover ytelsen til software-RAIDen. Skal teste litt og dersom Plex virker tilstrekkelig lovende (ser bra ut så langt) så tror jeg kanskje jeg skal gå for løsningen KJ skisserer alikevel, da kan jeg kjøpe en barebone med ganske hissig CPU som kan takle transkoding til flere enheter samtidig, blir sannsynligvis rimeligere enn å kjøpe en så kraftig server-grade CPU.

Får se hvor jeg lander etter hvert. Skal ringe Nextron neste uke.
 
  • Liker
Reaksjoner: KJ

Class

Hi-Fi freak
Ble medlem
11.03.2009
Innlegg
2.763
Antall liker
497
Sted
Vestfold
Torget vurderinger
7
Jeg kjører ESXi på en Lenovo Thinkserver (Xeon), det går så det griner på den billige lille saken.

Og ja, folkene på Nextron er veldig greie å ha med å gjøre.
 

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Da installerte jeg Ubuntu 14.04 og Plex server i går kveld, CPUen på den jeg har er klart for svak til å kjøre transkoding, og når så skjer går det også ganske klart utover ytelsen til software-RAIDen. Skal teste litt og dersom Plex virker tilstrekkelig lovende (ser bra ut så langt) så tror jeg kanskje jeg skal gå for løsningen KJ skisserer alikevel, da kan jeg kjøpe en barebone med ganske hissig CPU som kan takle transkoding til flere enheter samtidig, blir sannsynligvis rimeligere enn å kjøpe en så kraftig server-grade CPU.

Får se hvor jeg lander etter hvert. Skal ringe Nextron neste uke.
Jeg har en 5 år gammel 4-kjerne Xeon på et supermicro hovedkort her. Den hadde ingen problemer med 4 samtidige PLEX-strømmer hos meg i går kveld ihvertfall, selv om den svetter ganske hardt på grunn av virkemåten til plex. Plex gir full gass på CPU-bruk til bufferet er fylt. Det vil si at du vil oppleve nær 100% CPU-bruk på alle kjerner i bursts på noen sekunder og så noen sekunder uten like høy aktivitet.

Jeg tenkte å erstatte den maskina med en ny en basert på:

Intel Xeon E3-1230v5 (skylake): INTEL CPU/Xeon E3-1230v5 3.40GHz LGA1151 BOX / MULTICOM
Supermicro X11SSL-CF: SUPERMICRO Motherboard X11SSL-CF / MULTICOM
64 GB reg ECC RAM: KINGSTON Mem/16GB DDR4-2133MHz Reg ECC Module / MULTICOM

Per nå 12600,- for en server som kan gjøre alt, inklusive CPU-intensive oppgaver og oppgaver som krever mye RAM, f.eks virtualisering eller store ZFS filsystemer.

Hovedkortet fås i mange varianter. Jeg trenger LSI SAS-varianten med 8 ekstra for filserverbruk, men du kan også få samme hovedkort med 10gbit/s NICs eller rimeligere varianter i samme serie uten LSI-kontrolleren med kun de 8 medfølgende S-ATA-konnektorene.
Jeg kjøper nok fra multicom fordi prisforskjellen er på mange tusen kontra Nextron når du kjøper komponentbasert for hjemmebruk.
 

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Maskinen skal forøvrig erstattes på grunn av alder, ikke ytelse. Jeg har for mange egg i samme kurv til å bare la den dø tilfeldig når den skulle finne det for godt.
 

nma

Hi-Fi freak
Ble medlem
07.12.2003
Innlegg
4.725
Antall liker
536
Torget vurderinger
1
Transkodert 3-4 1080p-streams samtidig med en Mac mini fra 2006... Men hvilken mediaspiller er avhengig av transkoding i 2016? I så fall ville jeg heller oppdatert mediaspilleren.

Ellers er alternativet Kodi med delt sql-database, samt Emby server.
 

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Poenget med Plex er å transcode ned innholdet on the fly til den hastighet som passer nettverket og avspillingsenheten. Det vil si som netflix, bare hjemme.

Dette er praktisk om man f.eks ønsker å se på film hjemmefra på mobilen over mobilt nettverk, eller om man ønsker å se på blu-ray rippen på 35GB på TVen til kompisen med 10 mbit/s DSL internett. Plex har også innebygget funksjonalitet for å sømløst synce ned transcodede mindre varianter av filmer og serier til offline bruk på f.eks iPad på bilturer og reise f.eks.

Plex er først og fremst for sømløs mobil tilgang til mediabiblioteket, ikke avspilling på HTPC. Jeg bruker Plex eksternt og Jriver media center til HTPC-bruk for optimal kvalitet.
 

Armand

Bransjeaktør
Ble medlem
13.08.2005
Innlegg
3.161
Antall liker
7.694
Sted
Kongsberg
Jeg bruker jotta.no til backup. 490,- per år for ubegrenset plass. Akkurat nå ligger det 1,3TB der men jeg var oppe i 3TB uten at jeg fikk noen kommentar fra dem.
Når det gjelder levetid på server så kan man jo gå for workstation hoverkortene også. Disse er solide og ikke så dyre. Min server er en Intel Q9550 som har stått på 24/7 siden 2009. Seasonic PSU og Asus P5E3-WS-Pro hovedkort.
 

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Jottacloud ubegrenset klager ved rundt 10 TB etter en endring i brukervilkårene sommeren 2014. Selv hadde jeg vel 34 TB der da jeg fikk klagemail etter endringen.

Responsen min var at det var uaktuelt å slette noe som helst. Ubegrenset er ubegrenset. De får heller kalle det 10TB for 490,- per år hvis det er det de ønsker å selge og selge ubegrenset for 2000,- i året om det så er. Uansett var det umulig for meg å fortsette med jottacloud etterhvert siden headless Linux-klienten aldri kom. Jeg ble lei av å ha på en Windows-maskin som tok backup av filserver via et samba-share. I tillegg hjalp det ikke på at flere av filene var korrupte når jeg måtte restore 8 TB fra dem en gang. Heldigvis turte jeg aldri å legge noe viktig hos dem, slik som bilder og dokumenter av sikkerhetsmessige hensyn (du har ikke unik kryptonøkkel så de kan se innholdet ditt)
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
Poenget med Plex er å transcode ned innholdet on the fly til den hastighet som passer nettverket og avspillingsenheten. Det vil si som netflix, bare hjemme.

Dette er praktisk om man f.eks ønsker å se på film hjemmefra på mobilen over mobilt nettverk, eller om man ønsker å se på blu-ray rippen på 35GB på TVen til kompisen med 10 mbit/s DSL internett. Plex har også innebygget funksjonalitet for å sømløst synce ned transcodede mindre varianter av filmer og serier til offline bruk på f.eks iPad på bilturer og reise f.eks.

Plex er først og fremst for sømløs mobil tilgang til mediabiblioteket, ikke avspilling på HTPC. Jeg bruker Plex eksternt og Jriver media center til HTPC-bruk for optimal kvalitet.
Ja, det er min tiltenkte bruk. HTPCen hjemme trenger selvsagt innen transkoding siden den er på kablet nett og takler alt av filformater uansett. Skal sette opp transkodingen på min stasjonære PC og bruke det en stund før jeg evt investerer i noe dedikert. Men filserveren må uansett gjøres noe med siden diskene er fulle - hardwaren er fra 2008 så tenkte det var på tide å bytte den ut også av den grunn. Den gjør forsåvidt jobben sin som den står, men plutselig gjør den ikke det lengre.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
Ang backup så var jeg i "fokusgruppemøte" for en tjeneste Altibox snuser på å utvikle, det så ut som basically bare dokumentlagring (det var lite konkrete detaljer) men om de kommer opp med noe så kan det være interessant siden kundene bør forvente svært høy opp- og nedlastingshastighet mot serverene til Altibox.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
Hovedkortet fås i mange varianter. Jeg trenger LSI SAS-varianten med 8 ekstra for filserverbruk, men du kan også få samme hovedkort med 10gbit/s NICs eller rimeligere varianter i samme serie uten LSI-kontrolleren med kun de 8 medfølgende S-ATA-konnektorene.
Jeg kjøper nok fra multicom fordi prisforskjellen er på mange tusen kontra Nextron når du kjøper komponentbasert for hjemmebruk.
Er kortene støttet i Ubuntu out-of-the-box eller krever det sort belte i nerding for å få ting til å funke?
 

Class

Hi-Fi freak
Ble medlem
11.03.2009
Innlegg
2.763
Antall liker
497
Sted
Vestfold
Torget vurderinger
7
LSI SAS HBAs er generelt de med bredest støtte av alle kontrollere, under alle OS.
 
C

cruiser

Gjest
Hvorfor Ubuntu? Det er jo slankere og smidigere distroer enn dette ettersom du spar på med hw
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
Ubuntu server krever jo omtrent ikke ikke noe. Det som drar cpu er transkoding og raid. Dessuten holder en distro lenge for meg.

Serveren min har i dag en dual core Intel anno 2008, 4gig ram og 2tb diskplass. Holder lenge som filserver, men orker ikke veldig mye mer.

Raid og transkoding krever like mye hardware uansett hvilken distro som kjøres siden det er mdadm og plex uansett. En minimal distro endrer sånn sett ingen ting. Jeg kjører heller ikke gui.
 

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Jeg ville gått for den distroen som har ferdige pakker for ting som plex, owncloud osv på plass. Ikke noe poeng i å gjøre det vanskelig for seg selv. LTS servervarianten av Ubuntu og/eller Debian er vanligvis fornuftige valg. Mikrooptimalisering på distronivå er sjelden noe poeng med mindre man snakker om embedded-systemer eller systemer basert på andre platformer enn x86.
 

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Hovedkortet fås i mange varianter. Jeg trenger LSI SAS-varianten med 8 ekstra for filserverbruk, men du kan også få samme hovedkort med 10gbit/s NICs eller rimeligere varianter i samme serie uten LSI-kontrolleren med kun de 8 medfølgende S-ATA-konnektorene.
Jeg kjøper nok fra multicom fordi prisforskjellen er på mange tusen kontra Nextron når du kjøper komponentbasert for hjemmebruk.
Er kortene støttet i Ubuntu out-of-the-box eller krever det sort belte i nerding for å få ting til å funke?
Serverhovedkortene til Supermicro og LSI-kontrollere spesielt, er vanligvis meget godt støttet out-of-the-box i moderne Linux-kjerner som følger med moderne distroer.
 

osc

Overivrig entusiast
Ble medlem
10.09.2004
Innlegg
718
Antall liker
396
Jeg ville gått for den distroen som har ferdige pakker for ting som plex, owncloud osv på plass. Ikke noe poeng i å gjøre det vanskelig for seg selv. LTS servervarianten av Ubuntu og/eller Debian er vanligvis fornuftige valg. Mikrooptimalisering på distronivå er sjelden noe poeng med mindre man snakker om embedded-systemer eller systemer basert på andre platformer enn x86.
Hvis du kan leve med en standard installasjon av feks owncloud kan den installeres via fedige pakker. Feks vil RHEL/Centos installere owncloud under /www/owncloud/, og all oppdatering vil forholde seg til denne plasseringen. Hvis du baserer deg på "virtual hosts", feks "owncloud.mydomain.com" kan du ikke bruke standard pakkefunksjon, men må installere owncloud manuelt. Owncloud har forøvrig en egen oppdateringsfunksjon som fugerer greit. Største problemet er egentlig at de nyere versjonene krever ny og oppdatert versjon av PHP. Dette henger litt etter i konservative distroer som RHEL og Centos.
 

Dazed

Æresmedlem
Ble medlem
29.01.2003
Innlegg
20.554
Antall liker
7.287
Sted
Sarpsborg
Torget vurderinger
2
Jeg ville gått for den distroen som har ferdige pakker for ting som plex, owncloud osv på plass. Ikke noe poeng i å gjøre det vanskelig for seg selv. LTS servervarianten av Ubuntu og/eller Debian er vanligvis fornuftige valg. Mikrooptimalisering på distronivå er sjelden noe poeng med mindre man snakker om embedded-systemer eller systemer basert på andre platformer enn x86.
Er ikke zfs litt suboptimalt i Ubuntu/Linux?
 

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Neida. ZFS on Linux har blitt en kjapp og pålitelig løsning det i motsetning til for noen år siden. Hvis du installerer via zfsonlinux repoet på f.eks Debian bygges native kernelmodulene for deg automatisk via apt-get også, så det er ikke noe vedlikehold eller nerdebehov til tross for at modulene ikke følger med i kernelen som standard.

Jeg er i hvertfall ikke i tvil om hvilken platform jeg ville valgt for en ZFS-filserver til hjemmebruk i dag når man ser på totalen, og jeg har også ZFS on Linux i drift i produksjon i jobbsammenheng uten ett eneste hikk. Hjemme kjører jeg per i dag ext4 på LVM på mdadm etter en uheldig runde med et særdeles upålitelig btrfs for et par år siden.

Personlig har jeg ikke helt sansen for ZFS til hjemmebruk men av og til har man behov for features som kun kan løses av btrfs eller ZFS og btrfs er ikke klart for produksjon enda, så det er årsaken til at jeg velger det i jobbsammeheng i noen tilfeller.

Dersom man ønsker en ferdig løsning med web GUI osv er det jo selvsagt greiere å gå for f.eks FreeNAS i stedet.
 

Dazed

Æresmedlem
Ble medlem
29.01.2003
Innlegg
20.554
Antall liker
7.287
Sted
Sarpsborg
Torget vurderinger
2
Ah. Ok.

Hadde inntrykk av at raid var mer stabile på zfs enn ext4, men det er kanskje heller ikke tilfelle?
 

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
ZFS er i mange tilfeller helt overlegent ext4/mdadm feks med tanke på integritetsgarantier, skalering og spesiell funksjonalitet som deduplisering, snapshotting og send/receive. Men ytelse, fleksibilitet og stabilitet er ting som ext4/xfs, lvm og mdadm er minst på høyde med ZFS på. Det hele ender opp med en diskusjon om hva man har behov for, og ZFS er ofte riktig svar. Jeg erimidlertid avhengig av å kunne putte på disker i arrayet etterhvert som behovet oppstår her hjemme, noe som er helt uaktuelt på jobb hvor man alltid kjøper komplette systemer som aldri vil oppgraderes på disksiden i livsløpet sitt. Dette gjør ZFS til et dårlig valg hjemme siden fleksibilitet på dette området ikke finnes.
 
Sist redigert:

marsboer

Hi-Fi freak
Ble medlem
04.04.2010
Innlegg
4.362
Antall liker
1.724
Sted
Phobos
Jeg ville gått for den distroen som har ferdige pakker for ting som plex, owncloud osv på plass. Ikke noe poeng i å gjøre det vanskelig for seg selv. LTS servervarianten av Ubuntu og/eller Debian er vanligvis fornuftige valg. Mikrooptimalisering på distronivå er sjelden noe poeng med mindre man snakker om embedded-systemer eller systemer basert på andre platformer enn x86.
Hvis du kan leve med en standard installasjon av feks owncloud kan den installeres via fedige pakker. Feks vil RHEL/Centos installere owncloud under /www/owncloud/, og all oppdatering vil forholde seg til denne plasseringen. Hvis du baserer deg på "virtual hosts", feks "owncloud.mydomain.com" kan du ikke bruke standard pakkefunksjon, men må installere owncloud manuelt. Owncloud har forøvrig en egen oppdateringsfunksjon som fugerer greit. Største problemet er egentlig at de nyere versjonene krever ny og oppdatert versjon av PHP. Dette henger litt etter i konservative distroer som RHEL og Centos.
Joda, du kan fint kjøre owncluod fra pakkerepoet selv med virtuelle hoster. Det eneste du trenger å gjøre er å lage din egen vhost-konfigurasjonsfil for web-serveren som er tilpasset ditt behov, samt sørge for at default siten ikke distribuerer pathen owncloud ligger i.

På Debian har de f.eks endret default site fra å benytte default web root /var/www til /var/www/html slik at andre pakker også kan legge pakker på riktig sted i filsystemet logisk sett under /var/www, uten at dette medfører at man treffes av default web root slik som tidligere.

Gitt at du sørger for å benytte et kompatibelt system på vhost-organiseringen din kan du altså la owncloud-pakken ta seg av alt av oppdateringer, med unntak av selve vhost-konfigurasjonsfilen som du selv må lage.

Jeg gjør dette selv på Debian Jessie, så jeg vet at det er en 100% løsning.
 

nma

Hi-Fi freak
Ble medlem
07.12.2003
Innlegg
4.725
Antall liker
536
Torget vurderinger
1
Ubuntu 16.04 kommer med offisiell support for zfs ootb. zfs blir inkludert i ubuntukjernen fra versjon 4.4 (som er den versjonen 16.04 blir basert på).
 

Dazed

Æresmedlem
Ble medlem
29.01.2003
Innlegg
20.554
Antall liker
7.287
Sted
Sarpsborg
Torget vurderinger
2
ZFS er i mange tilfeller helt overlegent ext4/mdadm feks med tanke på integritetsgarantier, skalering og spesiell funksjonalitet som deduplisering, snapshotting og send/receive. Men ytelse, fleksibilitet og stabilitet er ting som ext4/xfs, lvm og mdadm er minst på høyde med ZFS på. Det hele ender opp med en diskusjon om hva man har behov for, og ZFS er ofte riktig svar. Jeg erimidlertid avhengig av å kunne putte på disker i arrayet etterhvert som behovet oppstår her hjemme, noe som er helt uaktuelt på jobb hvor man alltid kjøper komplette systemer som aldri vil oppgraderes på disksiden i livsløpet sitt. Dette gjør ZFS til et dårlig valg hjemme siden fleksibilitet på dette området ikke finnes.
Takk.

Så hvis jeg har en ProLiant Microserver med maks antall disker installert, er det ingenting i veien for å bruke FreeNAS og zfs til det fremfor Ubuntu server? Evt bortsett fra at Spotify plugin ikke vil virke i LMS på denne?
 

Dazed

Æresmedlem
Ble medlem
29.01.2003
Innlegg
20.554
Antall liker
7.287
Sted
Sarpsborg
Torget vurderinger
2
Ubuntu 16.04 kommer med offisiell support for zfs ootb. zfs blir inkludert i ubuntukjernen fra versjon 4.4 (som er den versjonen 16.04 blir basert på).
Når slippes denne?

D'oh!

April, 2016, kanskje! ;)
 

Class

Hi-Fi freak
Ble medlem
11.03.2009
Innlegg
2.763
Antall liker
497
Sted
Vestfold
Torget vurderinger
7
Så hvis jeg har en ProLiant Microserver med maks antall disker installert, er det ingenting i veien for å bruke FreeNAS og zfs til det fremfor Ubuntu server?
Nei, hvorfor skulle det være noe i veien for det?
Bare pass på å ha nok minne, ECC sterkt anbefalt.
En tommelfingerregel sier 1GiB RAM pr. TiB disk men det er til systemer i produksjon. Vil tro 6GiB og opp er greit.

Min Microserver har vært oppe 24/7 med NAS4Free i over 3 år, aldri vært så mye som en hikke.
Kjøpte et to-port Intel Gbit NIC billig fra eBay.
 

weld77

Æresmedlem
Ble medlem
19.09.2014
Innlegg
22.074
Antall liker
14.639
Kanskje jeg skal bruke zfs hjemme da... erfaringsmessig bruker jeg så lang tid på å fylle diskene at det har kommet en ny generasjon disker som er komisk mye større når den tid kommer, arrayet mitt nå har 5x500GB-disker i RAID-5 konfig, så det er en smal sak å kopiere ut alt til et annet sted, sette inn nye og mye større disker i et array og så kopiere tilbake.
 
Topp Bunn