Siden temaet er her er nettverkskabler så kan jeg jo drive litt folkeopplysning om hvordan man i dag på praktisk vis kan ha en effektiv fiberdistribusjon i hjemmet (eller bedriften), typisk da mellom bygg eller etasjer, og egentlig bare aktuelt til hjemmebruk dersom man ser for seg å kjøre 10 gbit/s eller mer.
(Bare hopp over denne delen om du ikke er over snittet interessert i nettverk)
Bakgrunn for 10 gbit/s behov i "backend" her hjemme
Her hjemme er det slik at alt av servere og internett gateway står i et rack i en isolert bod som ikke er en del av huset. Internett kommer imidlertid inn i selve huset. Konsekvensen av dette er at all trafikk må ut i boden en tur til internett gateway, og så inn igjen der hvor brukerne av nettverket sitter. I tillegg har jeg jo bruk av interne tjenester som Plex, filserver, Roon osv. Kombinér dette med 500 mbit/s full duplex internetthastighet så begynner problemene å vise seg. Hos meg var det til tider så ille congestion på forbindelse mellom bod og hus at ting nærmest ikke var brukbart. Jeg kjørte en periode med plasterlappløsning via QoS, men den eneste reelle fiksen er å øke båndbredden. Det vil si 10 gbit/s hos meg. Jeg kjørte dette over kobber et års tid, men jeg hadde stadige linkutfall. Selve kabelen var Cat6 over ca 15 meter så den var ikke problemet, selv om Cat6a hadde vært bedre. Problemet lå i koblingsboksene på veggen som ikke hadde bra nok egenskaper for dette formålet. Fiber var derfor neste steg og da kan man like gjerne gjøre det ordentlig siden prisene uansett ikke er spesielt høye.
Jeg kan jo også beskrive bakgrunnen for hva som egentlig gjorde nettverket ubrukelig under høy belastning. Hva om noe i nettverket mitt laster ned noe på 500 mbit/s og en annen kopierer en fil på filserveren i boden som hos meg da skjer med den fulle 1 gbit/s hastigheten, pluss at ungene sitter og streamer en 4K film fra f.eks Plex? Når alt dette (og mye mer med tanke på antallet enheter på nettverket) skal trøkkes inn i den ene gigabitforbindelsen på "innsiden" av gateway mellom bod og hus, og alle klientene henger på 1 gbit/s nett eller trådløst med en reell dataoverføringsthrougput på omlag 500 mbit/s per aksesspunkt (jeg har to), ja da må noe rett og slett droppes. Hos meg var problemet så ille at jeg faktisk opplevde at switchebufferet gikk så i metning med mengder av pakker tapt internt i switchens buffer (grunnet mange koblinger på høye hastigheter mot én og samme egress port) at TCPs congestion control mekanismer ikke greier å fungere skikkelig med fullstendig havarert throughput som resultat. Da vil man se rar oppførsel som at filkopieringen i stedet for å fordeles noenlunde likt over 1 gbit/s på sesjonene kapasitetsmessig datt helt ned til f.eks 10-20 mbit/s og porten bare så en total throughput på f.eks et par hundre megabit til tross for at den på papiret da hadde 800 mbit/s mer å rutte med. De fleste rimeligere switcher har også i all hovedsak globale egress buffere, så dersom én port bruker opp all bufferkapasiteten så lider trafikken på hele switchen, selv om de ikke er involvert i sesjonene mot den aktuelle egress porten! Sistnevnte er også årsaken til at det alltid anbefales å benytte separate fysiske storage switcher for f.eks iSCSI i et bedriftsnettverk, og ikke bare segmentere på VLAN på dataplan switchene. Det som var mest fascinerende var da jeg aktiverte traffic shaping på en linux server før trafikken ble sendt ut på den aktuelle porten inn til huset slik at den totale båndbredden ble redusert til f.eks 900 mbit/s i stedet for, 1 gbit/s som jo er det switchen har, og dermed lot Linux håndtere hver sesjon individuelt med mye mer intelligent queue management (fq_codel), så gikk hastigheten på overføringene rett opp til den forventede fordelingen hvor hver sesjon ble fordelt likt og hvor hele båndbredden var i full bruk. Dette fordi switchens interne egress buffer nå ikke gikk tomt og den ikke droppet pakker internt.
Riktig løsning på dette problemet er alltid å øke båndbredden der congestionen oppstår. QoS kan være en nødløsning i en kort periode. Det er spesielt mye å hente på at switchens uplink alltid er høyere enn den maksimale båndbredden en klientport har tilgjengelig, siden man da har en innebygget fairness og stort sett alltid vil ha kjempeytelse for alle brukerne uten å innføre teknisk kompleksitet). Det sier seg selv at 10 stk 1 gbit porter ikke kan trøkkes inn i 1 x 1 gbit/s uplink. Aggregerte porter kan benyttes, men er fremdeles sårbare (dette har jeg også opplevd i nettverket mitt hjemme på serversiden), siden det uansett er slik at en enkelt sesjon hashes ut på enkeltporter og ikke fordeles ut på alle portene. Er man uheldig hashes mange krevende sesjoner ut på samme port og det samme problemet oppstår. Det beste er derfor alltid å ha f.eks 10 gbit/s uplink dersom man har 1 gbit/s klientporter, eller 1 gbit/s uplink der hvor man har 100 mbit/s klientporter. LACP (eller tilsvarende) er fremdeles gull for økt redundans og økt båndbredde selvsagt.
Det ovennevnte er av null relevans for de fleste enkle hjemmenettverk som gjerne er uten lokale tjenester og hvor brukerne henger på switchemodulen i routeren sin og da ikke har switch til switch hopp med begrenset kapasitet.
(nettverksnerding slutt)
I gamle dager trakk man "pølser" med separate fiber som ble terminert for hånd enkeltvis i rackpatchepaneler. I dag finnes det imidlertid en smooth løsning i form av MPO kabler. Dette er kabler som er tynnere enn f.eks TP og en connector som også er noe mindre enn en RJ45 hvor man f.eks får 12 stk OM4 fiberforbindelser inn i én liten plugg som man så dytter inn i en kasett med breakout for hvert par til den konnektortypen du ønsker. Det trengs to fiber for hver tilknytnig (RX/TX), så man får seks forbindelser i et kabelstrekk med kompleksitet lik det å strekke en TP-kabel. For tilknytning av servere og switcher er det vanligvis LC-konnektor man ønsker.
Selve kabelen er ferdig terminert og kan kjøpes i custom lengder ganske billig fra f.eks fs.com. Det samme gjelder breakout boksene og SFP+ moduler. Jeg husker ikke akkurat hva det kosta, men rundt 2000,- for alt tenker jeg. Kabelen ser slik ut i mitt tilfelle:
Denne puttes da inn i en kassett/rackpatchepanel med ønsket konnektortype:
Forside med LC connectorer:
Med litt dobbeltsidig borrelås blir kassetten som i utgangspunktet er laget for rackmontering til en distribusjonsboks på veggen. Jeg har da to slike bokser. En i bodenden, og en inne ved distribusjonsswitchen for resten av huset:
Alt dette med innsatsen det tar meg å trekke én enkelt TP-kabel og et par tusenlapper i kost. Sluttresultatet er 6 stk fiberforbindelser med kapasitet opp til 100 gbit/s. Det at kabelen må trekkes ferdig terminert kompliserer litt, men siden connectoren er såpass liten greide jeg meg fint med å dra ut de to TP-kablene som gikk der i utgangspunktet og borre det éne hullet litt større så jeg fikk kabelen gjennom med connector.