Nei, ikke egentlig. Hvorfor reduseres ledeevnen i bøyde fiberkabler? Og hvis det er tilfelle; hvordan skaper det jitter?
Lys ønsker å gå i et bølgemønster i "en retning". Det som gjør at det kommer fram til mottaker er at lederen i kabelen reflekterer lys i sidene som tvinger lyset til å følge lederen. Når det blir en veldig skarp bøy så reduseres kabelens evne til å frakte lyset fram og man vil få dårligere definisjon på lyspulsene som sendes over kabelen pga. at det er mer lys som må reflekteres på samme punkter og det vil være noe lys som går i en litt annen retning en optimalt (diffraksjon). Ideelt sett så skal pulsene som går over kabelen ha en bestemt tidslengde, jevnt tidsintervall mellom hver puls og vær godt definert når de starter og slutter (på/av). Dersom start og slutt på en puls flytter på seg i tidsdomenet ved f. eks at det blir dårligere definert start/slutt på pulsene og at lengden av pulsene øker eller minsker pga. redusert lederevne (båndbredde) i kabelen så vil mottaker oppfatte tidsintervallet som mer ujevnt (jitter).
Egentlig et veldig godt spørsmål. Hvis man får diffraksjon i kabelen, så får man dårligere start/slutt på pulsene. En vanlig måte er å bruke et såkalt øyediagram for å fremstille dette. Den viser hvor signalet går mellom høy og lav, og det er definert hvor stor øyeåpning det må være i midten for å klare å motta signalene. God kabling, så har man stort øye, dårlig kabling så får man et (for) lite øye. Bøy på fiber gir da et dårligere øyediagram.
Vis vedlegget 400703
Men så er det da det interessante: Øyediagrammet angir hvor rent signalet må være for at man skal kunne motta signalet. Men er det jitter? Nei, ikke nødvendigvis. For jitter er definert som
variasjon av en klokke, altså variabelt mottak av slike øyer i SPDIF/TOSLINK. En kabel er deterministisk, og får man da variasjon av det? Medfører et dårligere øyediagram jitter, eller medfører det bitfeil? Jeg for min del er ikke entydig skråsikker på at disse to er relaterte.