Når en kommer med bastante uttalelser så får en bastante svar (note to self; insert "IMO" og spesifiser bruk)
Ja SP-DIF og rå I2s er begge gode formater, men.... I en high-end diy sammenheng er det lite vits i å benytte sp-dif fremfor i2s. Det beste komponentet er intet komponent. Den beste delen er ingen del, så imo blir det en fordel å
skippe i2s - sp-dif + sp-dif - i2s og heller benytte
i2s - i2s der det er mulig eller hur?
Om du mener det ikke er forskjell så har du jo full rett til det, men jeg er av en annen oppfatning (og mener bastante uttalelser er en smule arrogant... "
ingen" <-seriøst?). Seperat klokkesignal på sp-dif er enda mindre utbredt enn i2s inputs, så det har imo svært liten betydning i denne sammenhengen.
Videre er ikke dette aktuelt for de normale løsningene,
men mer relatert til de som har diy dac`s med i2s inputs.
At det ikke er vanlig å gjøre det slik er nå greit nok. Og jeg er enig i at det ikke vil være hensiktsmessig å benytte SPDIF (eller AES3 som det engentlig heter) mellom to bokser internt i et apparat. Man får to ekstra konverterledd som du skriver. Men det gjør man også hvis man omformer standard logikknivå til LVDS, ergo ingen prinsipiell forskjell her.
Arrogant eller ikke, grunnen til mitt klare svar er at det er to ting som avgjør digital lyd: selve lyddataene og klokken. Hvis overføringen er helt korrekt bit for bit, og klokka den samme, så kan det ikke være forskjell i dataene, ergo må dem låte helt likt. Med klokkekontroll på utsiden, så er i2s, spdif, aes/ebu, aes50, dante, USB må være helt like overføringsformater. Hvis ikke må man søke etter andre forklaringer som ikke har med dataoverføringsmekanismen å gjøre.
Det er mulig at separat klokkesignal på SPDIF ikke er vanlig, men det er vanlig i pro audio, som f.eks. AES/EBU. Her brukes dette, fordi alle klokkene i et system må være helt synkrone for at systemet skal gå sammen. Ellers må man benytte samplerate convertere, og de bruker ressurser og degraderer lyden.