Du har noen poenger her Ivar, men hvor har alle forbedringene på DAC's de siste 20 åra skjedd? Jo - på digitalsida! Analogdelene er jo stort sett de samme som for 20 år sida. Det jeg mener har skjedd er at digitaldelene har blitt bedre og bedre, og historisk er det her all skiten har oppstått.
Utviklingen av digitalteknologien i DA-konvertere har konsekvent gått på å eliminere analoge feil. Vilkårene for analogdesign med høyt dynamisk område har blitt dårligere ettersom IC-utviklingen har gått fremover, fordi forsyningsspenningene stadig skaleres ned. Før med 1um+/5V-prosesser kunne man bruke kaskodetransistorer og annet for å få opp open-loop gain, nå er rådende teknologi 0.13um/1.2V. Under design av dedikerte opamper kan man bruke JFET, BiCMOS, høyspennings transistorer (ofte +/-15V), lasertrimming og andre dedikerte prosessopsjoner, det har ikke konverterdesignere råd til. Det skal være kompatibelt med standard CMOS. Dette har ført til utvikling av digitale algoritmer som gainkalibrering og dynamisk elementmatching for å opprettholde og forbedre analog ytelse. "All skiten" i en DAC skjer på analogsiden, under design lager vi vanligvis digitaldelen med 20dB+ bedre dynamisk område enn du får på utgangen, med andre ord er hele støy- og forvrengingsbudsjettet i praksis allokert til den analoge delen. Hele konseptet med oversampling og støyforming ble utviklet for å redusere analoge feil, likeså alle andre digitale algoritmer som må inngår i moderne DAC-design. Digital ytelse er et ikke-problem, hele problemstillingen under DAC-design er hvordan man får den ytelsen ut på de analoge utgangspinnene.
I riktig gamle DACer lagde man konverterne som direkte sign-magnitude-omformere, dvs at de uten digital prosessering (som oversampling, støyforming etc) omsatte digitale sampleverdier til analoge spenninger. Med 24-bit data vil det si at analogdelen må ha 224 unike spenningsnivåer, med andre ord en spenningsdeler eller ladningsdistribusjon med 224 elementer. Med 1.2V forsyningsspenning er videre avstanden mellom nivåene mindre enn 75 nanovolt. Elementmatching og støytall på det nivået er helt umulig å oppnå og arealforbruket pga alle elementene blir enormt. Med lasertrimming får man matchet motstander og kondensatorer til ca 16-bit nivå, men høyere enn dette kommer man ikke. Det er dessuten svært kostbart.
Derpå begynte man med oversampling og støyforming for å kunne redusere antall bit. I begynnelsen rendyrket man dette i form av bitstream (1-bit) konvertere, fordi disse har bare to nivåer (-Vref og +Vref) for hhv -1 og 1 og derfor ikke trenger noen noen matching, et system med bare to nivåer er lineært pr. definisjon. Dette medførte imidlertid nye analoge problemer. Bl.a. gjør de store transisjonene på utgangen at jitter fører til svært høy forvrenging når man går fra diskret til kontinuerlig tid (jitter er helt og holdent et analog problem). Videre fører begrenset stige- og falltid til at to pulser ikke har nøyaktig dobbelt så mye energi som én og man får forvrenging (intersymbolinterferens). Den store støyeffekten ved høye frekvenser (støyforming kan kun flytte støy opp i frekvens og med 1-bit kvantisering er støyeffekten svært stor) vil også moduleres ned og gi støy og forvrenging i basebåndet når den påtrykkes et analogt filter med begrenset linearitet. Det er også vanskelig å designe stabil støyforming med 1-bit kvantisering på grunn av den store støyeffekten og bitstream har etterhvert blitt avleggs.
Nå legger man seg et sted i mellom, med oversampling og støyforming som før, men typisk 3-6 bit ut istedet for 1. Med utviklingen av digital mismatch-kalibrering, algoritmer som støyformer den analoge feilen som følge av mismatch mellom DAC-elementer ved å randomisere bruken av disse, har gitt en økning av oppnåelig analog ytelse til 18-19 effektive bit i basebåndet. Man bruker også diskret tid analog lavpassfiltrering (switch-cap) for å redusere HF-støyen og transisjonsnivåene ytterligere før man går til kontinuerlig tid og slik reduserer jitterfølsomheten. Dette har fått analog ytelse opp på 18-19 effektive bit som er state-of-the-art pr. i dag. Problemet med digital elementmatching er at kompleksiteten øker eksponensielt med antall bit, veien videre er å finne smartere algoritmer som gjør at man kan ha flere bit en 3-6 ut til analogdelen, kanskje 8-10. Da får man redusert analoge problemer som følge av jitter, begrenset stige- og falltid, modulering av HF-støy m.v. ytterligere. Når man passerer 120dB dynamisk område når man imidlertid en ny fundamental analog begrensing, siden man med lave forsyningsspenninger da stanger på mulige grenser for termisk støy. Analog ytelse på vesentlig over 120dB virker pr. i dag umulig å oppnå. 24-bit digital prosessering med dynamisk område på 144dB er med dagens datateknologi en lek, det koster nesten ingenting. Én enkelt motstand på 50ohm vil alene generere nok termisk støy til at man med 1.2V forsyningsspenning får lavere dynamikk enn det i den analoge verden.
Imidlertid er ikke ørets dynamiske område større enn ca 120dB (20 bit) så man kan argumentere for at det er et problem av mer akademisk enn praktisk interesse. De fleste moderne konverterchiper er, i likhet med alle moderne digitale hi-res prosesseringssystemer, for transparente å regne.