Når det gjelder korreksjon av dipper og oppover i frekvens, så er forsiktighetsprinsippene knyttet til bruk av tradisjonell eq. Og der er disse prinsippene gode.
Men det er et par vesensforskjeller når man bruker en fir-basert løsning. Den ene er at man kan gå mye mer presist til verks. Man kan lage en korreksjon som er skreddersydd det som skal korrigeres, med de modereringer man ønsker. Det er i praksis umulig med peq. Kurveformene som man skal korrigere likner på uregelmessige fjell-landskap, mens peq-ene har runde, jevne kurveformer. Det er lite kompatibelt.
Dette er en fryktelig tullete påstand. Hvis jeg husker rett bruker du 132768 taps ved 192kHz samplingfrekvens. Vi snakker her om mer prosessorkraft enn den kraftigste SHARC-prosessoren. Samtidig vet vi at vi godt kan sample filteret ved 24kHz og kjøre 24000 taps i en ADAU147x. Men ser vi på praktiske løsninger med FIR er det svært ofte filtrene har 1024 taps og er samplet ved 48kHz. Av disse variantene er det faktisk 24k taps varianten som har høyest oppløsning i bassen. Ser vi på en ADAU1702, en skikkelig billig og kjip DSP, så kan den plassere EQ-punkter mer presist i bassen enn hva selv Audiolense kan.
Men det er ikke poenget, ser vi på ADAU147x, som har omtrent ekvivalent oppløsning som Audiolense om man sampler ned filteret, så kan vi sette rundt 3500 EQ-punkter. Jeg lurer på i hvilken verden vi skulle trenge mer? Og dette er ikke en dyr DSP, det er fortsatt en Sigma til under 100kr. Dersom vi tar utgangspunkt i for eksempel en Intel i7, som sikkert mange av dine kunder bruker, hvor mange EQ-punkter tror du man kan sette der? Ser vi på en Sharc 21469, som ikke er top of the line, så kan den kjøre over 100 000 taps ved 96kHz samplingfrekvens, og den er hovedsaklig begrenset av minnet. Den vil anslagsvis kunne kjøre over 20 000 EQ-punkter.
Med andre ord, påstanden om at FIR gir tilgang til mer presisjon er tull og tøys. Det er flere korreksjonspunkter og prosessorkraft som gir tilgang til mer presisjon, helt uavhengig av om det er FIR eller IIR.
Det andre er at fir-baserte korreksjonsløsninger har funksjonalitet og brukergrensesnitt der korreksjonen blir generert for å møte en target, mens peq i stor grad gjøres på øyemål. Begge disse forskjellene har stor betydning for hva man kan og bør gjøre. Det er også andre viktige forskjeller mellom de to, og den eneste som er i favør av peq er at den krever lite regnekraft.
Man kan helt fint lage et tilsvarende enkelt (og dermed rigid) UI som setter IIR-filtre, og man kan helt fint lage et FIR-basert system som er 100% manuelt. Det er ingen ting ved disse formatene som gjør at det ene eller det andre ikke kan gjøres.
Dette er ikke en diskusjon om FIR vs IIR, men en diskusjon om hvordan rigiditet går på bekostning av funksjonalitet. Ingen ting av det jeg vil gjøre i et korreksjonssystem tilsier at man ikke skal bruke FIR, men veldig mye tilsier at man skal måle litt mer enn ett punkt, samt skille mellom høyttaler og romkorreksjon.
Der hvor det etter min vurdering har gått feil i eq-leiren er at man opererer med hypotetiske teoretiske forklaringer på hvorfor man ikke bør gjøre ditt og datt, mens det grunnleggende problemet er inadekvate analyser av målinger og unødvendig dårlig verktøy til å lage korreksjonen. Vi snakker om tollekniv og øyemål vs programmert fres.
Det grunnleggende problemet er manglende data, og manglende individualisert tolkning. Det løser man ikke med brute force. Det mest imponerende jeg har hørt av lydkalibrering hadde 12 subtile EQ-punkter. Dette var et rent lab-eksperiment som ikke kan sies å ha resultert i noe produkt ennå da det krevde en del manuell etterbearbeiding. Det er for meg helt uvesentlig hva slags matematisk funksjon som ble benyttet til å korrigere. Det interessante er hvordan dataene ble seksjonert og tolket.
Så langt virker det ikke å være noen som kan slå seg på brystet og skryte av å ha "klart det".
Bare for å ta et eksempel som mange har erfart: Mange høyttalere med stor mellomtone låter for laid back i øvre mellomtone, og ofte for hissig i diskanten. Og de gjør det selv om det måler bra ekkofritt. Det er spredningsforskjellene som skaper denne ulyden. Mao reflektert lyd langt opp i kHz-område påvirker det vi opplever som «direkte lyd». Informasjon om denne reflekterte energien ligger i impulsresponsen. Det er altså både målbart og hørbart. Og man får bedre lyd når det korrigeres med rimelig presisjon. Mange av de som satser på peq har teoretiske synspunkter på at slik korreksjon er dødfødt. Men jeg tenker at det handler om at verktøyet ikke strekker til.
Og du tror fortsatt du kan endre spredningen til en høyttaler med FIR-filter? Et hode er omkring 20cm bredt, og bølgelengden ved 2kHz er 17cm. Bare avstanden fra målemicen til hvert øre er omkring en halv bølgelengde. Relativt til refleksjonene fra motsatt høyttaler ender vi med ganske nøyaktig en halv bølgelengde. Det betyr at det man faser ut av refleksjoner ender opp med å havne i fase med refleksjonen og i stedet forsterker problemet. Nå har man ikke bare refleksjonen, men også en ekstra lyd som korreksjonssystemet legger til fordi man ikke har forstått at dette ikke har noe med minimum fase å gjøre.
PS: Hvis det er ulyd høyt i frekvens og målingen fanger opp noe som kan forklare det, så er det helt ok å prøve seg med peq. Ikke sikkert du får det til, men ofte kan man komme et stykke på veien.
Selvsagt kan man prøve! Men veldig ofte går det galt, egentlig oftere med FIR enn med IIR fordi man som regel bruker FIR til å forsøke å korrigere ugyldige ting og fikle med tidsdomenet etter høyttaleren.
Så med andre ord, problemet er ikke FIR eller IIR, men troen på at man kan gå hardt til verks uten å legge igjen spor og bomme tildels kraftig.
Bare det at du tviholder på at et rom kan være minimum fase når det måles fra et tilfeldig punkt gjør at du er på feil spor.