Issues i DSP

Diskusjonstråd Se tråd i gallerivisning

  • Bx

    Bransjeaktør
    Ble medlem
    04.08.2005
    Innlegg
    9.048
    Antall liker
    4.489
    Hei!

    Har jeg forstått rett at minimum fase, er situasjoner der en refleksjon ikke kommer som et eget signal, men kun endrer fasen på det opprinnelige..?

    I så fall - hvor går grensen - hvor mye faseforskyvning er OK. Med 180 grader, så får vi jo en kansellering, men er feks 150 grader innenfor minimum fase...?

    Mange har nok høyttalerne relativt nærme sideveggen, og omveien via veggen er ofte ikke mer enn feks 50cm.

    Aksepterer vi fasedreining opp til 150 grader, så vil man jo begynne å nærme seg 300Hz - før 50cm ekstrareise utgjør mer enn 160 grader faseforskyving.

    Mvh
    OMF
    Hei OMF,

    Når vi snakker om impulsrespons, så er jo refleksjonene inkludert. Det blir litt "ja og nei" på spørsmålet om den kommer som et eget signal.

    Minimumfase eller ikke handler mye om styrken på refleksjonene vs styrken på direktelyden. Hvis du tenker deg en superenkel IR, bestående av en direkte puls og en refleksjon, så vil hele greiene være minimumfase hvis refleksjonen er svakere enn direktelyden. Hvis refleksjonen er kraftigere, så vil det være maksimumfase. Det siste vil du ikke finne i praksis, men på enkelte frekvenser kan det skje at reflektert lyd - på et gitt tidspunkt - er kraftigere enn direktelyden - som var litt tidligere ute. Og da snakker vi om non-minimumfase.

    Tilbake til DSP så er minimumfasesignalet kausalt og inverterbart (i DSP forstand). Og så er den inverse av et minimumfasesignal også et minimumfase signal. Det betyr til alle praktiske formål at minimumfase er mye enklere å jobbe med.

    Hvis hele rom+høyttalerresponsen hos deg var minimumfase, så ville en detaljert minimumfase frekvenskorreksjon også gi en perfekt korreksjon i tidsdomenet. Det var det scenariet du beskrev med to haler som kansellerer hverandre. Det er en relevant beskrivelse fordi en stor del av frekvens-spekteret har et forløp som ligger tett opp til dette.

    De mest problematiske frekvensene har et forløp som likner på det motsatte av minimumfase. Det likner på maksimum fase. Det dreier seg gjerne om kanselleringer, der kanselleringen spiller kraftigere enn direktelyden. Som jeg viste på seminaret, så blir det som om impulsen, for disse frekvensene, dør ut mot venstre. Eller fader inn i stedet for å fade ut. Det er disse som skaper de største utfordringene ift tidsdomenekorreksjon.

    Jeg tror ikke vi er så følsomme for faseendringer, hvis det er bra symmetri i anlegget. Men der er det jo stor forskjell på en refleksjon som kommer 0,4 perioder etter direktelyden og en som kommer 14,4 perioder etter. Begge vil endre fasen like mye, men den siste vil utgjøre en vesentlig større forskjell i tidomenet.
     

    Bx

    Bransjeaktør
    Ble medlem
    04.08.2005
    Innlegg
    9.048
    Antall liker
    4.489
    En refleksjon er ikke minimum fase, det gjelder for alle praktiske formål.
    Dette er feil. Det er også feil å hevde at direktelyden til alle praktiske formål er minimum fase.

    Her er en impulsrespons målt i rom, sammen med minimumfasevarianten av den samme. De to impulsene har identisk frekvensrespons. Du klarer kanskje å gjette hvem som er hvem...


    vanlig og mp.jpg


    Som du ser, er det betydelig korrelasjon mellom utklingingsforløpet mellom de to. Legg også merke til at den største enkeltforskjellen er på den direkte pulsen.
     

    Bx

    Bransjeaktør
    Ble medlem
    04.08.2005
    Innlegg
    9.048
    Antall liker
    4.489
    @BX: kan du si meg hvor nøyaktig pre-ringingsimuleringen i AL er? Og hvor bredt område i rommet er simuleringen gjeldende?
    Det er umulig å si. Simuleringen er basert på "perfekt lineær avspilling osv". Og selv de beste basselementer (hvor dette typisk er en issue) har en del harmonisk forvrengning på lave frekvenser. Simuleringen er kun gjeldende der mikrofonen sto. Men erfaringsmessig så låter det bra når simuleringen ser bra ut og det ikke er for mye aktivitet i korreksjonsfilteret før det skal være hørbar lyd.
    Men jeg leser deg som at simuleringen fanger opp den ringingen som er forårsaket av selve romkorreksjonen?
    Ja, det gjør den.
     

    Bjørn ("Orso")

    Bransjeaktør
    Ble medlem
    03.11.2008
    Innlegg
    11.296
    Antall liker
    2.903
    Sted
    Bergen
    Torget vurderinger
    2
    Hva er de tekniske artifaktene man får hvis en forsøker å korrigerer noe som ikke kan korrigeres? Hvordan høres de ut?
    Vanskelig å si sikkert helt hva som skjer. Men det blir noe annet enn korrekt. Man vil introdusere fasefeil, superposisjon og trolig rare fasevridninger. Hva som er de hørbare feilene av preringing og hva som er de andre er selvsagt ikke enkelt å vite. Men dersom man korrigerer et rom med IR filter i litt stor grad, og som ikke gir preringing, så introduserer man også der helt klart hørbare artefakter. Ergo er det vanskelig å se at det er kun preringing man reagerer på.
    Jeg har uttalt flere ganger tidligere hvordan jeg synes bruken av romkorreksjon låter og ser ikke noe grunn til å gjenta det.

    Det er IMO veldig mange grunner til romkorreksjon ikke kan ivareta en korrekt gjengivelse og sånt sett ikke fungere.

    For det første kan man bare korrigere for ett lite punkt. Husk også et eksemplet til OMF kun gjelder for en enkelt refleksjon. I et rom har vi derimot ekstremt mange refleksjoner som kommer på perler på en snor. Jo mer detaljer det er i respons, desto mer blir man låst til en posisjon. Med detaljer her snakker vi om refleksjonene fra flatene og i små rom det er her snakk om, så blir det egentlig overalt. Flytter man mikrofonen litt, så er refleksjonsmønsteret og impulsresponsen annerledes. Dermed blir også korreksjon man utfører med et FIR filter ikke gyldig når punktet flyttes.

    I pro sammenheng har man f.eks brukt FIR filter til å redusere ekko (Acoustic Echo cancellation) til tale. Men selv her er det klare premisser for at dette skal fungere:

    - Man kan bare bruke en høyttalere
    - En mikrofon plasseres ett enkelt sted
    - Tidsvinduet kan ikke være for langt.

    Dersom disse kriteriene er oppfylt så fungerer det til tale, men det fungerer ikke til musikk hvor ørene våre er langt mer kritiske. Det regnes som å låte altfor dårlig til å kunne brukes til high fidelity.

    Som Snickers nevner, så blir bølgelengdene små oppover i frekvens. Og det er en av grunnene til at korreksjonen bare fungerer til et lite punkt. Jo høyere vi kommer i frekvens, jo mindre blir bølgelengdene og desto mindre blir område korreksjonen kan fungere til.

    Men dette er også flere andre utfordringer med romkorreksjon. F.eks det at flatene har ulik impedanse. En refleksjon fra en flate har ikke lik impedanseforhold som en refleksjon fra en annen flate. Her vil både overflate, møbler og gjenstander spille inn. Det betyr også at romkorreksjon ikke bare skal fjerne myriader av refleksjoner som kommer til ulik tid, men den må også ta hensyn til de forskjellige impedanse forholdene. Det sies seg selv at dette blir en umulighet.

    Og så har vi det faktum at korreksjonen kun gjelder for en høyttaler. Men vi bruker minst to hvor det oppstår superposisjon og "interference" mellom disse. Dette vil heller ikke korreksjonen ikke kunne ta hensyn til.

    Men uansett er det hele tatt usikkert om korreksjon kan fungere av den årsak at vi lytter til en helhet og det er ikke oppdelt i direktelyd og reflektert lyd. I teorien kan det virke som slik OMF beskriver. Man kan invertere signalet slik at en refleksjon som kommer etter f.eks 3 ms kanselleres. Det høres i utgangspunktet fornuftig ut, men vi må huske på musikken er en kontinuerlig strøm av toner. Dermed vil endringen av direktelyden for å kansellere refleksjonen også påvirke direktelyden. Vi snakker jo ikke om to adskilte ting her. Og så er det ikke bare snakk om en enkelt refleksjon etter 3 ms, men skal man tillegg kontrollerte tusenvis av refleksjoner til ulik tid ved å endre direktelyden og uten at direktelyden skal bli påvirket negativt. Jeg mener det ikke er mulig da det er en kontinuerlig strøm av lyd som kommer. Og hele tiden skal man altså korrigere ut disse refleksjonene fra direktelyden ved og nettopp endre direktelyden. Vet ikke om jeg klarer å beskrive dette godt nok, men her tror jeg de som utvikler softwaren prøver å skille på en helhet og som ikke er mulig. Det som da vil skje her er at man få superposisjon av kombinasjonen av den inverterte lyden og direktelyden og det blir noe annet enn korrekt.

    Så av alle disse årsakene og kanskje enda flere er vi egentlig tilbake til det jeg skrev i forrige innlegg. Dersom en romkorreksjon virkelig skal funke, så må man ha oppfunnet tidsreiser og finne en måte og løse ulike impedanseforhold fra flater/gjenstander på. Refleksjonene må komme samtidig som direktelyden dersom den skal kunne korrigeres. Så det vi egentlig står igjen med er at vi kun kan korrigere minimum fase på en fornuftig måte. Det betyr direktelyd og primært lave frekvensen i et rom.
     

    TrompetN

    Hi-Fi freak
    Ble medlem
    04.03.2004
    Innlegg
    8.700
    Antall liker
    7.011
    Takker for et ryddig innlegg Orso. :)
    Svarer så fort jeg har tid. Muligens i morgen.
     

    Snickers-is

    Bransjeaktør
    Ble medlem
    05.02.2004
    Innlegg
    18.418
    Antall liker
    16.674
    Sted
    Østfold
    Jeg er enig at man ikke får hele svaret fra et punkt, men jeg skjønner ikke hvorfor man ikke kan korrigere fra et punkt.
    Det er vel egentlig to svar på dette som er interessante.

    Det ene går ut på at vi må vurdere hva slags matematikk som er gyldig for situasjonen. Bx er veldig opphengt i hva som er minimum fase, og forsøker å inkludere mest mulig i dette begrepet for å oppnå validitet. Innen forskning er det motsatt av allment aksepterte arbeidsmetodikker. Man søker momenter som kan punktere validiteten i det hypotesen normalt forutsettes å være riktig.

    Rent matematisk må man forutsette en hel rekke faktorer for å kunne fastslå at et system er tidsinvariant og linjært. Disse er stort sett ivaretatt så lenge man har kun en output som ikke er retningsbestemt og størrelsen er tilnærmet lik null. Når dette derimot ikke er ivaretatt har man ingen forutsetninger for å kunne definere hvilken matematikk som kommer til anvendelse.

    Innen romkorreksjon er konklusjonen at globale fenomener godt kan behandles fra ett punkt, mens ikke-globale fenomener krever mer datainnsamling. I tillegg krever ulike fenomener ulik behandling. For eksempel vil en romresonans som fører til et avvik i frekvensresponsen som ikke er globalt i lytteposisjon kunne korrigeres med godt resultat, men det kreves mer datainnsamling enn det man får fra ett punkt for å vite hva man kan gjøre. For en refleksjon som gir et bidrag fra en annen vinkel enn direktelyden vil man ikke ha samme mulighet for å gjøre en korreksjon som fungerer globalt.

    Man ender altså opp med at alle matematiske modeller man kunne anvende vil være ugyldige.


    Det andre svaret handler om hvordan hjernen vår behandler den lyden vi får inn.

    Ved lave frekvenser vil lyden som rammer kroppen vår oppfattes via både ører og av kroppen forøvrig. Prosentandelen vi oppfatter via kroppen er vanskelig å fastslå, både fordi det er vanskelig å kvantifisere opplevelse, og fordi vi kan i veldig stor grad erstatte det ene med det andre. Man kan for eksempel fint erstatte 3/4 av energien i ørehøyde med energi som rammer andre deler av kroppen uten at vi oppfatter det som feil eller unaturlig. Vi kan også ha en situasjon der energien i ørehøyde er perfekt innjustert, men der energien på øvrige deler av kroppen enten mangler store mengder energi, eller der den har et voldsomt energioverskudd. Begge deler vil oppleves helt feil selv om det er aldri så korrekt i følge korreksjonssystemet.

    Det som ytterligere kompliserer dette bildet er at linjæriteten til ørene er litt annerledes enn linjæriteten til kroppen. Logisk nok vil kroppens følsomhet avta kraftig mot høyere frekvenser. Allikevel henger den overraskende godt med opp til 6-700Hz, men i dette området begynner kroppen å være avhengig av veldig høyt lydtrykk før den responderer noe særlig. Her vil vi med andre ord ikke reagere særlig på energiunderskudd, men vi reagerer på energioverskudd. Vi vil også være mer følsomme for energioverskudd når vi spiller høyt enn når vi spiller lavt.

    Det derimot ikke kroppen er særlig god på er å holde kontroll på timing. Det vil si, kroppen bidrar i stor grad med subjektiv timing, men det handler først og fremst om energifordelingen ved ulike frekvenser og ikke om faktisk timing.

    Ørene våre derimot, er ekstremt sensitive ift timing. Her spiller hjernen en viktig rolle i det å vurdere vinkelen på det inkommende signalet. Vi kan pinpointe lydkilder ekstremt nøyaktig. Her spiller både nivå og timing sentrale roller, og den ene kan i stor grad godt erstatte den andre. Når du får en refleksjon inn fra siden og forsøker å korrigere denne med en korreksjons av direktelyden vil refleksjonen og korreksjonen komme fra to ulike vinkler. Dersom du setter en ørepropp i det ene øret, skrur på TV og forsøker å føre en samtale med en person som sitter ved siden av deg i sofaen vil du få store problemer med å skille lydene. Fjerner du proppen vil det gå ganske greit fordi hjernen evner å skille de to lydkildene fra hverandre.
     

    Snickers-is

    Bransjeaktør
    Ble medlem
    05.02.2004
    Innlegg
    18.418
    Antall liker
    16.674
    Sted
    Østfold
    En refleksjon er ikke minimum fase, det gjelder for alle praktiske formål.
    Dette er feil. Det er også feil å hevde at direktelyden til alle praktiske formål er minimum fase.

    Her er en impulsrespons målt i rom, sammen med minimumfasevarianten av den samme. De to impulsene har identisk frekvensrespons. Du klarer kanskje å gjette hvem som er hvem...


    Vis vedlegget 431650

    Som du ser, er det betydelig korrelasjon mellom utklingingsforløpet mellom de to. Legg også merke til at den største enkeltforskjellen er på den direkte pulsen.
    Kurven din viser en rekke refleksjoner som ikke er minimum fase.

    Hvorfor er det så viktig for deg å tviholde på disse begrepene når ikke en eneste lyttesituasjon er i nærheten av å oppfylle forutsetningene for å kunne bruke begrepet?



    La meg forsøke en siste gang, kanskje det synker inn:

    Det er ikke romakustikken, høyttalerne osv som er minimum fase eller ikke minimum fase. Når man arbeider med et minimum fase-system arbeider man med et system som ikke er tidsvariant og som er linjært. Et eksempel på et slikt system er et system som kan beskrives med en lumped element model. Men for at det skal være noen vits i å en gang ta begrepet i bruk må man se på hva man faktisk jobber med.

    Innen akustikk jobber vi utelukkende med to fenomener. Det ene fenomenet er direktelyden, og det andre fenomenet er den indirekte lyden.

    Den direkte lyden treffer alle deler av kroppen, og den kan definitivt ikke kalles minimum fase i begrepets fulle definisjon. Reisen fra høyttalerne til et gitt punkt på kroppen derimot, vil alltid ligge tett opp mot definisjonen av minimum fase. Husk at input ikke er signalkilden, forsterkeren eller liknende, det er området umiddelbart foran driverne som er input i systemet. Herfra til lytteren er det utelukkende luft. Veien fra høyttaler til lytter er i all hovedsak resistiv. Med andre ord, den direkte veien fra et punkt i rommet til et annet punkt i rommet er selvsagt minimum fase, men den praktiske situasjonen er veien fra et uendelig stort antall punkter i rommet til et uendelig antall andre punkter i rommet, og allerede der går det skikkelig galt med minimum fase-modellen.

    Den indirekte lyden treffer også alle deler av kroppen, men den er kraftig påvirket av et stort antall romrelaterte fenomener.

    Så hvorfor har jeg benyttet minimum-fase begrepet?

    Jo, det er enkelt. Ser vi på direktelyden så består den av et uendelig antall resistive kretser. Det betyr at selv om systemet totalt sett ikke er minimum fase så vil hver enkelt av disse veiene isolert sett være minimum fase. Det som skjer med direktelyden vil i all hovedsak kunne beskrives med en lumped element modell, og det samme gjelder korreksjonen som dermed vil ha samme effekt uansett hvor man plasserer lytteposisjonen. Når vi måler holder vi tidsforsinkelsen fra høyttaler til mikrofon utenfor, og ved å gjøre dette er kasualitetsprinsippet ivaretatt.

    Når vi derimot inkluderer rommet hjelper det ikke hvor mye vi holder tidsforsinkelsen utenfor. Her er ikke lenger kasualitetsprinsippet holdt utenfor. Vi får helt ulike resultater når vi flytter målemikrofonen.

    Vi har selvsagt en del unntak fra dette også. De viktigste unntakene er refleksjoner fra frontvegg som kommer forsinket, men fra samme retning som direktelyden. Disse vil etter samme definisjon også være minimum fase. Så har vi for eksempel lobing fra flerveishøyttalere. Dette vil påvirke den komplekse direktelyden og dreper kasualiteten.



    Så hvis du skal bruke disse begrepene hadde det vært kjekt om du kunne relatere dem til praktiske formål. De tørre teoretiske definisjonene gir ikke disse begrepene noen anvendelse annet enn å danne grunnlag for stråmannsargumentasjon.
     

    Snickers-is

    Bransjeaktør
    Ble medlem
    05.02.2004
    Innlegg
    18.418
    Antall liker
    16.674
    Sted
    Østfold
    Hei!

    Har jeg forstått rett at minimum fase, er situasjoner der en refleksjon ikke kommer som et eget signal, men kun endrer fasen på det opprinnelige..?

    I så fall - hvor går grensen - hvor mye faseforskyvning er OK. Med 180 grader, så får vi jo en kansellering, men er feks 150 grader innenfor minimum fase...?

    Mange har nok høyttalerne relativt nærme sideveggen, og omveien via veggen er ofte ikke mer enn feks 50cm.

    Aksepterer vi fasedreining opp til 150 grader, så vil man jo begynne å nærme seg 300Hz - før 50cm ekstrareise utgjør mer enn 160 grader faseforskyving.

    Mvh
    OMF
    Det er på sett og vis riktig, men en av de tingene som er avgjørende er om du har en hendelse A som medfører hendelse B, og at hendelse B alltid kommer som en konsekvens av hendelse A. En overføringsfunksjon beskriver hva som skjer mellom A og B, og denne må ha en viss enkelhet for at prinsippet skal være gyldig.

    Alt dette oppfylles helt greit av en refleksjon. Problemet er at du har ikke en A og en B, du har et uendelig antall av A og et uendelig antall av B. Når man ikke lenger har har en fast A og B vil prinsippet heller ikke lenger være relevant.

    Det du spør om forutsetter at fasen på de to er gitt, og at målepunktet er gitt. Når man introduserer mange målepunkter er fasen ulik og den varierer ulikt for de to signalene. Da vil de også summere til et uendelig antall ulike faser.
     

    Audiodidakt

    Hi-Fi freak
    Ble medlem
    24.08.2004
    Innlegg
    1.419
    Antall liker
    622
    Torget vurderinger
    6
    Godt innlegg, Snickers, jeg tror til og med en autodidakt forsto det! :)

    Mvh Gisle
     

    Snickers-is

    Bransjeaktør
    Ble medlem
    05.02.2004
    Innlegg
    18.418
    Antall liker
    16.674
    Sted
    Østfold
    Jeg skjønner jo at lyd i rommet er en komplisert greie.

    Det jeg synes er vanskelig å få helt taket på er hvorfor en slik "motsignale/korreksjonshale" er så galt.

    *Tar man feks en dipol - så vil du jo der ha en fast refleksjon fra frontveggen som er i motfase og som har fast delay i ms - denne blander seg selvsagt med direktelyden.
    *Alle høytalere vil jo også i større eller mindre grad ha refleksjoner fra sideveggene, og fra motsatt sidevegg. Dette er forsinkelse som er i fase.
    * det samme gjelder gulvrefleksjoner og takrefleksjon

    Og hvis du tar feks en LX521 som er en høyttaler som jeg selv kan beskrive som utrolig oppløst og gjennomsiktig - så vil du i lytteposisjon ha et sammensurium av refleksjoner fra frontvegg, gulv, tak, sidevegg og motsatt sidevegg - signaler i absolutt fase og i absolutt motfase og signaler som pga av ulik vandring vil være i fase/ufase avhenging av frekvens.

    I dette utrolig komplekse bildet - så har jeg vanskelig med å skjønne at det at "motfasekorreksjonen" fra høytalerne kommer fra en 45grader annen vinkel enn refleksjonen skal være et stort problem.

    Mvh
    OMF
    Om en refleksjon kommer fra 45 grader til siden vil du ikke bare høre en refleksjon men du er i stand til å høre hvor den kommer fra fordi den treffer ørene med relativt stor tids og nivåforskjell. En korreksjonshale kommer rett fra høyttaleren, og denne vil treffe begge ørene med veldig liten nivå og tidsforskjell. Dette medfører tre problemer.

    1: Vi er allerede i stand til å identifisere vinkelen på det innkommende signalet. Det betyr at vi i prinsippet er i stand til å behandle de to signalene uavhengige av hverandre.

    2: Dersom korreksjonshalen er eksakt i motfase med refleksjonen (noe den i teorien skal være) vil dette allikevel bare gjelde for ett av ørene. Det andre øret vil motta begge signalene uten at de faser hverandre ut. Det følger ingen fornuftig retningsinformasjon med dette og den mest normale reaksjonen på dette er at det er en svak lyd som foregår svært nær øret.

    3: Når lytteren har flyttet noen centimeter på hodet endrer dette bildet seg svært mye. Ved høye frekvenser er det snakk om millimeterpresisjon. Ved så lave frekvenser at hodets plassering og avstanden mellom ørene ikke lenger har noen relevans vil tidsforskjellen på en refleksjon og direktelyden selvsagt være den samme, men som fraksjon av bølgelengden vil den være svært liten. Så liten at den begynner å havne innenfor det hjernen vurderer som direktelyd.

    Jeg vil tro at vi kan ha et smalt bånd på rundt en oktav der man effektivt kan kompensere for refleksjoner fra alle mulige vinkler, men jeg har ikke sett dette blitt gjort i et romkorreksjonssystem så jeg er ikke sikker på om det vil fungere.
     

    OMF

    Æresmedlem
    Ble medlem
    26.02.2002
    Innlegg
    16.134
    Antall liker
    9.261
    Sted
    Bergen
    Torget vurderinger
    14
    Om en refleksjon kommer fra 45 grader til siden vil du ikke bare høre en refleksjon men du er i stand til å høre hvor den kommer fra fordi den treffer ørene med relativt stor tids og nivåforskjell. En korreksjonshale kommer rett fra høyttaleren, og denne vil treffe begge ørene med veldig liten nivå og tidsforskjell. Dette medfører tre problemer.

    1: Vi er allerede i stand til å identifisere vinkelen på det innkommende signalet. Det betyr at vi i prinsippet er i stand til å behandle de to signalene uavhengige av hverandre.

    2: Dersom korreksjonshalen er eksakt i motfase med refleksjonen (noe den i teorien skal være) vil dette allikevel bare gjelde for ett av ørene. Det andre øret vil motta begge signalene uten at de faser hverandre ut. Det følger ingen fornuftig retningsinformasjon med dette og den mest normale reaksjonen på dette er at det er en svak lyd som foregår svært nær øret.

    3: Når lytteren har flyttet noen centimeter på hodet endrer dette bildet seg svært mye. Ved høye frekvenser er det snakk om millimeterpresisjon. Ved så lave frekvenser at hodets plassering og avstanden mellom ørene ikke lenger har noen relevans vil tidsforskjellen på en refleksjon og direktelyden selvsagt være den samme, men som fraksjon av bølgelengden vil den være svært liten. Så liten at den begynner å havne innenfor det hjernen vurderer som direktelyd.

    Jeg vil tro at vi kan ha et smalt bånd på rundt en oktav der man effektivt kan kompensere for refleksjoner fra alle mulige vinkler, men jeg har ikke sett dette blitt gjort i et romkorreksjonssystem så jeg er ikke sikker på om det vil fungere.
    Jeg tror hjernen min ihvertfall - gjør en del gjennomsnittberegninger av dette. Når jeg lytter - så får jeg masse firektelyd, men jeg får også en haug med refleksjoner. De kommer med ulike forsinkelse og de kommer kommer fra mange retninger. Fra min venstre høyttaler - så får jeg refleksjoner både fra frontvegg, bakvegg,venstre sidevegg, høyre sidevegg, taket og gulvet. Og jeg har enda flere som har tatt en litt med kronglete veg som feks komme fra taket, via vegge og til øret og noen har kanskje gått fra bakveggen via sideveggen til øret. Og selv om mange av disse kan være ganske kraftige, greier jeg på ingen måte å detektere de som refleksjoner eller hvor de kommer fra. At jeg i et slikt bilde - skulle greie å skille to refleksjoner med ulik vinkel - høres vanskelig ut. Hvis vi hadde vært så flinke til å skille ut ulike refleksjoner, hvordan kan man da oppleve så rolige/stabile stereobilder som det vi faktisk gjør i et godt oppsett? Opplevelsen skulle jo vært mer som et av disse trafikkkryssene fra Kina/India som vi ser på youtube av og til....


    Jeg skjønner den matematiske tilnærmingen til dette, men flytter man hode 10 centimer - så blir ikke forsinkelsen til refleksjonen endret med 10 cm . Dette kan sikkert noen måle med en hyssing eller regne på, med det er kanskje ikke snakk om mer enn 5cm forskjell i vandring. Og for korreksjon av frekvenser hvor bølgelengde er feks 34 cm eller lengre (Altså frekvenser under 1000hz) så gjør jo dette at korreksjonen blir mindre presis, men den vil fortsatt trekke ned amplituden til refleksjonen, og for frekvenser for eksemepl under 500Hz - så tror jeg man kan digge bra uten at hodet skal have i områder hvor korreksjoneer ikke lenger jobber mot refleksjonen.

    Også står jo fortsatt elefanten igjen i rommet..hvor mye skade gjør denne refleksjonen ubehandlet?

    Mvh
    OMF
     

    Audiodidakt

    Hi-Fi freak
    Ble medlem
    24.08.2004
    Innlegg
    1.419
    Antall liker
    622
    Torget vurderinger
    6
    Nå tar jeg dette helt fra husken men er det ikke slik at det må være en viss avstand i tid mellom direkte og indirekte lyd for at hjernen vår differensierer og "fjerner" den indirekte lyden, ref Linkwitz. Med andre ord: dersom de kommer for tett, slik en ti centimeter forflytting av hode/ørene i en dsp-optimalisert lytteposisjon, så vil dette bli oppfattet som "smear" og ikke direkte og indirekte lyd vi kan skille av i lytteopplevelsen?
     

    Bx

    Bransjeaktør
    Ble medlem
    04.08.2005
    Innlegg
    9.048
    Antall liker
    4.489
    En refleksjon er ikke minimum fase, det gjelder for alle praktiske formål.
    Dette er feil. Det er også feil å hevde at direktelyden til alle praktiske formål er minimum fase.

    Her er en impulsrespons målt i rom, sammen med minimumfasevarianten av den samme. De to impulsene har identisk frekvensrespons. Du klarer kanskje å gjette hvem som er hvem...


    Vis vedlegget 431650

    Som du ser, er det betydelig korrelasjon mellom utklingingsforløpet mellom de to. Legg også merke til at den største enkeltforskjellen er på den direkte pulsen.
    Kurven din viser en rekke refleksjoner som ikke er minimum fase.

    Hvorfor er det så viktig for deg å tviholde på disse begrepene når ikke en eneste lyttesituasjon er i nærheten av å oppfylle forutsetningene for å kunne bruke begrepet?

    La meg forsøke en siste gang, kanskje det synker inn:

    Det er ikke romakustikken, høyttalerne osv som er minimum fase eller ikke minimum fase. Når man arbeider med et minimum fase-system arbeider man med et system som ikke er tidsvariant og som er linjært. Et eksempel på et slikt system er et system som kan beskrives med en lumped element model. Men for at det skal være noen vits i å en gang ta begrepet i bruk må man se på hva man faktisk jobber med.

    Innen akustikk jobber vi utelukkende med to fenomener. Det ene fenomenet er direktelyden, og det andre fenomenet er den indirekte lyden.

    Den direkte lyden treffer alle deler av kroppen, og den kan definitivt ikke kalles minimum fase i begrepets fulle definisjon. Reisen fra høyttalerne til et gitt punkt på kroppen derimot, vil alltid ligge tett opp mot definisjonen av minimum fase. Husk at input ikke er signalkilden, forsterkeren eller liknende, det er området umiddelbart foran driverne som er input i systemet. Herfra til lytteren er det utelukkende luft. Veien fra høyttaler til lytter er i all hovedsak resistiv. Med andre ord, den direkte veien fra et punkt i rommet til et annet punkt i rommet er selvsagt minimum fase, men den praktiske situasjonen er veien fra et uendelig stort antall punkter i rommet til et uendelig antall andre punkter i rommet, og allerede der går det skikkelig galt med minimum fase-modellen.

    Den indirekte lyden treffer også alle deler av kroppen, men den er kraftig påvirket av et stort antall romrelaterte fenomener.

    Så hvorfor har jeg benyttet minimum-fase begrepet?

    Jo, det er enkelt. Ser vi på direktelyden så består den av et uendelig antall resistive kretser. Det betyr at selv om systemet totalt sett ikke er minimum fase så vil hver enkelt av disse veiene isolert sett være minimum fase. Det som skjer med direktelyden vil i all hovedsak kunne beskrives med en lumped element modell, og det samme gjelder korreksjonen som dermed vil ha samme effekt uansett hvor man plasserer lytteposisjonen. Når vi måler holder vi tidsforsinkelsen fra høyttaler til mikrofon utenfor, og ved å gjøre dette er kasualitetsprinsippet ivaretatt.

    Når vi derimot inkluderer rommet hjelper det ikke hvor mye vi holder tidsforsinkelsen utenfor. Her er ikke lenger kasualitetsprinsippet holdt utenfor. Vi får helt ulike resultater når vi flytter målemikrofonen.

    Vi har selvsagt en del unntak fra dette også. De viktigste unntakene er refleksjoner fra frontvegg som kommer forsinket, men fra samme retning som direktelyden. Disse vil etter samme definisjon også være minimum fase. Så har vi for eksempel lobing fra flerveishøyttalere. Dette vil påvirke den komplekse direktelyden og dreper kasualiteten.



    Så hvis du skal bruke disse begrepene hadde det vært kjekt om du kunne relatere dem til praktiske formål. De tørre teoretiske definisjonene gir ikke disse begrepene noen anvendelse annet enn å danne grunnlag for stråmannsargumentasjon.
    Du bestrider vitenskapelige teorier og matematiske modeller som er ekstremt ukontroversielle her.

    Det er for øvrig den blå kurven som er minimumfase.....
     

    Bx

    Bransjeaktør
    Ble medlem
    04.08.2005
    Innlegg
    9.048
    Antall liker
    4.489
    Nå tar jeg dette helt fra husken men er det ikke slik at det må være en viss avstand i tid mellom direkte og indirekte lyd for at hjernen vår differensierer og "fjerner" den indirekte lyden, ref Linkwitz. Med andre ord: dersom de kommer for tett, slik en ti centimeter forflytting av hode/ørene i en dsp-optimalisert lytteposisjon, så vil dette bli oppfattet som "smear" og ikke direkte og indirekte lyd vi kan skille av i lytteopplevelsen?
    Se på den wikien jeg linket til tidligere i tråden, om presedence effect. Den går akkurat på dette. Hvordan vi oppfatter refleksjoner varierer....
     

    Snickers-is

    Bransjeaktør
    Ble medlem
    05.02.2004
    Innlegg
    18.418
    Antall liker
    16.674
    Sted
    Østfold
    En refleksjon er ikke minimum fase, det gjelder for alle praktiske formål.
    Dette er feil. Det er også feil å hevde at direktelyden til alle praktiske formål er minimum fase.

    Her er en impulsrespons målt i rom, sammen med minimumfasevarianten av den samme. De to impulsene har identisk frekvensrespons. Du klarer kanskje å gjette hvem som er hvem...


    Vis vedlegget 431650

    Som du ser, er det betydelig korrelasjon mellom utklingingsforløpet mellom de to. Legg også merke til at den største enkeltforskjellen er på den direkte pulsen.
    Kurven din viser en rekke refleksjoner som ikke er minimum fase.

    Hvorfor er det så viktig for deg å tviholde på disse begrepene når ikke en eneste lyttesituasjon er i nærheten av å oppfylle forutsetningene for å kunne bruke begrepet?

    La meg forsøke en siste gang, kanskje det synker inn:

    Det er ikke romakustikken, høyttalerne osv som er minimum fase eller ikke minimum fase. Når man arbeider med et minimum fase-system arbeider man med et system som ikke er tidsvariant og som er linjært. Et eksempel på et slikt system er et system som kan beskrives med en lumped element model. Men for at det skal være noen vits i å en gang ta begrepet i bruk må man se på hva man faktisk jobber med.

    Innen akustikk jobber vi utelukkende med to fenomener. Det ene fenomenet er direktelyden, og det andre fenomenet er den indirekte lyden.

    Den direkte lyden treffer alle deler av kroppen, og den kan definitivt ikke kalles minimum fase i begrepets fulle definisjon. Reisen fra høyttalerne til et gitt punkt på kroppen derimot, vil alltid ligge tett opp mot definisjonen av minimum fase. Husk at input ikke er signalkilden, forsterkeren eller liknende, det er området umiddelbart foran driverne som er input i systemet. Herfra til lytteren er det utelukkende luft. Veien fra høyttaler til lytter er i all hovedsak resistiv. Med andre ord, den direkte veien fra et punkt i rommet til et annet punkt i rommet er selvsagt minimum fase, men den praktiske situasjonen er veien fra et uendelig stort antall punkter i rommet til et uendelig antall andre punkter i rommet, og allerede der går det skikkelig galt med minimum fase-modellen.

    Den indirekte lyden treffer også alle deler av kroppen, men den er kraftig påvirket av et stort antall romrelaterte fenomener.

    Så hvorfor har jeg benyttet minimum-fase begrepet?

    Jo, det er enkelt. Ser vi på direktelyden så består den av et uendelig antall resistive kretser. Det betyr at selv om systemet totalt sett ikke er minimum fase så vil hver enkelt av disse veiene isolert sett være minimum fase. Det som skjer med direktelyden vil i all hovedsak kunne beskrives med en lumped element modell, og det samme gjelder korreksjonen som dermed vil ha samme effekt uansett hvor man plasserer lytteposisjonen. Når vi måler holder vi tidsforsinkelsen fra høyttaler til mikrofon utenfor, og ved å gjøre dette er kasualitetsprinsippet ivaretatt.

    Når vi derimot inkluderer rommet hjelper det ikke hvor mye vi holder tidsforsinkelsen utenfor. Her er ikke lenger kasualitetsprinsippet holdt utenfor. Vi får helt ulike resultater når vi flytter målemikrofonen.

    Vi har selvsagt en del unntak fra dette også. De viktigste unntakene er refleksjoner fra frontvegg som kommer forsinket, men fra samme retning som direktelyden. Disse vil etter samme definisjon også være minimum fase. Så har vi for eksempel lobing fra flerveishøyttalere. Dette vil påvirke den komplekse direktelyden og dreper kasualiteten.



    Så hvis du skal bruke disse begrepene hadde det vært kjekt om du kunne relatere dem til praktiske formål. De tørre teoretiske definisjonene gir ikke disse begrepene noen anvendelse annet enn å danne grunnlag for stråmannsargumentasjon.
    Du bestrider vitenskapelige teorier og matematiske modeller som er ekstremt ukontroversielle her.

    Det er for øvrig den blå kurven som er minimumfase.....
    Hva er det jeg bestrider som alle andre er så enige om?
     

    TrompetN

    Hi-Fi freak
    Ble medlem
    04.03.2004
    Innlegg
    8.700
    Antall liker
    7.011
    Hva er de tekniske artifaktene man får hvis en forsøker å korrigerer noe som ikke kan korrigeres? Hvordan høres de ut?
    Vanskelig å si sikkert helt hva som skjer. Men det blir noe annet enn korrekt. Man vil introdusere fasefeil, superposisjon og trolig rare fasevridninger. Hva som er de hørbare feilene av preringing og hva som er de andre er selvsagt ikke enkelt å vite. Men dersom man korrigerer et rom med IR filter i litt stor grad, og som ikke gir preringing, så introduserer man også der helt klart hørbare artefakter. Ergo er det vanskelig å se at det er kun preringing man reagerer på.
    Jeg har uttalt flere ganger tidligere hvordan jeg synes bruken av romkorreksjon låter og ser ikke noe grunn til å gjenta det.
    Det er litt vanskelig å vite om vi diskuterer epler og bananer her. Hvordan kan du vite at det ikke er preringing, target eller høyttalerartifakter du reagerer på?

    Det er IMO veldig mange grunner til romkorreksjon ikke kan ivareta en korrekt gjengivelse og sånt sett ikke fungere.

    For det første kan man bare korrigere for ett lite punkt. Husk også et eksemplet til OMF kun gjelder for en enkelt refleksjon. I et rom har vi derimot ekstremt mange refleksjoner som kommer på perler på en snor. Jo mer detaljer det er i respons, desto mer blir man låst til en posisjon. Med detaljer her snakker vi om refleksjonene fra flatene og i små rom det er her snakk om, så blir det egentlig overalt. Flytter man mikrofonen litt, så er refleksjonsmønsteret og impulsresponsen annerledes. Dermed blir også korreksjon man utfører med et FIR filter ikke gyldig når punktet flyttes.
    I praksis stemmer ikke dette med et lite målepunkt helt. Hvis man deler opp frekvensområdet i fire:

    1. 4.000-20.0000hz her korrigerer man ikke refleksjoner fra rom, men kun direktelyd og små artifakter fra høyttaler pluss nivåjustering. Både direktelyden og nivåjusteringen gir global virkning. Dette er fordi fasejustering av direktelyden fra et gitt punkt gir også fasekorreksjon av direktelyden andre steder i rommet. Nivåjustering påvirker nivået til en frekvens i hele målevinduet selv om justeringen gjøres på direktelyden.

    2. 500-4.000hz her korrigerer man fortsatt oftest kun direktelyd, men på grunn av diffraksjon blir det flere artifakter fra høyttaler. Korreksjonen setter også perfekt fasekorrelasjon med resten av høyttaleren. Her er øret vårt ekstremt sensitivt og gir en sammenheng i timbre man nærmest ikke kan få til uten korreksjon.

    3. 500-100hz : De problematiske oktavene. Her korrigerer man direktelyd og førsterefleksjoner fra en sidevegg, gulv og kanskje tak, til alle førsterefleksjonspunktene ved 100hz. Her må man prøve seg frem med varsomhet. Selv om korreksjonen er gjort i et punkt vil man likevel ikke se store utslag på effekten av kanselleringer fra korreksjonen i en radius på ca 50cm rundt lytteposisjonen på grunn av lange bølgelengder. Nivåjusteringen vil være global her også så lenge man unngår å heve kamfilter. Dette frekvensområdet er likevel en stor tradeoff uten korreksjon og man må bare lytte seg til det beste resultatet. Oftest blir det best med tidskorreksjon.

    4. 100-20hz : Det mest stuerene området å korrigere i. Her unngår man å korrigere den verste kamfilteret, men korreksjonen gir global virkning. Tightere bass i lytteposisjon gir tightere bass i hele rommet enn før korreksjon. Inverteringen av bassressonanser tror jeg blir mer presist med Tidskorreksjon enn kun IIR.

    I pro sammenheng har man f.eks brukt FIR filter til å redusere ekko (Acoustic Echo cancellation) til tale. Men selv her er det klare premisser for at dette skal fungere:

    - Man kan bare bruke en høyttalere
    - En mikrofon plasseres ett enkelt sted
    - Tidsvinduet kan ikke være for langt.

    Dersom disse kriteriene er oppfylt så fungerer det til tale, men det fungerer ikke til musikk hvor ørene våre er langt mer kritiske. Det regnes som å låte altfor dårlig til å kunne brukes til high fidelity.
    Kjenner ikke noe til dette dessverre. Korrigerer man ekko fra rommet da? Det høres ut som ekstremt lange tidsvinduer.

    Som Snickers nevner, så blir bølgelengdene små oppover i frekvens. Og det er en av grunnene til at korreksjonen bare fungerer til et lite punkt. Jo høyere vi kommer i frekvens, jo mindre blir bølgelengdene og desto mindre blir område korreksjonen kan fungere til.
    Nja. Ikke så lenge man snakker om direktelyd så vil fasekorelasjonen i direktelyden holde seg global til rommets refleksjoner inntreffer. Audiolense fungerer ekstremt bra til å korrigere direktelyden og target designer gjør det veldig enkelt å treffe klangbalansen i rommet.
    Det går selvfølgelig ikke å invertere kamfilter i høyere frekvenser.

    Men dette er også flere andre utfordringer med romkorreksjon. F.eks det at flatene har ulik impedanse. En refleksjon fra en flate har ikke lik impedanseforhold som en refleksjon fra en annen flate. Her vil både overflate, møbler og gjenstander spille inn. Det betyr også at romkorreksjon ikke bare skal fjerne myriader av refleksjoner som kommer til ulik tid, men den må også ta hensyn til de forskjellige impedanse forholdene. Det sies seg selv at dette blir en umulighet.
    Å kansellere refleksjoner er jo som nevnt en utfordring i de to oktavene ved schroeder. Det beste kompromisset er for meg oftest å korrigere dette med tidskorreksjon. Men akkurat det med flatenes oppførsel fanges opp av målingen og blir kalkulert med.
    Dette kan ofte være utfordrende å korrigere, men noen ganger faktisk ikke i det hele tatt. Så absolutt ingen umulighet så lenge tidsvinduene er korte nok.
    Og så har vi det faktum at korreksjonen kun gjelder for en høyttaler. Men vi bruker minst to hvor det oppstår superposisjon og "interference" mellom disse. Dette vil heller ikke korreksjonen ikke kunne ta hensyn til.
    Sant, men det vil oppstå superposisjon og interference mellom to ukorrigerte høyttalere også. En korrigert høyttaler vil ikke bli dårligere til dette etter korreksjon, men bedre.
    Men uansett er det hele tatt usikkert om korreksjon kan fungere av den årsak at vi lytter til en helhet og det er ikke oppdelt i direktelyd og reflektert lyd. I teorien kan det virke som slik OMF beskriver. Man kan invertere signalet slik at en refleksjon som kommer etter f.eks 3 ms kanselleres. Det høres i utgangspunktet fornuftig ut, men vi må huske på musikken er en kontinuerlig strøm av toner. Dermed vil endringen av direktelyden for å kansellere refleksjonen også påvirke direktelyden. Vi snakker jo ikke om to adskilte ting her. Og så er det ikke bare snakk om en enkelt refleksjon etter 3 ms, men skal man tillegg kontrollerte tusenvis av refleksjoner til ulik tid ved å endre direktelyden og uten at direktelyden skal bli påvirket negativt. Jeg mener det ikke er mulig da det er en kontinuerlig strøm av lyd som kommer. Og hele tiden skal man altså korrigere ut disse refleksjonene fra direktelyden ved og nettopp endre direktelyden. Vet ikke om jeg klarer å beskrive dette godt nok, men her tror jeg de som utvikler softwaren prøver å skille på en helhet og som ikke er mulig. Det som da vil skje her er at man få superposisjon av kombinasjonen av den inverterte lyden og direktelyden og det blir noe annet enn korrekt.
    Her synes jeg du har et poeng med at høyttaleren må spille av kanselleringssignalene også. På en annen side er det ikke stort verre enn å gjengi refleksjoner og romklang fra opptaksrommet, men poenget ditt at det kommer i tillegg er reelt. Virkningen av dette opplever jeg kommer veldig an på høyttaler og forsterker. Korte vinduer virker å påvirke høyttaleren mindre, mens kjempelange vinduer kan få musikken til å høres låst og holdt i et jerngrep.
    Timbren og oppløsningen er derimot ofte formidabel, men det hjelper ikke når man dreper livet i musikken.
    Her må man bare finne det perfekte kompromisset mellom timbre og løssluppenhet.

    Så av alle disse årsakene og kanskje enda flere er vi egentlig tilbake til det jeg skrev i forrige innlegg. Dersom en romkorreksjon virkelig skal funke, så må man ha oppfunnet tidsreiser og finne en måte og løse ulike impedanseforhold fra flater/gjenstander på. Refleksjonene må komme samtidig som direktelyden dersom den skal kunne korrigeres. Så det vi egentlig står igjen med er at vi kun kan korrigere minimum fase på en fornuftig måte. Det betyr direktelyd og primært lave frekvensen i et rom.
    Nja.. Som forklart over så er det kun i to oktaver man kan velge å korrigere refleksjoner og det fungerer faktisk greit. Det blir ikke lydende som et stor midbasshorn, men det gjør oftes lyden litt tightere og mer detaljert.
    Er ikke sikker på om vi definerer minimumfase likt. Jeg definerer minimumfase som at fase og frekvens følger hverandre uatskillelig. Men direktelyden fra en høyttaler vil ha en del smårusk fra drivere, delefiltre og kabinett. Tidskorreksjon gjør en god jobb i å rette ut disse små avvikene slik at direktelyden får en ny dimensjon i fasekorrelasjon mellom frekvensene. Dette får ikke jeg til med IIR.
     

    TrompetN

    Hi-Fi freak
    Ble medlem
    04.03.2004
    Innlegg
    8.700
    Antall liker
    7.011
    Jeg er enig at man ikke får hele svaret fra et punkt, men jeg skjønner ikke hvorfor man ikke kan korrigere fra et punkt.
    Det er vel egentlig to svar på dette som er interessante.

    Det ene går ut på at vi må vurdere hva slags matematikk som er gyldig for situasjonen. Bx er veldig opphengt i hva som er minimum fase, og forsøker å inkludere mest mulig i dette begrepet for å oppnå validitet. Innen forskning er det motsatt av allment aksepterte arbeidsmetodikker. Man søker momenter som kan punktere validiteten i det hypotesen normalt forutsettes å være riktig.

    Rent matematisk må man forutsette en hel rekke faktorer for å kunne fastslå at et system er tidsinvariant og linjært. Disse er stort sett ivaretatt så lenge man har kun en output som ikke er retningsbestemt og størrelsen er tilnærmet lik null. Når dette derimot ikke er ivaretatt har man ingen forutsetninger for å kunne definere hvilken matematikk som kommer til anvendelse.

    Innen romkorreksjon er konklusjonen at globale fenomener godt kan behandles fra ett punkt, mens ikke-globale fenomener krever mer datainnsamling. I tillegg krever ulike fenomener ulik behandling. For eksempel vil en romresonans som fører til et avvik i frekvensresponsen som ikke er globalt i lytteposisjon kunne korrigeres med godt resultat, men det kreves mer datainnsamling enn det man får fra ett punkt for å vite hva man kan gjøre. For en refleksjon som gir et bidrag fra en annen vinkel enn direktelyden vil man ikke ha samme mulighet for å gjøre en korreksjon som fungerer globalt.

    Man ender altså opp med at alle matematiske modeller man kunne anvende vil være ugyldige.
    Forstår teorien og utfordringene, men den matematiske modellen trenger vel kun være gyldig i anvendt tidsvindu?

    I praksis vil korrigering av direktelyd gjennom target gi endring i den globale frekvensresponsen i målevinduet. Innenfor en gitt ramme kan man dermed korrigere begge med target.

    Å korrigere bassressonanser fra et punkt fungerer egentlig overraskende godt.

    Det andre svaret handler om hvordan hjernen vår behandler den lyden vi får inn.

    Ved lave frekvenser vil lyden som rammer kroppen vår oppfattes via både ører og av kroppen forøvrig. Prosentandelen vi oppfatter via kroppen er vanskelig å fastslå, både fordi det er vanskelig å kvantifisere opplevelse, og fordi vi kan i veldig stor grad erstatte det ene med det andre. Man kan for eksempel fint erstatte 3/4 av energien i ørehøyde med energi som rammer andre deler av kroppen uten at vi oppfatter det som feil eller unaturlig. Vi kan også ha en situasjon der energien i ørehøyde er perfekt innjustert, men der energien på øvrige deler av kroppen enten mangler store mengder energi, eller der den har et voldsomt energioverskudd. Begge deler vil oppleves helt feil selv om det er aldri så korrekt i følge korreksjonssystemet.

    Det som ytterligere kompliserer dette bildet er at linjæriteten til ørene er litt annerledes enn linjæriteten til kroppen. Logisk nok vil kroppens følsomhet avta kraftig mot høyere frekvenser. Allikevel henger den overraskende godt med opp til 6-700Hz, men i dette området begynner kroppen å være avhengig av veldig høyt lydtrykk før den responderer noe særlig. Her vil vi med andre ord ikke reagere særlig på energiunderskudd, men vi reagerer på energioverskudd. Vi vil også være mer følsomme for energioverskudd når vi spiller høyt enn når vi spiller lavt.
    Enig i mye av dette. Når man korrigerer fra et punkt bør man i mine øyne ikke "se seg blind" på targetkurven. Jeg er bedre til å lytte enn til å kalkulere og regne meg frem riktig nivårespons basert på masse målinger. Jeg har riktignok flere ganger målt globalt i høyde og bredde når jeg behandler rom, men skrur jeg meg til riktig korreksjons target ved hjelp av ørene. Det fungerer og da får man med kroppens opplevelse også.

    Det derimot ikke kroppen er særlig god på er å holde kontroll på timing. Det vil si, kroppen bidrar i stor grad med subjektiv timing, men det handler først og fremst om energifordelingen ved ulike frekvenser og ikke om faktisk timing.

    Ørene våre derimot, er ekstremt sensitive ift timing. Her spiller hjernen en viktig rolle i det å vurdere vinkelen på det inkommende signalet. Vi kan pinpointe lydkilder ekstremt nøyaktig. Her spiller både nivå og timing sentrale roller, og den ene kan i stor grad godt erstatte den andre. Når du får en refleksjon inn fra siden og forsøker å korrigere denne med en korreksjons av direktelyden vil refleksjonen og korreksjonen komme fra to ulike vinkler. Dersom du setter en ørepropp i det ene øret, skrur på TV og forsøker å føre en samtale med en person som sitter ved siden av deg i sofaen vil du få store problemer med å skille lydene. Fjerner du proppen vil det gå ganske greit fordi hjernen evner å skille de to lydkildene fra hverandre.
    Refleksjonen fra siden ligger nokså lavt i nivå i forhold til direktelyden. Har prøvd ut dette ved å bruke forsinkete høyttalere som simulerer siderefleksjon for å høre virkningen av dette med ulike nivåer fra refleksjonshøyttaleren. Med fullrange refleksjonshøyttaleren smørtes lydbildet ut, men det var umulig å høre hvilken retning lyden kom fra når den var type 5-7db lavere enn direktelyden. For frekvenser under 600hz vil det være enda vanskeligere å høre slike detaljer, så jeg tror ikke den kansellerende bølgen kan gjøre skade på den måten du skisserer her.
     
    Sist redigert:

    Bjørn ("Orso")

    Bransjeaktør
    Ble medlem
    03.11.2008
    Innlegg
    11.296
    Antall liker
    2.903
    Sted
    Bergen
    Torget vurderinger
    2
    Det er litt vanskelig å vite om vi diskuterer epler og bananer her. Hvordan kan du vite at det ikke er preringing, target eller høyttalerartifakter du reagerer på?
    Det man vet er at korreksjonen blir noe annet enn korrekt. Som jeg nevnt, akkurat hvilke del hva man hører som er preringing, superposisjon og fasefeil kan man selvsagt ikke vite sikkert før det gjøres bedre analyser. Det heller ikke vesentlig da det uansett er snakk om noe som er ukorrekt enten det er fasefeil og preringing. Nå skal det sies at når jeg hadde Audiolense, så ble det sagt at preringing ikke var et problem. Men registrerer at det er kommet noe som skal bekjempe dette senere. Det vil også være avhengig av bruken. Som tidligere nevnt, man bringer også inn artifakter med romkorreksjon med IIR filter og den har som sagt ikke preringing.

    I praksis stemmer ikke dette med et lite målepunkt helt. Hvis man deler opp frekvensområdet i fire:

    1. 4.000-20.0000hz her korrigerer man ikke refleksjoner fra rom, men kun direktelyd og små artifakter fra høyttaler pluss nivåjustering. Både direktelyden og nivåjusteringen gir global virkning. Dette er fordi fasejustering av direktelyden fra et gitt punkt gir også fasekorreksjon av direktelyden andre steder i rommet. Nivåjustering påvirker nivået til en frekvens i hele målevinduet selv om justeringen gjøres på direktelyden.

    2. 500-4.000hz her korrigerer man fortsatt oftest kun direktelyd, men på grunn av diffraksjon blir det flere artifakter fra høyttaler. Korreksjonen setter også perfekt fasekorrelasjon med resten av høyttaleren. Her er øret vårt ekstremt sensitivt og gir en sammenheng i timbre man nærmest ikke kan få til uten korreksjon.
    Da er det ikke romkorreksjon og da har det ingen relevanse til diskusjonen.
    Og hva er det beskriver som gjør dette? Prøver du å si at alle romkorreksjonsprogrammer automatisk fungerer slik som dette?
    3. 500-100hz : De problematiske oktavene. Her korrigerer man direktelyd og førsterefleksjoner fra en sidevegg, gulv og kanskje tak, til alle førsterefleksjonspunktene ved 100hz. Her må man prøve seg frem med varsomhet. Selv om korreksjonen er gjort i et punkt vil man likevel ikke se store utslag på effekten av kanselleringer fra korreksjonen i en radius på ca 50cm rundt lytteposisjonen på grunn av lange bølgelengder. Nivåjusteringen vil være global her også så lenge man unngår å heve kamfilter. Dette frekvensområdet er likevel en stor tradeoff uten korreksjon og man må bare lytte seg til det beste resultatet. Oftest blir det best med tidskorreksjon.
    Igjen lurer jeg på hva du egentlig beskriver. En almenn metode som all romkorreksjon er basert på eller hva du gjør selv? Blir veldig rart å diskutere "her gjør man slik" som noe alment og som heller ikke er relatert til det som diskuteres.

    Uansett kan du ikke splitte opp lyden og refleksjonene på denne måten. Det høres enkelt ut på papiret, men blir umulig i praksis p.g.a. hva jeg tidligere ha forklart.

    4. 100-20hz : Det mest stuerene området å korrigere i. Her unngår man å korrigere den verste kamfilteret, men korreksjonen gir global virkning. Tightere bass i lytteposisjon gir tightere bass i hele rommet enn før korreksjon. Inverteringen av bassressonanser tror jeg blir mer presist med Tidskorreksjon enn kun IIR.
    Det er først og fremst i de laveste frekvensene man har minimum fase ja, men det er ikke noe automatikk i at alle frekvenser under 100 Hz er det. Å dra ned peaker mye vil dessuten gi tap av dynamikk. Korrigerer du for utfasinger, så vil forvrengningen i forsterkeren øke betraktelig.

    Uten å henge ute noen, jeg så (og hørte) forøvrig resultatet av korreksjon i bassen med Audiolense hos OMF før han fikk DBA. Altså en før og etter måling med korreksjon. Det så ikke bra ut målemessig og lydmessig var det tilsvarende. Et eksempel på at det åpenbart ikke er så enkelt som du og flere beskriver.


    Som Snickers nevner, så blir bølgelengdene små oppover i frekvens. Og det er en av grunnene til at korreksjonen bare fungerer til et lite punkt. Jo høyere vi kommer i frekvens, jo mindre blir bølgelengdene og desto mindre blir område korreksjonen kan fungere til.
    Nja. Ikke så lenge man snakker om direktelyd så vil fasekorelasjonen i direktelyden holde seg global til rommets refleksjoner inntreffer. Audiolense fungerer ekstremt bra til å korrigere direktelyden og target designer gjør det veldig enkelt å treffe klangbalansen i rommet.
    Det går selvfølgelig ikke å invertere kamfilter i høyere frekvenser.
    Igjen, jeg snakker om romkorreksjon. Du endrer diskusjonen til høyttalerkorreksjon som ikke har relevanse for diskusjonen og sier jeg tar feil. Da begynner det å bli usaklig.

    Men dette er også flere andre utfordringer med romkorreksjon. F.eks det at flatene har ulik impedanse. En refleksjon fra en flate har ikke lik impedanseforhold som en refleksjon fra en annen flate. Her vil både overflate, møbler og gjenstander spille inn. Det betyr også at romkorreksjon ikke bare skal fjerne myriader av refleksjoner som kommer til ulik tid, men den må også ta hensyn til de forskjellige impedanse forholdene. Det sies seg selv at dette blir en umulighet.
    Å kansellere refleksjoner er jo som nevnt en utfordring i de to oktavene ved schroeder. Det beste kompromisset er for meg oftest å korrigere dette med tidskorreksjon. Men akkurat det med flatenes oppførsel fanges opp av målingen og blir kalkulert med.
    Dette kan ofte være utfordrende å korrigere, men noen ganger faktisk ikke i det hele tatt. Så absolutt ingen umulighet så lenge tidsvinduene er korte nok.
    Her der du ikke tak i noe av urfordringene i det hele tatt. Og igjen, vi snakker om romkorreksjon.
    Og så har vi det faktum at korreksjonen kun gjelder for en høyttaler. Men vi bruker minst to hvor det oppstår superposisjon og "interference" mellom disse. Dette vil heller ikke korreksjonen ikke kunne ta hensyn til.
    Sant, men det vil oppstå superposisjon og interference mellom to ukorrigerte høyttalere også. En korrigert høyttaler vil ikke bli dårligere til dette etter korreksjon, men bedre.
    Hallo? Når man ikke korrigerer for rommet, så gjør man heller ingenting og det et status quo. Med romkorreksjon for en høyttaler, så har du endret responsen for noe som kun fungerer for en og ikke to høyttalere. Så sammenligningen din her blir jo helt meningsløs.
    Men uansett er det hele tatt usikkert om korreksjon kan fungere av den årsak at vi lytter til en helhet og det er ikke oppdelt i direktelyd og reflektert lyd. I teorien kan det virke som slik OMF beskriver. Man kan invertere signalet slik at en refleksjon som kommer etter f.eks 3 ms kanselleres. Det høres i utgangspunktet fornuftig ut, men vi må huske på musikken er en kontinuerlig strøm av toner. Dermed vil endringen av direktelyden for å kansellere refleksjonen også påvirke direktelyden. Vi snakker jo ikke om to adskilte ting her. Og så er det ikke bare snakk om en enkelt refleksjon etter 3 ms, men skal man tillegg kontrollerte tusenvis av refleksjoner til ulik tid ved å endre direktelyden og uten at direktelyden skal bli påvirket negativt. Jeg mener det ikke er mulig da det er en kontinuerlig strøm av lyd som kommer. Og hele tiden skal man altså korrigere ut disse refleksjonene fra direktelyden ved og nettopp endre direktelyden. Vet ikke om jeg klarer å beskrive dette godt nok, men her tror jeg de som utvikler softwaren prøver å skille på en helhet og som ikke er mulig. Det som da vil skje her er at man få superposisjon av kombinasjonen av den inverterte lyden og direktelyden og det blir noe annet enn korrekt.
    Her synes jeg du har et poeng med at høyttaleren må spille av kanselleringssignalene også. På en annen side er det ikke stort verre enn å gjengi refleksjoner og romklang fra opptaksrommet, men poenget ditt at det kommer i tillegg er reelt. Virkningen av dette opplever jeg kommer veldig an på høyttaler og forsterker. Korte vinduer virker å påvirke høyttaleren mindre, mens kjempelange vinduer kan få musikken til å høres låst og holdt i et jerngrep.
    Timbren og oppløsningen er derimot ofte formidabel, men det hjelper ikke når man dreper livet i musikken.
    Her må man bare finne det perfekte kompromisset mellom timbre og løssluppenhet.

    Så av alle disse årsakene og kanskje enda flere er vi egentlig tilbake til det jeg skrev i forrige innlegg. Dersom en romkorreksjon virkelig skal funke, så må man ha oppfunnet tidsreiser og finne en måte og løse ulike impedanseforhold fra flater/gjenstander på. Refleksjonene må komme samtidig som direktelyden dersom den skal kunne korrigeres. Så det vi egentlig står igjen med er at vi kun kan korrigere minimum fase på en fornuftig måte. Det betyr direktelyd og primært lave frekvensen i et rom.
    Nja.. Som forklart over så er det kun i to oktaver man kan velge å korrigere refleksjoner og det fungerer faktisk greit. Det blir ikke lydende som et stor midbasshorn, men det gjør oftes lyden litt tightere og mer detaljert.
    Er ikke sikker på om vi definerer minimumfase likt. Jeg definerer minimumfase som at fase og frekvens følger hverandre uatskillelig. Men direktelyden fra en høyttaler vil ha en del smårusk fra drivere, delefiltre og kabinett. Tidskorreksjon gjør en god jobb i å rette ut disse små avvikene slik at direktelyden får en ny dimensjon i fasekorrelasjon mellom frekvensene. Dette får ikke jeg til med IIR.
    I det store og hele så tar du ikke tak i noen av av utfordringene som jeg har nevnt. Du endrer debatten til korreksjon av direktelyd, noe som jeg aldri har bestridet. Hva er poenget med det? Dessuten blir det veldig merkelig å fortelle hva du selv gjør til noe alment, som at alle som bruker romkorreksjon gjør det på denne måten. Ingen av de Audiolense eierne som jeg har besøkt har uført noe annet enn romkorreksjon. Dessuten er det mange andre romkorreksjonsprogrammer der ute og det er romkorreksjon som er temaet her. Dette blir veldig rart når du ikke forholder deg til hva som faktisk blir diskutert og bruker det som argumentasjonsmetode.

    Men da kan det i det minste ser om du egentlig i stor eller middels grad er enig. At romkorreksjon til det som ikke er minimum fase ikke er noe som er uproblematisk og fungerer super dupert. Ellers hadde du vel ikke beveget deg vekk ifra det. Det er god kontrast til hva du skrev for noen år siden. Ergo er du egentlig også uenig med Bx.
     

    OMF

    Æresmedlem
    Ble medlem
    26.02.2002
    Innlegg
    16.134
    Antall liker
    9.261
    Sted
    Bergen
    Torget vurderinger
    14
    Uten å henge ute noen, jeg så (og hørte) forøvrig resultatet av korreksjon i bassen med Audiolense hos OMF før han fikk DBA. Altså en før og etter måling med korreksjon. Det så ikke bra ut målemessig og lydmessig var det tilsvarende. Et eksempel på at det åpenbart ikke er så enkelt som du og flere beskriver.
    Jeg ønsker jo hele tiden å få bedre lyd - kunne du si litt hva du så målemessig etter korreksjon som ikke var bra...? Og gjerne også hvilken måling du så på...?

    Mvh
    OMF
     

    Bjørn ("Orso")

    Bransjeaktør
    Ble medlem
    03.11.2008
    Innlegg
    11.296
    Antall liker
    2.903
    Sted
    Bergen
    Torget vurderinger
    2
    Jeg føler behov for å uttrykke litt frustrasjon, noe jeg ikke har for vane å gjøre. Og det gjelder debatter på dette forumet og forsåvidt også på andre hifi forum. Klimaet i debattene bærer veldig preg av at:

    - Folk har et stort behov for å forsvare investeringer og hva man gjort. Ofte viktigere å vinne framfor å lære noe
    - Man ser på det som stilles spørsmål som trussel mot valgene sine og det skal forsvares på død og liv. Uavhengig av dårlig argumentasjonen er
    - Det er stor bruk av stråmannsargumentasjon og hvor man ikke forholder seg til hva som faktisk blir sagt
    - Framfor å spørre om ting man ikke forstår, så prøver mange å fremstå autoriteter på områder som man åpenbart ikke skjønner

    Svaret til TrompetN er for meg et delvis eksempel på dette. Jeg kommer med mange problemer relatert til romkorreksjon. Han endrer hele argumentasjonen til som overhodet ikke er tema og forsåvidt jeg heller ikke bestrider og bruker dette som motargumenter. Når folk i tillegg trykker på "liker innlegget" på noe så meningsløst, så viser det hvor vanskelig det er å debattere noe saklig og konstruktivt. Det er viktigere for "menigheten" med noen som støtter hva de allerede mener framfor at det som ble sagt inneholdt gode poenger. Det er trist.

    Jeg bruker noe tid i mer faglige kretser. Her ser man noe helt annet. Nesten ingen har behov for å forsvare noe. Man ønsker å lære. Folk leser det som faktisk ble skrevet og forholder seg til det. Resultatet er at alle blir noe klokere. Hifi forum derimot tiltrekker seg ikke slike folk og som egentlig hadde vært en enorm ressurs. Jeg kjenner noen som tidligere har prøvd å være aktive på forum. De har ekstrem kunnskap og på mange områder rekker ikke jeg de til ankelen. Men resultatet var at de ble motsagt av folk som ikke hadde peiling hva de snakket om. Den ene sa til slutt følgende: "Hvorfor skal bruke tid å argumentere noe som jeg vet har jeg rett i med folk som overhodet ikke forstår det og sier at jeg tar feil?"
    Det høres arrogant ut, men her var det helt beskrivende.

    Jeg prøver forøvrig ikke å si med siste avsnitt her at jeg er noe ekspert, det er jeg absolutt ikke. Men argumentasjons metodene på hifi forum er blitt usaklige og bærer nå så stor preg av selvforsvar til enhver pris, at man stort sett kommer ingen vei. Det er uhyre sjelden å se at folk sier rett ut at jeg tok feil, har endret mening osv. Dersom man endrer mening i stor grad, så blir det nesten mer skjult slik at man ikke skal tape ansikt. Syntes dette er verdt å tenke over.

    Og med det er jeg usikker på jeg ser noe poeng å fortsette denne diskusjonen. Har vanskelig for å se at det kommer noe godt ut av det.

    OMF:
    Du la ut måling i tråden din. Viste veldig ujevn respons nedover i frekvens. Det viser jo at området under 100 Hz automatisk ikke er minimum fase og som enkelt kan korrigeres.
     

    OMF

    Æresmedlem
    Ble medlem
    26.02.2002
    Innlegg
    16.134
    Antall liker
    9.261
    Sted
    Bergen
    Torget vurderinger
    14
    stein-i-glasshus.jpg


    Synes også du utrykker deg på relativt tynnt grunnnlag om bivirkninger av dSP hos meg. Det er lenge mellom hver gang jeg treffer noen som er mindre nysgjerrig på å sette seg inn i ting enn det du var.

    Mvh
    OMF
     

    Olav2

    Hi-Fi freak
    Ble medlem
    07.04.2014
    Innlegg
    3.342
    Antall liker
    2.665
    Torget vurderinger
    1
    Orso: Mye av denne debatten går over hodet på meg. Når jeg trykket like på innlegget til TrompetN, var det fordi han på en klar og enkel måte forklarte ting. Jeg tror jeg har trykket like på et eller to av dine innlegg i tråden også, nettopp fordi du tar deg tid til å gå inn i det og forklare. Og det er nettopp det jeg setter pris på med denne debatten - at folk tar seg tid til å skrive gode og forklarende innlegg. Kanskje forstår jeg det litt bedre etter hvert... :)

    Jeg er helt enig i at hifi-debatter kan være lite konstruktive i blant. Men etter hvert så synes jeg faktisk ikke det gjelder denne tråden. Folk forholder seg til hverandres argumenter på en forsøksvis saklig måte! Og det er egentlig alt man kan forvente.
     

    TrompetN

    Hi-Fi freak
    Ble medlem
    04.03.2004
    Innlegg
    8.700
    Antall liker
    7.011
    Det man vet er at korreksjonen blir noe annet enn korrekt. Som jeg nevnt, akkurat hvilke del hva man hører som er preringing, superposisjon og fasefeil kan man selvsagt ikke vite sikkert før det gjøres bedre analyser. Det heller ikke vesentlig da det uansett er snakk om noe som er ukorrekt enten det er fasefeil og preringing. Nå skal det sies at når jeg hadde Audiolense, så ble det sagt at preringing ikke var et problem. Men registrerer at det er kommet noe som skal bekjempe dette senere. Det vil også være avhengig av bruken. Som tidligere nevnt, man bringer også inn artifakter med romkorreksjon med IIR filter og den har som sagt ikke preringing.


    Da er det ikke romkorreksjon og da har det ingen relevanse til diskusjonen.
    Og hva er det beskriver som gjør dette? Prøver du å si at alle romkorreksjonsprogrammer automatisk fungerer slik som dette?

    Igjen lurer jeg på hva du egentlig beskriver. En almenn metode som all romkorreksjon er basert på eller hva du gjør selv? Blir veldig rart å diskutere "her gjør man slik" som noe alment og som heller ikke er relatert til det som diskuteres.

    Uansett kan du ikke splitte opp lyden og refleksjonene på denne måten. Det høres enkelt ut på papiret, men blir umulig i praksis p.g.a. hva jeg tidligere ha forklart.
    Å feilsøke romkorreksjon er ikke lett. Jeg har selv funnet ut dette om preringing på et tidlig stadium flere år tilbake basert på lytting og testing før den potensielle hørbarheten av dette ble alment kjent. Frekvenskorreksjon har mange potensielle fallgruver, det vanskelige er å adressere disse riktig. Det går an å få dårlige korreksjoner med IIR også selv om DEQX og Snickers får det til.

    Beskrivelsene mine forsøker å endelig oppklare en missforståelse for deg når det gjelder bruken av Audiolense. Jeg kjenner ikke godt nok til andre korreksjonssystemer til å uttale meg om hvordan de gjør det.

    I brukermanualen i Audiolense står det at målepunktet bør være minst 1 meter fra nærmeste reflekterende flate. Det samme gjelder ideelt sett høyttalerene.

    Eksempel: hvis jeg skal korrigere siderefleksjoner som ankommer 6-7 millisekunder etter direktelyd, noe som er en slags minimum for høyttalerplassering vil jeg måtte ha korrigert 6-7 frekvensperioder med TTD for at tidsvinduet skulle vært langt nok. 7 frekvensperioder TTD på 1000hz er veldig hard korreksjon. Har ikke sett eller hørt om noen som bruker så lange tidsvinduer der. Jeg vil si at dette absolutt er relevant for diskusjonen for jeg får følelsen av at du diskuterer som om man vanligvis korrigerer 10-14 frekvensperioder med romkorreksjon og da er jeg enig med deg. Det fungerer dårlig i disse frekvensene og alle dine argumenter gir mening.

    Siden det er du som kritiserer Audiolense hele tiden så opplever jeg det som at det er du som ikke diskuterer saken. :)

    4. 100-20hz : Det mest stuerene området å korrigere i. Her unngår man å korrigere den verste kamfilteret, men korreksjonen gir global virkning. Tightere bass i lytteposisjon gir tightere bass i hele rommet enn før korreksjon. Inverteringen av bassressonanser tror jeg blir mer presist med Tidskorreksjon enn kun IIR.
    Det er først og fremst i de laveste frekvensene man har minimum fase ja, men det er ikke noe automatikk i at alle frekvenser under 100 Hz er det. Å dra ned peaker mye vil dessuten gi tap av dynamikk. Korrigerer du for utfasinger, så vil forvrengningen i forsterkeren øke betraktelig.

    Uten å henge ute noen, jeg så (og hørte) forøvrig resultatet av korreksjon i bassen med Audiolense hos OMF før han fikk DBA. Altså en før og etter måling med korreksjon. Det så ikke bra ut målemessig og lydmessig var det tilsvarende. Et eksempel på at det åpenbart ikke er så enkelt som du og flere beskriver.
    Å dra ned peaker vil ikke gi hørbar tap av dynamikk, men hvis man kun drar ned peaker og temmer ressonansene samtidig som dippene fortsatt står urørte så taper man energi. Viktig å korrigere rundt dette for at det skal låte best mulig.

    Jeg har aldri ment å si at dette er enkelt hverken å bruke eller forstå. Det er denne diskusjonen et godt eksempel på. Jeg mener kun at det er et godt verktøy til å skru lyden bedre med.


    Som Snickers nevner, så blir bølgelengdene små oppover i frekvens. Og det er en av grunnene til at korreksjonen bare fungerer til et lite punkt. Jo høyere vi kommer i frekvens, jo mindre blir bølgelengdene og desto mindre blir område korreksjonen kan fungere til.
    Nja. Ikke så lenge man snakker om direktelyd så vil fasekorelasjonen i direktelyden holde seg global til rommets refleksjoner inntreffer. Audiolense fungerer ekstremt bra til å korrigere direktelyden og target designer gjør det veldig enkelt å treffe klangbalansen i rommet.
    Det går selvfølgelig ikke å invertere kamfilter i høyere frekvenser.
    Igjen, jeg snakker om romkorreksjon. Du endrer diskusjonen til høyttalerkorreksjon som ikke har relevanse for diskusjonen og sier jeg tar feil. Da begynner det å bli usaklig.
    Romkorreksjon er mest høyttalerkorreksjon.


    Men dette er også flere andre utfordringer med romkorreksjon. F.eks det at flatene har ulik impedanse. En refleksjon fra en flate har ikke lik impedanseforhold som en refleksjon fra en annen flate. Her vil både overflate, møbler og gjenstander spille inn. Det betyr også at romkorreksjon ikke bare skal fjerne myriader av refleksjoner som kommer til ulik tid, men den må også ta hensyn til de forskjellige impedanse forholdene. Det sies seg selv at dette blir en umulighet.
    Å kansellere refleksjoner er jo som nevnt en utfordring i de to oktavene ved schroeder. Det beste kompromisset er for meg oftest å korrigere dette med tidskorreksjon. Men akkurat det med flatenes oppførsel fanges opp av målingen og blir kalkulert med.
    Dette kan ofte være utfordrende å korrigere, men noen ganger faktisk ikke i det hele tatt. Så absolutt ingen umulighet så lenge tidsvinduene er korte nok.
    Her der du ikke tak i noe av urfordringene i det hele tatt. Og igjen, vi snakker om romkorreksjon.
    Jepp. Samme missforståelser her ja.
    Og så har vi det faktum at korreksjonen kun gjelder for en høyttaler. Men vi bruker minst to hvor det oppstår superposisjon og "interference" mellom disse. Dette vil heller ikke korreksjonen ikke kunne ta hensyn til.
    Sant, men det vil oppstå superposisjon og interference mellom to ukorrigerte høyttalere også. En korrigert høyttaler vil ikke bli dårligere til dette etter korreksjon, men bedre.
    Hallo? Når man ikke korrigerer for rommet, så gjør man heller ingenting og det et status quo. Med romkorreksjon for en høyttaler, så har du endret responsen for noe som kun fungerer for en og ikke to høyttalere. Så sammenligningen din her blir jo helt meningsløs.
    Når man kalibrerer en høyttaler til et rom, gjerne parrer med sub gjør man dette i hovedsak individuelt for hver høyttaler. Man kan også sjekke responsen sammen, men da går man tilbake å korrigerer en og en høyttaler så de spiller bedre sammen. Hvorfor mener du at det er forskjellig her?
    Men uansett er det hele tatt usikkert om korreksjon kan fungere av den årsak at vi lytter til en helhet og det er ikke oppdelt i direktelyd og reflektert lyd. I teorien kan det virke som slik OMF beskriver. Man kan invertere signalet slik at en refleksjon som kommer etter f.eks 3 ms kanselleres. Det høres i utgangspunktet fornuftig ut, men vi må huske på musikken er en kontinuerlig strøm av toner. Dermed vil endringen av direktelyden for å kansellere refleksjonen også påvirke direktelyden. Vi snakker jo ikke om to adskilte ting her. Og så er det ikke bare snakk om en enkelt refleksjon etter 3 ms, men skal man tillegg kontrollerte tusenvis av refleksjoner til ulik tid ved å endre direktelyden og uten at direktelyden skal bli påvirket negativt. Jeg mener det ikke er mulig da det er en kontinuerlig strøm av lyd som kommer. Og hele tiden skal man altså korrigere ut disse refleksjonene fra direktelyden ved og nettopp endre direktelyden. Vet ikke om jeg klarer å beskrive dette godt nok, men her tror jeg de som utvikler softwaren prøver å skille på en helhet og som ikke er mulig. Det som da vil skje her er at man få superposisjon av kombinasjonen av den inverterte lyden og direktelyden og det blir noe annet enn korrekt.
    Her synes jeg du har et poeng med at høyttaleren må spille av kanselleringssignalene også. På en annen side er det ikke stort verre enn å gjengi refleksjoner og romklang fra opptaksrommet, men poenget ditt at det kommer i tillegg er reelt. Virkningen av dette opplever jeg kommer veldig an på høyttaler og forsterker. Korte vinduer virker å påvirke høyttaleren mindre, mens kjempelange vinduer kan få musikken til å høres låst og holdt i et jerngrep.
    Timbren og oppløsningen er derimot ofte formidabel, men det hjelper ikke når man dreper livet i musikken.
    Her må man bare finne det perfekte kompromisset mellom timbre og løssluppenhet.
    Så av alle disse årsakene og kanskje enda flere er vi egentlig tilbake til det jeg skrev i forrige innlegg. Dersom en romkorreksjon virkelig skal funke, så må man ha oppfunnet tidsreiser og finne en måte og løse ulike impedanseforhold fra flater/gjenstander på. Refleksjonene må komme samtidig som direktelyden dersom den skal kunne korrigeres. Så det vi egentlig står igjen med er at vi kun kan korrigere minimum fase på en fornuftig måte. Det betyr direktelyd og primært lave frekvensen i et rom.
    Nja.. Som forklart over så er det kun i to oktaver man kan velge å korrigere refleksjoner og det fungerer faktisk greit. Det blir ikke lydende som et stor midbasshorn, men det gjør oftes lyden litt tightere og mer detaljert.
    Er ikke sikker på om vi definerer minimumfase likt. Jeg definerer minimumfase som at fase og frekvens følger hverandre uatskillelig. Men direktelyden fra en høyttaler vil ha en del smårusk fra drivere, delefiltre og kabinett. Tidskorreksjon gjør en god jobb i å rette ut disse små avvikene slik at direktelyden får en ny dimensjon i fasekorrelasjon mellom frekvensene. Dette får ikke jeg til med IIR.
    I det store og hele så tar du ikke tak i noen av av utfordringene som jeg har nevnt. Du endrer debatten til korreksjon av direktelyd, noe som jeg aldri har bestridet. Hva er poenget med det? Dessuten blir det veldig merkelig å fortelle hva du selv gjør til noe alment, som at alle som bruker romkorreksjon gjør det på denne måten. Ingen av de Audiolense eierne som jeg har besøkt har uført noe annet enn romkorreksjon. Dessuten er det mange andre romkorreksjonsprogrammer der ute og det er romkorreksjon som er temaet her. Dette blir veldig rart når du ikke forholder deg til hva som faktisk blir diskutert og bruker det som argumentasjonsmetode.

    Men da kan det i det minste ser om du egentlig i stor eller middels grad er enig. At romkorreksjon til det som ikke er minimum fase ikke er noe som er uproblematisk og fungerer super dupert. Ellers hadde du vel ikke beveget deg vekk ifra det. Det er god kontrast til hva du skrev for noen år siden. Ergo er du egentlig også uenig med Bx.
    Poenget er å oppklare noe du sannsynligvis har missforstått. Jeg bare mener at Audiolense er et fantastisk verktøy som har endret hele synet mitt på reproduksjon av lyd og som gir gode resultater. Selv om Audiolense gir brukere frihet til å invertere hele rommet om de vil er det ikke romkorreksjonsenheten sin feil om de faktisk gjør det. Det blir litt som å si at IIR filter ikke kan fungere på bakgrunn av feil bruk.

    Problemet med diskusjoner om romkorreksjoner er at de er for unyanserte og svart/hvitt. Argumentene i dine tidlige innlegg i denne tråden er eksempel på det. Man tar ikke høyde for bruk av ulike tidsvinduer og at ulike frekvensområder åpner for ulik bruk.

    Skrev en del om Audiolense da jeg begynte å bruke det for 7 år siden, noe av det kunne nok missforståes og noe var muligens upresise konklusjoner, men kontrasten er faktisk veldig liten. Jeg har fra dag en fått bedre lyd med korreksjon enn uten.

    Nå har jeg fått forklart inngående det jeg mener og jeg har endelig etter alle disse årene fått vite hva du egentlig mener er problemet. Hvis du mener vi er enige så er jo det bare flott. :)


    PS: OMF: hvordan innstillinger bruker du i din Correction procedure designer?
     
    Sist redigert:
    • Liker
    Reaksjoner: OMF

    Bx

    Bransjeaktør
    Ble medlem
    04.08.2005
    Innlegg
    9.048
    Antall liker
    4.489
    Det ene går ut på at vi må vurdere hva slags matematikk som er gyldig for situasjonen. Bx er veldig opphengt i hva som er minimum fase, og forsøker å inkludere mest mulig i dette begrepet for å oppnå validitet. ......

    Rent matematisk må man forutsette en hel rekke faktorer for å kunne fastslå at et system er tidsinvariant og linjært. Disse er stort sett ivaretatt så lenge man har kun en output som ikke er retningsbestemt og størrelsen er tilnærmet lik null. Når dette derimot ikke er ivaretatt har man ingen forutsetninger for å kunne definere hvilken matematikk som kommer til anvendelse.

    .....

    Innen romkorreksjon er konklusjonen at globale fenomener godt kan behandles fra ett punkt, mens ikke-globale fenomener krever mer datainnsamling. I tillegg krever ulike fenomener ulik behandling. For eksempel vil en romresonans som fører til et avvik i frekvensresponsen som ikke er globalt i lytteposisjon kunne korrigeres med godt resultat, men det kreves mer datainnsamling enn det man får fra ett punkt for å vite hva man kan gjøre. For en refleksjon som gir et bidrag fra en annen vinkel enn direktelyden vil man ikke ha samme mulighet for å gjøre en korreksjon som fungerer globalt.
    Grunnen til at jeg stresser dette med minumumfase, Snickers, er for å vise at du bruker begrepet feil. Du definerer det og bruker det på en måte som er helt på siden av det egentlige fagbegrepet, og så anvender du det slik det passer inn i dine forklaringsmodeller. Og minimumfase har egenskaper som har stor betydning her, både i praksis og rent matematisk, så dette er viktig.

    Jeg kan godt begynne å stresse hva lineær og time-invariant betyr også. Det virker som du er i ferd med å bastardisere disse begrepene også. Lineær betyr at forsterker, høyttalere, vegger, luft reagerer likt på sterke og svake signaler. Time invariant betyr at de kommer til å oppføre seg på samme måte om en time som de gjør nå. Begge deler er idealiserte forenklinger. Virkeligheten har LTI-begrensninger.

    Og så vil jeg gjerne se dokumentasjon på "Innen romkorreksjon er konklusjonen...." Jeg har jo lagt fram seriøse studier her som går i motsatt retning. Da bør du kunne underbygge din påstand noe mer enn at vi bare skal ta det du sier for god fisk. Gjør du det, kan det hende at vi får opp et mer nyansert bilde her. Da kan vi begynne å spørre oss "hvorfor fikk Mourjopoulos gode resultater - hvorfor fikk nn andre resultater?"

    For meg fremstår det du har skapt deg et nettverk av udokumenterte påstander og feil anvendt teori som ikke henger på greip. Du bruker en del DSP-relaterte begreper på en fagstridig måte til å forklare effekter som du ikke dokumenterer.

    Jeg tror absolutt du er inne på noe når det gjelder taktile opplevelser og refleksjonsretninger, bare så det er sagt. Men det er ikke noen show-stopper i forhold til DSP-basert lydkorreksjon.

    Både du og Orso (selv om dere er uenige om en del ting) argumenterer for at romkorreksjon ikke funger. Samtidig gir dere uttrykk for at det er helt OK å tilpasse høyttaleren til rommet vha DSP. Det er overhodet ikke prinsipielle forskjeller mellom de to når det gjelder akustiske utfordringer, 3d utfordringer etc. Det benyttes ulike verktøy både til analyse og korreksjon, så det er forskjeller. Men ikke av det slaget som gjør at den ene tilnærmingen er immun, mens den andre omtrent er en umulighet. Dere har skapt et kunstig skille mellom den type korreksjon som dere liker og den type dere ikke liker, og så opererer dere med hjemmestrikka forklaringer for å underbygge prinsipielle forskjeller som ikke eksisterer.
     

    TrompetN

    Hi-Fi freak
    Ble medlem
    04.03.2004
    Innlegg
    8.700
    Antall liker
    7.011
    Jeg forstår ikke så mye av innlegg 101 Orso.

    Du skriver at jeg endrer diskusjonen. Når tre Audiolense-kjennere trykker liker på innlegget kan det jo være fordi de kjenner igjen bruken og argumentasjonen?
    Både BX og jeg forsøker å forklare at argumentene dine ikke passer med problemstillingen. Når problemstillingen begynner å likne gjør også meningene og argumentene det. :)
     
    • Liker
    Reaksjoner: Bx

    alphamale

    Hi-Fi freak
    Ble medlem
    13.11.2007
    Innlegg
    6.061
    Antall liker
    4.983
    Sted
    Kjeppjaga nordlending i asyl ved ring 3
    Kringkastere, offentlig kino og tunge hjemmerigger trykker dsp av de seriøse typer til sitt bryst og lovpriser utfallet av bruken av de. Hvordan kan det ha seg at disse lykkes (som oftest ) med å skru lyd som vi elsker, og vi ikke skal klare det med noe av de samme utgangspunktene. Man kan jo gjerne diskutere om lyden er puristisk riktig, men vi digger det vi hører og lar det passere uten videre. Man leser jo til stadighet om installasjoner som river innvollene ut og skaper opplevelser som kan sende hvermannsen ut på jakt etter samme egenskaper i heimen.
    Etter å ha fulgt litt med i denne tråden nå er jeg mer sikker på noen gang at lyden er bedre med, enn uten.
    Ikke har jeg mulighet til å kle rommet med masse akustiske tiltak. Egentlig tenker jeg ikke særlig på at det jeg hører hjemme kan faktisk være feil ( for noen) for jeg liker det, og vil nok fortsette med dsp til jeg kommer på bedre tanker.
    For å flåse litt kan man jo si at å ha sex i stupfull tilstand ikke er den riktige måten for å nyte det fullt ut, men ingen kan komme her og fortelle meg at det ikke er like godt selv om utstyret ikke er optimalt og omgivelsene ofte er av ymse karakter:cool:
    Knallbra tråd btw, og jeg setter stor pris på uttalelser fra begge skyttergravene. Svært lærerikt.
     
    • Liker
    Reaksjoner: Bx

    roadrune

    Hi-Fi freak
    Ble medlem
    06.12.2014
    Innlegg
    2.362
    Antall liker
    1.170
    Sted
    Stord
    Torget vurderinger
    1
    Kan noen forklare hva minimumfase egentlig er? Blir nok "litt" lettere å følge diskusjonen da :)

    Hilsen en som ikke vet, men bare vil lære...
     

    Snickers-is

    Bransjeaktør
    Ble medlem
    05.02.2004
    Innlegg
    18.418
    Antall liker
    16.674
    Sted
    Østfold
    Grunnen til at jeg stresser dette med minumumfase, Snickers, er for å vise at du bruker begrepet feil. Du definerer det og bruker det på en måte som er helt på siden av det egentlige fagbegrepet, og så anvender du det slik det passer inn i dine forklaringsmodeller. Og minimumfase har egenskaper som har stor betydning her, både i praksis og rent matematisk, så dette er viktig.
    Javel? Forklar!

    Jeg kan godt begynne å stresse hva lineær og time-invariant betyr også. Det virker som du er i ferd med å bastardisere disse begrepene også. Lineær betyr at forsterker, høyttalere, vegger, luft reagerer likt på sterke og svake signaler. Time invariant betyr at de kommer til å oppføre seg på samme måte om en time som de gjør nå. Begge deler er idealiserte forenklinger. Virkeligheten har LTI-begrensninger.
    Det var vel temmelig eksakt det samme som jeg var inne på. Hva er problemet?

    Og så vil jeg gjerne se dokumentasjon på "Innen romkorreksjon er konklusjonen...." Jeg har jo lagt fram seriøse studier her som går i motsatt retning. Da bør du kunne underbygge din påstand noe mer enn at vi bare skal ta det du sier for god fisk. Gjør du det, kan det hende at vi får opp et mer nyansert bilde her. Da kan vi begynne å spørre oss "hvorfor fikk Mourjopoulos gode resultater - hvorfor fikk nn andre resultater?"
    Den dokumentasjonen har du jo postet selv. Har du sett noen av dem konkludere med noe annet?

    For meg fremstår det du har skapt deg et nettverk av udokumenterte påstander og feil anvendt teori som ikke henger på greip. Du bruker en del DSP-relaterte begreper på en fagstridig måte til å forklare effekter som du ikke dokumenterer.
    Hvilke påstander trenger mer dokumentasjon?
    Hvilke teorier er feil anvendt?
    Hva er det som ikke henger på greip?

    Jeg tror absolutt du er inne på noe når det gjelder taktile opplevelser og refleksjonsretninger, bare så det er sagt. Men det er ikke noen show-stopper i forhold til DSP-basert lydkorreksjon.
    Men du sa jo akkurat at det ikke hang på greip?
    Så du mener ingen former for korreksjon behøver å ta hensyn til disse tingene?

    Både du og Orso (selv om dere er uenige om en del ting) argumenterer for at romkorreksjon ikke funger. Samtidig gir dere uttrykk for at det er helt OK å tilpasse høyttaleren til rommet vha DSP. Det er overhodet ikke prinsipielle forskjeller mellom de to når det gjelder akustiske utfordringer, 3d utfordringer etc. Det benyttes ulike verktøy både til analyse og korreksjon, så det er forskjeller. Men ikke av det slaget som gjør at den ene tilnærmingen er immun, mens den andre omtrent er en umulighet. Dere har skapt et kunstig skille mellom den type korreksjon som dere liker og den type dere ikke liker, og så opererer dere med hjemmestrikka forklaringer for å underbygge prinsipielle forskjeller som ikke eksisterer.
    Nå må du holde opp med stråmannsargumentasjonen din.

    Så du avviser at 3D-fenomener eksisterer? Kanskje du skal si noe om hvordan du løser problemene i stedet for å late som om de ikke er der?
     

    coolio

    Hi-Fi freak
    Ble medlem
    19.09.2015
    Innlegg
    5.487
    Antall liker
    5.460
    Sted
    Bergen
    Torget vurderinger
    2
    Jeg forstår knapt et kvekk. Men jeg forstår intellektuelt at det er et problem at vår sensitivitet for tidsdomenet (lokaliseringsevnen) er så god som den er når vi skal korrigere rommet. Men spørsmålet er stilt flere ganger uten å få noe svar, er ulempene med korrigering større enn fordelene relativt til et ukorrigert utgangspunkt?

    Her må vi se vekk ifra korreksjon av høyttalerne og direktelyden, alle er enige om at det er en fordel å tidskorrigere det.

    Ved hvilket tidsintervall begynner vi å være i stand til å skille to lyder fra hverandre? Eller er det variabelt etter db - forskjeller også?
     

    Olav2

    Hi-Fi freak
    Ble medlem
    07.04.2014
    Innlegg
    3.342
    Antall liker
    2.665
    Torget vurderinger
    1
    Forsøk på en oppsummering av posisjonene

    Ok, i likhet med Coolio forstår jeg veldig lite av dette. Når jeg står overfor en sånn situasjon i mitt faglige arbeid, prøver jeg ofte å sette meg ned og lage en oversikt over de ulike teoretiske posisjonene folk har. Hva mener de, og hvorfor? Her er hvordan jeg oppsummerer det så langt, der det går fra den mest restriktive posisjonen til den mest liberale. Skal oppdatere innlegget etter hvert som det blir klarere for meg. Som dere vil se er det ikke så alt for mye jeg har forstått.

    ******

    Posisjon 1: All romkorreksjon bør unngås
    Her på forumet blir dette hevdet av Orso. Årsaken er, såvidt jeg skjønt det, todelt. Argumentet er for det første at enhver romkorreksjon som prøver å kansellere ujevnheter i rommet vil innføre noe nytt i direktelyden - en slags "motlyd". Dette kan oppleves som artifakter som kan oppleves feil. Dernest er det noe med minimum fase. Dette har jeg ikke forstått helt ennå. I det hele tatt er "fase" innenfor lyd noe det er vanskelig å forstå.

    Posisjon 2: Det er ok å romkorrigere i frekvensdomenet
    Her på forumet blir dette hevdet av Snickers. Argumentet, såvidt jeg har skjønt det, at man bør unngå å rote med tids- og faseproblematikk, og unngå å prøve å kansellere refleksjoner som sådan. Men - hvis jeg skal bruke min enkle lekmanssforståelse - rommet kan forsterke visse frekvenser og svekke andre? Og dermed kan man bruke EQ for å motvirke dette. Hvis det er slik at rommet forsterker frekvensene rundt 200 hz feks, kan man senke de frekvensene litt, for slik å få en mer nøytral respons.

    Posisjon 3: Det kan utgjøre en netto forbedring å romkorrigere når det gjelder både frekvens- og fase
    Her på forumet blir dette hevdet av Bx, og av smarte Audiolense-brukere som TrompetN og OMF. Argumentet deres er at moderne romkorreksjons-produkter i stor grad tar hensyn til innvendingene, og lager et totalresultat som alt i alt er bedre. Dersom det genereres et "motsignal" for å korrigere for en ujevnhet, vil denne ofte være en del svakere enn direktelyden, noe som gjør at den ikke vil forstyrre det man hører. De hevder også at romkorreksjon bør gjøre forskjellige ting i de ulike frekvensområdene - lenger nede i frekvens kan man og bør man gjøre andre ting enn høyere opp i frekvens.

    *****

    Det var et lite forsøk på foreløpig oppsummering. Jeg er fortsatt forvirret. Jeg tror det ville vært nyttig for oss lekmannslyttere hvis dere som har satt dere inn i dette prøvde å gjøre det klart: Hvor er det dere er uenige om virkelighetsbeskrivelsen? Hvis man starter der, kan det nok bli lettere å diskutere hva korreksjon gjør og ikke gjør.

    Jeg skal prøve å oppdatere dette innlegget etter hvert som ting blir klarere for meg :)
     

    Bjørn ("Orso")

    Bransjeaktør
    Ble medlem
    03.11.2008
    Innlegg
    11.296
    Antall liker
    2.903
    Sted
    Bergen
    Torget vurderinger
    2
    Posisjon 1: All romkorreksjon bør unngås
    Her på forumet blir dette hevdet av Orso.
    Sukk. Det stemmer ikke. Jeg har sagt mange ganger hva som kan korrigeres av romrelaterte problemer. Både i denne diskusjonen og andre.
     

    Olav2

    Hi-Fi freak
    Ble medlem
    07.04.2014
    Innlegg
    3.342
    Antall liker
    2.665
    Torget vurderinger
    1
    Posisjon 1: All romkorreksjon bør unngås
    Her på forumet blir dette hevdet av Orso.
    Sukk. Det stemmer ikke. Jeg har sagt mange ganger hva som kan korrigeres av romrelaterte problemer. Både i denne diskusjonen og andre.
    Men der ser du... vi stakkars amatører forstår ikke dette! :)
    Det er rett og slett så mange tekniske begreper her at det går over hodet på meg, og jeg tror også en del andre. Se det som en utfordring, Orso... Hva er en pedagogisk måte å forklare det på?
    (så skal jeg oppdatere innlegget med korrigert informasjon)
     

    OMF

    Æresmedlem
    Ble medlem
    26.02.2002
    Innlegg
    16.134
    Antall liker
    9.261
    Sted
    Bergen
    Torget vurderinger
    14
    Kan noen forklare hva minimumfase egentlig er? Blir nok "litt" lettere å følge diskusjonen da :)

    Hilsen en som ikke vet, men bare vil lære...
    Jeg prøver meg, selv om jeg nok ikke har så godt kontroll på dette som jeg skulle ønske.

    For å si det veldig enkelt, så beskriver minimum fase et system som oppfører seg forutsigbart på en slik måte at eventuelle avvik lar seg korrigere ved å korrigere output med det inverterte av avviket.

    Veldig enkelt eksempel så vil et slikt system kunne beskrives ved:

    Høyttaleren spiller 10
    Men når man sitter i stolen så høre man 6 (altså et avvik på minus fire).
    Rommet/høyttaler gir dette avviket.
    Hvis man korrigerer ut signalet med det inverterte av avviket som blir pluss fire. (minus fire blir pluss fire invertert)
    Så vil høyttaleren spille 14 ut, og man hører i lytteposisjon 10 (Som er riktig).
    Et system hvor man kan gjøre en slik korreksjonon og denne korreksjonen blir riktig for alle gyldige input er et system i minimum fase.

    Uenigheten går ikke på hvordan et minimum fase system fungerer eller at en slik korreksjon er bra - diskusjonen går på hvor stor del av lydgjengivelsen som kan beskrives som et minimum fasesystem.


    Hvis høyttaleren har et eller annet avvik, som du kan måle så kan dette gjerne være et avvik som er minimum fase. Denne skavanken korrigerer du med en filter som legges oppå musikken, og ut fra høyttalerne så spilles musikken som om den ikke hadde avvik. Den finnes mange høyttaleravvik som heller ikke er minimumfase. Feks vil komprimering - at gjengivelsen endrer seg med nivå ikke være minimumfase -fordi du må korrigere på samme måte ved alle lydtrykk - og da blir det som er riktig på et lydnivå, feil på et annet.

    Og slik er også problemene med å korrigere for rommet.
    Siden vi har 2 ører (altså ikke lenger 1 punkt) og siden vi også gjerne vil kunne bevege oss litt i lytteposisjon så får vi et problem. Rommets påvirkning er ikke den samme i punkt A, B eller C. Men vi har bare mulighet til å gjøre en korreksjon - så velger vi å korrigere A, så blir det feil i poisjon B og C.


    Og her er det vel uenigheten ligger - hvor stor del av lyden kan få nytte av korrigering basert på minimum fase.
    Fra de som mener at det aldri kan bli riktig til de som mener at dette fungerer selv om ikke de teoretiske forutsetnignene er på plass.

    Også blir jo i grunn frontene langt mer steile enn nødvendig - uenigheten er ikke på langt nær så stor som man kan få inntrykk av.

    Siden det er Audiolense som diskuteres - så bruker den et variablet tidsvindu når den måler romresponsen - og den korrigerer kun det som den fanges opp i målingen. Jo lengre målevindu man har - jo mere rombidrag får man med seg inn i filteret, og jo mer prøver man å korrigere. Default verdiene, og de anbefalte målevinduene i Audiolense er så korte at for alle frekvenser over noen hundre hertz - så avsluttes målingen før refleksjoner fra sidevegg/gulv kommer frem, og man prøver på ingen måte å korrigere for rommet ved disse frekvensene.

    Så over la oss si 500 Hz - er det i grunn enighet om at den korreksjonen som Audiolense gjør er bra - da korrigerer den kun høyttalerne (Så er det jo et paradoks at dette er et av områdene det hevdes at man hører artefakter)

    Man har i grunn litt det samme i bassen (Under Schrøder) - feks under 100Hz - hvor vi ikke lengre kan oppfatte retningen til lydsignalene og bølgelengden begynner på bli så lange at vi kan bevege oss litt uten at responsen endres vesentlig. Da er vi også ganske nærme å oppfylle kriterinee for minimum fase - så her er det også relativt konsensus om at det Audiolense gjør er bra.

    Og da står vi igjen med lyden fra Schrøder frekvens og opp til den frekvens hvor de første refleksjonene fra gulv/vegg kommer inn i målingene. Nå er Audiolense et verktøy - så man kan legge sette tidsvinduer og justere på en slik måte at man ikke korrgierer noe annet en høyttalerne her også, og her har jo blant annet Trompeten skrevet litt om hvordan han jobber med å finstille korreksjonene slik at man finner beste balansen mellom å fjerne en uønsket relfeksjon samtidig som man innfører minst mulig korreksjonsfeil.

    Men - det fokuserer veldig mye på en av funksjonaliteten til Audiolense som er et av verktøyene i verktøykassen. Audiolense kan så vidt jeg forstår - brukes til å gjøre korrkesjon slik feks Orso og Snickers anbefaler også - det er bare å slå av litt funksjonalitet.

    Like fullt synes jeg at Bx sine kommentarer bør vektlegges ganske mye - han har jo holdt på med dette i 10 år, sett et uttall målinger, korreksjoner og fått feedback fra hundrevis av kunder på hva som fungerer og hva som ikke fungerer. Hvis brukerne med hundrevis av forskjellige rom, høyttalere, forsterkere og preferanser gjengs over hadde gitt tilbakemeldinger om at lyden ble best med kun frekvenskorreksjon - så vil jeg tro at Bx hadde anbefalt det. Siden Audiolense kan levere begge typer - så kan jeg ikke se at Bx har noe annet grunn til å argumenter for FIR korreksjon er at de fleste rapporterer at dette er det som fungerer best.


    Mvh
    OMF

    Edit: la litt mer tekst og korrigere en haug skrivefeil.
     
    Sist redigert:

    Olav2

    Hi-Fi freak
    Ble medlem
    07.04.2014
    Innlegg
    3.342
    Antall liker
    2.665
    Torget vurderinger
    1
    Takk OMF, helt glimrende forklart. Nå ble jeg litt klokere.
     

    Snickers-is

    Bransjeaktør
    Ble medlem
    05.02.2004
    Innlegg
    18.418
    Antall liker
    16.674
    Sted
    Østfold
    Også blir jo i grunn frontene langt mer steile enn nødvendig - uenigheten er ikke på langt nær så stor som man kan få inntrykk av.
    Jeg har ikke fått med meg hva uenigheten går ut på. Her er hva jeg har hevdet, og som Bx ikke har motsagt selv om han mener at jeg driver med stråmannstaktikk, ikke forstår det jeg uttaler meg om osv:

    1: FIR vs IIR er en ikkediskusjon. Det handler om hva man gjør med filtrene.
    2: Korreksjon av refleksjoner er ikke globale da de baserer seg på et krysningspunkt fast definert i 3D-rommet. Størrelsen på dette punktet er frekvensavhengig.
    3: Korreksjon av avvik i høyttalerens frekvensrespons kan gjøres 100%.
    4: Korreksjon av frekvensrespons i rommet vil være globale, men siden mange av avvikene ikke er globale vil det ikke dermed sagt bli riktig.
    5: Korreksjon av frekvensrespons i rommet fungerer dårlig om man gjør en 100% EQ-korreksjon. Da EQ-er man den initielle impulsen slik at den blir ikkeproporsjonal. En 50%-approach fungerer ofte bra.
    6: Smalbåndede diper preger lydbildet i begrenset grad. Man bør vurdere sterkt å la dem være da de tar av forsterkerens spenningssving.
    7: Når man kartlegger rommets egenskaper må man inkludere all den energien som påvirker oss og inkludere alt i søken etter trender.
    8: I et lite rom vil alle romresonansene som kan betraktes som tilnærmet globale rundt sweetspot i prinsippet kunne korrigeres ganske effektivt med en impulsresponskorreksjon. Imidlertid finnes det ingen god metode for å kartlegge disse forholdene på en slik måte at dataene automatisk kan legges til grunn for en impulsresponskorreksjon.
    9: Faselinjære filtre gir pre-ring.
    10: Hjernen vår forventer en viss grad av refleksjoner i et rom. Dersom refleksjonene er plagsomme betyr ikke det at man må bli kvitt alle refleksjonene, det betyr kun at man må finne ut hvilke som skaper signatur og behandle disse. Det er kun denne metoden som er global.

    Det er sikkert flere ting også, men så vidt jeg vet er alt dette temmelig ukontroversielt. Så vidt jeg har forstått er det vanligste problemet at man har mangelfull datainnsamling og upresis arbeidsmetodikk, ikke at man ikke vet om disse tingene.
     

    Bx

    Bransjeaktør
    Ble medlem
    04.08.2005
    Innlegg
    9.048
    Antall liker
    4.489
    Kan noen forklare hva minimumfase egentlig er? Blir nok "litt" lettere å følge diskusjonen da :)

    Hilsen en som ikke vet, men bare vil lære...
    Det er umulig å gi en presis forklaring uten å dra inn signalteori. 100% presis: En minimumfase impuls har alle påler og nuller innenfor enhetssirkelen (i z transformasjonen) Rimelig intetsigende med mindre man har ambisjoner om å fordype seg i DSP teori.

    Det finnes en rekke impulser som er forskjellig i tidsdomenet, men gir den samme frekvensresponsen (magnitude) Minimumfaseimpulsen er en spesialvariant med flere spesielle egenskaper. Den har den raskeste energiutladningen og den laveste group delay. Minimumfasepulser er kausale og stabile, og deres inverse er også kausal og stabil.

    Minimumfase filtre har gunstige matematiske egenskaper og gunstige lydmessige egenskaper. Det vanligste er å korrigere anlegget med minimumfase korreksjonsfiltre - uavhengig av fasegangen som skapes av høyttaler og rom.

    Alle impulsresponser (av rom og høyttalere) er kausale og stabile. De er også inverterbare. Men de er såkalt "mixed fase". Det betyr at de fleste frekvenser oppviser en minimumfase-oppførsel, mens noen få har nonminimumfase-egenskaper. Når man inverterer slike impulser får man en invers impuls som har en del akausale innslag. Det representerer noen ganger utfordringer i forhold til hørbare artifakter. Men når det fungerer, så rydder det opp i tidsdomenet på en måte som er umulig med ren minimumfasekorreksjon. Men det å jobbe med non-minimumfase korreksjon er betydelig mer utfordrende enn alternativet

    Jeg tror ikke det er mulig å fastslå at en impuls er minimumfase ved å studere selve pulsen, jamfør de to kurvene jeg postet lengre opp i tråden. Jeg tror også den lydmessige forskjellen på de to er ubetydelig jeg postet ovenfor er ubetydelig.
     

    Midas

    Bransjeaktør
    Ble medlem
    07.01.2015
    Innlegg
    1.061
    Antall liker
    772
    Sted
    Stavangerområdet
    Jeg følger denne tråden veldig nysgjerrig fra sidelinjen, og syns det er bra å gå litt teoretisk til verks. Matematisk beskrivelse er iallefall mer presis definisjon enn språk. Finnes det literatur på (digital) signalbehandling inn mot audio-applikasjoner ut over grunnkurs i signalbehandling som bl.a. drøfter disse temaene mer inngående? Det finnes mye litteratur som beskriver DSP-faget, men mindre om hvordan dette påvirker lydgjengivelse.

    Selv har jeg signalbehandling fra utdanning og jobbet med det i andre applikasjoner enn lyd på den ene siden, og har "sluttkundeerfaring" fra bruk av DSP til (pro) audiobruk i den andre. Jeg kan gjerne tenke meg styrke broen mellom disse to, og gjerne teknisk/teoretisk. Derfor følger jeg denne tråden med stor interesse.

    Vedrørende IIR, så er IIR veldig enkle filtre å lage og krever relativt lite prosesseringskraft. Videre kan alle fysiske delefilter kan realiseres identisk med IIR. Hvis man kan tåle fasedreiningen/gruppeforsinkelsen et slikt filter medfører, så er det ingenting galt med IIR. Derimot hvis premissene er at fasedreining er degraderende for lydgjengivelsen, så kan jeg skjønne at man ikke liker IIR. Et IIR vil være like ille som et fysisk realisert filter.

    Hvis jeg oppfattet diskusjonen over riktig så ble det uttalt at IIR ikke er egnet til lydprosessering. Hvorfor er det ikke det i så fall?

    PS! Heter det "påler" og "nuller" på norsk? Har alltid vært i engelskspråklige miljøer og har aldri kommet på å oversette dem. :)
     

    Snickers-is

    Bransjeaktør
    Ble medlem
    05.02.2004
    Innlegg
    18.418
    Antall liker
    16.674
    Sted
    Østfold
    Alle impulsresponser (av rom og høyttalere) er kausale
    Dersom du har en høyttaler, en mikrofon, og henter signalet fra mikrofonen, forsterker det og mater det inn i et par hodetelefoner, ja da stemmer det. Bytter man ut mikrofonen med et menneske blir det verre.
     
  • Laster inn…

Diskusjonstråd Se tråd i gallerivisning

  • Laster inn…
Topp Bunn