Jump to content

Hur vi hör musik


calle_jr

Recommended Posts

 

Hur vi hör musik

Text o bilder: Calle_jr      Malmö, februari 2020

 

När man sysslar med hifi och musik blir hur vi uppfattar ljud ett ständigt återkommande diskussionsämne. Hur något låter går ju att klarlägga hyfsat detaljerat, men hur vi uppfattar det är lite mer snårigt. I praktiken är det ena ganska meningslöst utan det andra. Vi ser mer eller mindre utsvävande detaljbeskrivningar om någon ny apparats egenskaper i fråga om klang, och det blir ofta ganska kryptiska framställningar vilket förvisso psykoakustiken innebär. Jag är själv en sådan typ att jag behöver utgå från vad det är för styrande mekanismer inblandat innan jag kan ta till mig en diskussion om abstrakta fenomen. Det blir alldeles för flummigt annars tycker jag. För att klargöra vilka dessa styrande mekanismer är får vi börja med att titta på två spegelvända kroppsdelar där en av dem ser ut såhär:

 

image.png

Bild: brainstuff.org


Att höra ljud innebär ju inte bara att avkoda en frekvensgång, utan en mängd komplexa parametrar som förvisso kan relateras till ljudets vågform, fas, amplitud och frekvensinnehåll. Den anatomi som är inblandad för den rent tekniska delen av hörselfunktionen består såklart av ett antal fler kroppsdelar. Vi behöver inte gå in på varje del i detalj, men i stora drag inkluderas:

 

  • Huvudet och dess form.
  • Ytterörat, vilket har som uppgift att samla upp ljudenergi och rikta den mot trumhinnan. Ytterörats form gör också att det förstärker frekvenser mellan 2-5kHz så att vi kan vara mer känsliga i talområdet, samt att öronformen selektivt filtrerar vissa frekvenser för att ge hjärnan signaler om varifrån ljudet kommer i höjdled (ytterörat strålar mer högfrekvent ljud från en upphöjd ljudkälla än från en som befinner sig rakt framför örat).
  • Mellanörat, som dels omvandlar luftljud till vätskeljud, dels via trumhinnan förstärker signalen 200 gånger. Om vi inte hade mellanörat så skulle 99% av luftljudet reflekteras bort. Vi hade varit döva.
  • Innerörat med hörselsnäckan (cochlea) som utför den känsliga och kanske mest fascinerande mekanoelektrokemiska omvandlingen från vibrationer till elektriska pulser via kemiska reaktioner.
  • Hörselnerven (den åttonde kranialnerven) som är ett anatomiskt signalkablage.
  • Oliven (superior olivary complex) som sitter i hjärnbryggan, är förbunden med lillhjärnan och är första samordnare av nervsignaler från både vänster och höger öra.
  • Hjärnans hörselcentra (temporalloben eller auditiva cortex) som tolkar nervsignalerna till vad vi kan kalla för tankar.

 

 

Här kommer en liten fördjupning angående hörselsnäckan, hörselnerven, oliven och hjärnans hörselcentra

 

 

Den engelske vetenskapsmannen James Beament skrev:

Quote

The cortex is so complex that the most we may ever hope for is to understand it in principle, since the evidence we already have suggests that no two cortices work in precisely the same way.

 

Bildresultat för James Beament

Omslaget till "The Violin Explained: Components, Mechanism, and Sound" av James Beament.

 

 

Vad är musik?

 

Musik är ljudkonst i tid, som uttrycker idéer och känslor i speciella former genom elementen melodi, harmoni, rytm och klang. Melodi är toner eller ljud som förekommer i en enda rad. Harmoni är toner som förekommer i flera rader. Rytm är känslan av rörelse av ljud i tid. Klang är karaktären hos en ton, ett instrument eller en röst som utgörs av sammansättningen av de olika medklingande övertonerna. 
Tonhöjd styr melodi och harmoni. Rytm innefattar begrepp som tempo, taktart och artikulering. Utöver detta innefattar musik elementen dynamik och de ljudmässiga egenskaperna av klang och textur eller det vi kallar klangfärg.

 

Hur svårt ska det vara att förklara en så enkel sak som vad musik är? Det kanske är enklare att beskriva vad som inte är musik? Ja, det är ju buller, dvs oönskat ljud. Men även bestående tystnad. Men är då fågelkvitter musik? Är ljudet av ett förbipasserande ånglok musik? Är ljudet av en ringklocka musik? Finns det musik i naturen?

John Cage skrev verket 4'33 där han drar denna fråga till sitt yttersta. Musikkännare delas i två läger huruvida det definitionsmässigt kan kallas musik eller ej. Beethovens Grosse Fuge Op. 133 betraktades som oljud när det först framfördes. Detta var ju inte hans avsikt, men han blev övertalad att ta bort det och ersatte det med ett allegro. Idag finns det en egen genre som spelar oväsen (noise) eller använder buller som instrument. Det finns många som njuter av detta, medan en del blir rentav provocerade. Inom hifi kanske vi gör det enkelt för oss genom att definiera musik som signal? Signalen innefattar brus och distorsion, som ju är buller :)

 

Man ser att inte ens programmaterialet går att betrakta som en konstant. Musiken fördelar oss i en svärm som visar hur olika våra hjärnor kommer processa vad vi hör.

 

Link to comment
Share on other sites

 

Innerörat med hörselsnäckan (Cochlea)

 

Hörselsnäckan (Cochlea) är en del av det inre örat och dess mekaniska respons ger oss många aspekter av vår otroligt känsliga och selektiva hörsel. Hörselsnäckan hos människan är ett spiralformat rör med tre vätskekammare (scala vestibuli, scala media och scala tympani) som löper längs den 35mm långa spiralformen. Scala tympani och scala media är åtskilda av flexibel mellanvägg (basilarmembranet) som har sin egen inre dynamik. 

 

En dispersiv ljudvåg, sammansatt av alla frekvenser, kan fortplanta sig längs hörselsnäckan på grund av samspelet mellan vätskans tröghet och mellanväggens dynamik. På mellanväggen sitter ca 12000 yttre hårceller (stereocilier) i buntar. Dessa "stavar" har olika strukturer på µm- och nm-nivå, och fungerar både som rörelsesensorer och -aktorer:

 

image.png

Innerörats struktur med olika förstoring:

A) Innerörat sitter i tinningbenet.

B) Genomskärning av hörselsnäckan, med vätskekamrarna som separeras av basilarmembranet.

C) En bunt hörselceller (stereocilia) som är de mekaniska receptorer som känner av nivå och frekvens.

D) På molekulär nivå ser man kopplingarna mellan stereocilia.

 

 

Den lokala återkopplingen av alla dessa celler förstärker rörelsen i innerörat med mer än 40 dB vid låga ljudtryck. Återkopplingskretsen blir mättad vid högre ljudtryck, så att återkopplingsförstärkningen reduceras, vilket leder till en komprimering av dynamikomfånget i "hörselsnäcksförstärkaren". Våra sensoriska hårceller har bara ca 30 dB dynamikomfång, så denna förstärkare hjälper sensorerna att svara på ljud inom mer än 120 dB dynamikomfång. Den aktiva och icke-linjära dynamiken i hörselsnäckan ger även upphov till ett antal andra fenomen, till exempel otoakustiska emissioner.

 

 

image.png
Hårcellen som en elektromekanisk transducer.
A och B) När en hörselhårbunt deformeras öppnas kanaler för att positiva joner nära toppen av stereocilian ska kunna flöda in i hårcellen längs en elektrokemisk gradient. Denna avpolarisering får spänningsstyrda Ca2+-kanaler i cellen att öppnas, vilket frigör signalsubstans till hörselnerven.
C) Spänningsnivåer som genereras av en enskild hårcell som exiterats med rena toner. Notera att spänningarna följer vågformen av exciteringen för lägre frekvenser (<1kHz), medan det skapas en DC-offset för högre frekvenser.
Bild: "Hair Cells and the Mechanoelectrical Transduction of Sound Waves" Purves D, Augustine GJ, Fitzpatrick D, et al.

 

 

Hårcellsbunten rör sig ca 0.3 nm vid hörtröskeln, dvs vi pratar om rörelser på atomnivå. Max potentialskillnad över membranet är hela 125mV, och utan att fördjupa oss i elektrokemi är de kemiska processerna kort sagt supersnabba.

 

Stephen J Elliott och Christopher A Shera har byggt en mikromekanisk modell av hörselsnäckan som en smart struktur med en förenklad vågmodell för att studera den olinjära dynamiken. Modellen kan användas för att beskriva rörelsemönstret längs hörselsnäckan både vid höga och låga ljudtryck, men även när den är passiv. Elliott och Shera började med att utveckla en lumpad parametermodell, för att få koll på de mekaniska egenskaperna hos delkomponenterna dvs membran, hårceller, vätskor mm.
 

image.png

I en lumpad parametermodell utgick Elliott och Shera från de styrande parametrar som illustreras i vänstra figuren:

BM: Basilar membrane, OHC: Outer Hair Cells, RL: Reticular Lamina, TM: Tectorial Membrane

Den mellersta figuren visar hur dessa komponenter antas förskjutas i förhpållande till varandra. Basilarmembranet BM drivs både av tryckskillnad i vätskorna och kraft pga hårcellerna OHC. Tektormembranet TM förskjuts pga hårcellerna via retikulärmembranet RL. Denna modell kan ritas om till en ekvivalentmodell så som visas i den högra figuren.

 

 

Genom att dela upp hörselsnäckan i ett finit antal element kan de sätta upp ekvationer som beskriver mikromekaniken och vätskekopplingen för varje element. Därefter kombineras ekvationerna till matriser som beskriver hela den kopplade responsen, ungefär som en transmission line.

Modellerna används för att testa (bevisa, motbevisa, illustrera) hur väl vi tror vi förstår de fysikaliska processerna för hur vi hör. Modellerna anpassas beroende på exakt vad det är man vill studera. Vågmodeller, till exempel, är bra för att beskriva det globala betéendet för vågrörelsen i hörselsnäckan utan att gå för djupt in på hur själva vågrörelsen blir till.

 

 

image.png

Longitudinell modell av hörselsnäckan med feedback representerad av styvheter, kL, och dämpare, cL. Bild: Yoon et al. 2011.

 

 

Kolston & Ashmore och Givelberg & Bunn är andra duos som byggt liknande modeller, och där man använder precis samma metodik för andra delar av örat, och kopplar ihop dessa till mer kompletta modeller. Här är ett exempel:

 

image.png

Finita Elementmodell av hörselsnäckan. Flera yttre delar av modellen är ”nedsläckta” för att man ska kunna se detaljer. Bild: Journal of Computational Physics, 191, Givelberg and Bunn.

 

 

Här är en ännu mer komplett men mindre detaljerad modell av Xiao-ping Jiang och Cheng-hua Li som är byggd i Nastran:

image.png

 

 

 

På ett sätt kan man säga att vi har en diskret hörsel. Den är högupplöst men alltså inte oändligt högupplöst eftersom det finns ett ändligt antal hårceller. Omfånget är nästan tio oktaver eller mellan 20-20000 Hz hos en ung människa, och upplösningen är 1/230-dels oktav (dvs ca 3Hz vid 1kHz). Hörselsnäckan kan avkoda akustiska tryck som varierar från 20 µPa till 20 Pa (dvs 0 till 120dB SPL).

 

Hårceller kan omvandla förskjutningar i stereocilia-buntarna till elektrisk spänning på 10 µs. De behöver vara så snabba för att kunna lokalisera var ljudet kommer ifrån. En så hög tidsupplösning ställer höga krav på transducern rent mekaniskt. Det kanske är detta som är utmaningen att matcha med hifi?

 

 

image.png

 

 

Basilarmembranet är det membran som exciterar våra hörselceller med inkommande ljudenergi. Vibrationerna från trumhinnan skapar en vågutbredning i snäckvätskan som sedan exciterar membranet. Nedanstående figur visar hur membranet ser ut om man skulle veckla ut det. Membranet har olika bredd och styvhet längs sin längd, vilket får som effekt att det vibrerar med olika amplitud på olika ställen beroende på vilken frekvenssammansättning vågutbredningen har. Membranets lägsta resonansfrekvens varierar alltså längs dess längd.

 

image.png

 

Responsen i basilarmembranet kommer av en framåtpropagerande våg som genereras när trumhinnan exciterar vätskan i scala tympani vars tröghet samverkar med basilarmembranets styvhet. Vågamplituden ökar gradvis till ett peakvärde vid ett specifikt ställe längs membranet som illustrerades i figuren ovan, för att därefter snabbt avklinga. Förskjutningen image.png hos basilarmembranet för en ren ton kan beskrivas:

 

image.png

 

där image.png är vågnummer, image.png är vågens amplitud vid basen, image.png är den pådrivande frekvensen. image.png är en faktor för att bevara energin när vågnumret ändras med image.png. Integralen styr förluster när vågen propagerar längs membranet. Så snart en ton har exciterat hörselceller på ett ställe längs membranet så dämpas tonen bort.

 

Den ovan beskrivna funktionen benämns platsteorin och tillskrivs Hermann von Helmholtz. Som syns verkar den vara märkbart trubbig med tanke på hur säker människan är på att identifiera ljud med mycket hög precision. Även om max amplitud exciterar på precis rätt ställe i membranet, så kommer hörselceller en bra bit över och under aktuell frekvens också att avfyra nervpulser. Det verkar helt enkelt ganska trubbigt.


Det finns således en annan teori, lanserad av August Seebeck, som kallas temporalteorin. Den bygger på att takten som nervpulser avfyras bestäms av det frekvensinnehåll ljudet har, dvs att tiden mellan nervpulser är densamma som periodtiden hos en ton.


Temporalteorin har vidareutvecklats av Ernest Wever till vad som kallas volleyteorin, och beskriver att ett gäng nervceller kan samverka och tillsammans skapa den takt som motsvarar frekvensinnehållet i en ton:


image.png

Bildbeskrivning av volleyteorin baserad på illustration av Rachel Candace Law, Georgia Institute of Technology

 

Idag är man ganska överens om att båda dessa teorier samverkar och kompletterar varandra till en mer exakt bestämning av örats respons. Man anser också att lägre frekvenser (under ca 1kHz) främst bestäms av volleyteorin, och högre frekvenser (över ca 5kHz) främst bestäms av platsteorin. Däremellan samverkar funktionerna så att hörselcentra kan använda "data" från basilarmembranet både vad gäller läge på membranet (plats) och nervpulsernas takt (frekvens).

 

Ohm's andra lag (Ohm's Acoustic Law) är relativt överskuggad hans första lag om sambandet mellan spänning, ström och resistans. Men det var Georg Ohm som först formulerade att vår hörsel tolkar ett sammansatt ljud genom att generera nervpulser för de ingående rena tonerna. Han såg det som en fourieranalys :D, så om vi hör ett orkesterverk så delar hörsnäckan upp det sammansatta ljudet och skickar det som rena toner till hjärnan. Det är inte helt trovärdigt (och ett väldigt tekniskt betrakelsesätt), men det är inte fel heller. Hermann von Helmholtz stod bakom och vidareutvecklade Ohms formuleringar. Det var mycket liv kring detta och August Seebeck motbevisade Ohm med sina egna temporalteorier. Denna regelrätta strid var så ihärdig att Georg Ohm fick lämna hela forskningsområdet kring hörsel.

 

 

Om man gör en extrem idealisering kan man förklara hörselcellernas funktion såhär:

 

image.png

 

Basilarmembranet vibrerar som en vågrörelse med alla de frekvenser som ljudtrycket från mellan- och ytterörat transporterat dit. Nära "ingången" till hörselsnäckan i innerörat har hörselcellerna en massa-styvhet-dämpare som exciteras (resonans) för höga frekvenser (ca 20kHz), och ju längre in längs basilarmembranet desto lägre frekvenser exciterar hörselceller som då har massa-styvhet-dämpar-egenskaper som avpassas för att ge resonans för låga frekvenser (ner till ca 20Hz). Både styvhet (k) och dämpning (c) modelleras som olinjär eftersom hörseln har visat sig vara det. I samband med att en ton (vibration) exciterar en hörselcell genereras en elektrisk nervpuls till hjärnan från den hörselcellen. Samtidigt dämpas tonen ut av samma hörselcell, så att endast toner med lägre frekvensinnehåll propagerar (fortplantas) vidare längs basilarmembranet.
 

 

 

En fysiologisk hörselmodell kan beskrivas med tre steg. Första steget representerar ytter- och mellanörat där ljudtryck konverteras till en hastighet hos ovala fönstret. Ovala fönstret är kopplat till ett andrasteg som med hörselsnäckans “frekvensurval” exciterar basilarmembranet. Det tredje steget konverterar basilarmembranets mekaniska rörelser till spänning i hörselcellerna. De styrande sambanden baseras på Newtons rörelseekvationer:


image.png

 

där image.png är massmatris, image.png är styvhetsmatris, image.png är förskjutning, image.png är acceleration, image.png är trycket i vätskekamrarna som driver hårcellerna till rörelse och image.png är en kopplingsmatris.


Vi rekapitulerar till anatomin i hörselsnäckan:

 

image.png
Bild baserad på "MEMS Thin Film Piezoelectric Acoustic Transducer For Cochlear Implant Applications" av Bedirhan Ilik

 

Om vi antar att scala tympani är referens (0mV), så är det en potentialskillnad mellan hårcellerna (-60mV), scala media (+80mV) och scala vestibuli (0mV).

 

image.png

 

Om vi tänker oss att veckla ut hörselsnäckan för att det blir enklare att illustrera, och skivar upp den som ett bröd med N styck skivor.  Ena änden av brödet är basen vid ovala fönstret, och andra änden är apex. Varje skiva har sex mekaniska komponenter i sitt plan, och fem komponenter i snäckans längsled:

 

image.png

 

Med den här idealiseringen är det mycket praktiskt och överskådligt att bygga en modell baserad på rörelseekvationerna ovan.

 

Eftersom det här, liksom en mikrofon, pickup eller högtalare, finns en övergång från mekaniska storheter till elektriska, så används analogier för att beskriva de mekaniska komponenterna som elektriska. Den idealiserade modellen är ofta använd inom forskningen för en rad olika studier av hörseln och hörselskador, och David Streliof har tagit fram parametervärden för delkomponenterna.
 

Modelleringen är i mycket stor utsträckning beroende på tillgängliga data, men materialegenskaper för en del komponenter i snäckan är mycket svåra eller omöjliga att få fram, precis som med hifi. Antaganden och anpassning av data används i stor utsträckning, precis som med hifi. När man kommer in på mikrodetaljer är egenskaperna i stor utsträckning empiriska vilket gör en del fenomen svåra att validera, precis som med hifi.
 

:)

 

 

 

 

Link to comment
Share on other sites

 

Hörselnerven (Åttonde Kranialnerven)

 

Hur fel det än må vara kan vi betrakta nervtrådar som signalkablar. Hörselnerven består av 30000 nervfibrer, som i sin tur består av kroppens kanske viktigaste komponent - nervceller. När hårcellerna i hörselsnäckan frigör signalsubstans (som beskrivits ovan) så skapas nervimpulser i nervceller som sitter i nervfibrer i hörselnerven.

 

image.png
Bild baserad på "Från Topp Till Tå" av Moa Wikner.

 

Hörselnervceller är en elektrokemisk celltyp som sitter samlade i fibrer i hörselnerven och som ansvarar för mottagande och överföring av nervimpulser. En synaps är en koppling mellan två nervceller eller mellan en nervcell och en målcell. Information från en synaps överförs genom att signalsubstans frisläpps från ena sidan (presynaptiska terminalen) och genom diffusion når den andra sidan (postsynaptiska nervcellen). När signalsubstans binder till en receptor på den postsynaptiska cellen förändras membranpotentialen, vilket alstrar en aktionspotential, och det är aktionspotentialer som överför signalen genom nervcellen. Hörselnerven skickar de elektriska signalerna till hörselcentrat i hjärnan.


En sak som är mycket intressant med hörselsnäckans funktion är att det finns en tydlig skillnad mellan hur låg- och högfrekvent ljud omvandlas till elektrisk signal. Som vi ser i den tredje bilden med beteckningen (C) så följer den elektriska signalen helt och hållet den mekaniska upp till ca 3kHz. Dvs hörseln har en ren elektromekanisk transducer (om än inte linjär) upp till 3kHz, så att spänningen varje tidsenhet är proportionell mot vibrationens hastighet, image.png.  
Men hur fungerar det över 3kHz?
Där verkar det som att enbart läget för hörselcellerna längs basilarmambranet är styrande. När högfrekvent ljud exciterar hörselnerver som är placerade på ett specifikt ställe (motsvarande frekvensinnehållet), så vet hörselcentra vilket nervknippe ljudet kommer ifrån och således vilket frekvensinnehåll det har. Hörselnerven har så kallade tuning curves, dvs "dedikerade signalkablar" för frekvenser över 3kHz. Nivån på signalen registreras fortfarande mekaniskt, men det är alltså en DC-signal.

 

Det innebär att vi har ännu en (anatomisk) skillnad i hörseln förutom frekvensgång, nivå och soundstage - Vi avkodar ljud under 3kHz på ett sätt (direkt transducer) och ljud över 3kHz på ett helt annat sätt (indirekt transducer)!

 

 

Link to comment
Share on other sites

 

Oliven (Superior Olivary Complex)

 

Vi använder två strategier för att lokalisera ljudkällor i horisontalled. För frekvenser under 3kHz använder vi tidsdifferensen mellan vänster och höger öras signaler. Över 3kHz använder vi skillnaden i ljudintensitet mellan höger- och vänsterörats signaler.

 

Den största tidsskillnaden mellan vänster och höger öra som är "fysisk möjlig" är ca 700µs om ljudet kommer rakt mot ena örat (avståndet mellan öronen / ljudets hastighet i luft = 0,25/343). Men tester har visat att vi kan detektera så små skillnader som 10µs, vilket innebär att vi kan detektera ljudkällor som avviker ca 1 grad i vinkel från varandra.

 

Det är det centra i härnbryggan som kallas oliven, och mer specifikt MSO (Medial Superior Olive), som beräknar tidsskillnaden mellan nervpulser från vänster och höger hörselsnäcka. Jag vet inte varför, men nervcellerna i oliven sitter omvänt, se figur nedan. Nervcell A är mest känslig för ljud som kommer från höger, och nervcell E är mest känslig för ljud från vänster.

 

 

image.png

 

 

Denna beräkning av tidsskillnad fungerar som sagt bara för frekvenser under ca 3kHz. Vid ca 2kHz och uppåt börjar huvudets form skugga eftersom så korta våglängder inte kan ta sig runt huvudet.

Men huvudets skuggning innebär att ljudintensiteten från en ljudkälla är lägre till vänster eller höger öra. Denna skillnad i ljudintensitet registreras i LSO (Lateral Superior Olive). På samma sätt som skillnaden i tid beräknar hjärnan skillnaden i intensitet i nervceller i LSO, och omvandlar denna information till en positionering av högfrekvent ljud.

 

image.png

Bild baserad på illustration i "Fundamental Neuroscience for Basic and Clinical Applications" av C.K. Henkel
 

 

Man kan säga att de fyra oliverna (två per sida) är hörselprocessorer som sitter mellan hörselnervens koppling till hjärnan (cochlear nucleus) och ett relä som kallas laterala knäkroppen (geniculate body) innan den färdigprocessade signalen når hjärnans hörselcentra (auditiva cortex) i form av nervpulser för att där koordinera känslor, reflexer och instruktioner.

Längs hörselnerven, mellan oliverna och laterala knäkroppen, sitter även lemniscus lateralis och inferior colliculus.

Vilken funktion lemniscus lateralis har är inte helt känd. Man vet att den har hög tidsupplösning jämfört med andra celler, och den verkar vara inblandad i vår skrämselreflex.

Inferior colliculus (latin för "lägre backe") verkar vara central för koordinering och integrering av lägesbestämning av ljudkällor.
Man ska inte vara säker på att alla dessa "undercentraler" används eller behövs. En del funktioner kan ha ersatts av evolutionen men lämnat kvar en slags inaktiv materia. Det verkar nästan så.

 

Link to comment
Share on other sites

 

Hjärnans hörselcentra (Temporalloben eller Auditiva Cortex)

 

Hörselcentrat (temporalloben eller auditiva cortex) är placerat i temporalloben och har två huvudsakliga delar för signalprocess. En finlirsdel som kallas primär (primära auditiva cortex), som är uppbyggd som en exakt "tonotopisk karta" av hörselsnäckan, så att de elektriska signaler som kommer från tex "500Hz-punkten" i hörselsnäckan också anländer på en 500Hz-punkt i primära hörselcentrat. En sekundär del av hörselcentrat (sekundära auditiva cortex) får en mer diffus input från hörselsnäckan och har en mindre precis tonotopisk uppbyggnad.



image.png
 

Hjärnan sedd i genomskärning uppifrån, med principskiss av hörselcentra. Bild baserad på "Neuroscience, 3rd edition" Dale Purves et al.

 


Det verkar som att primära hörselcentrat har en med kvalitativ uppgift som att bestämma exakt frekvensinnehåll, lokalisering etc, medan sekundära centrat fångar den komplexa helheten.

 

En annan sak är att man redan på 1700-talet upptäckte att om man spelar par av rena toner, så hörs även andra toner. Exvis Giuseppe Tartini utnyttjade detta för att förstärka harmonin i ett ackord. Jag sätter inte apostrofer omkring "hörs", eftersom vi defakto hör dessa toner. Om man spelar en frekvens image.png och en frekvens image.png, så kommer man även höra image.png, där image.png och image.png är heltal. Detta beror på att när man spelar image.png och image.png, så kommer basilarmembranet inte bara vibrera för image.png och image.png, utan även för image.png. Detta är alltså ren distorsion i vår hörsel, och det är "priset" vi får betala för den extremt snabba och finkänsliga mekaniken i transducern i innerörat. Det finns även ett fenomen där lågfrekvent distorsion skapas genom differenstoner, dvs image.png, på samma sätt som orgelbyggare använder där skillnaden mellan två mindre pipor skapar en lågfrekvent ton som skulle kräva en mycket större pipa.

 

 

Tartinis Devil's Trill spelad av Anne-Sophie Mutter

 

Link to comment
Share on other sites

 

Well, hur hör vi musik då då?

 

Det finns ofantligt många aspekter kring hur vi hör. Beskrivningarna ovan avslutas med nervsignaler, och det förklarar långt ifrån hela funktionen med hur vi hör. De flesta av våra sinnen är sammanflätade och påverkar varandra. För att bara ta ett par exempel kan musik ge oss gåshud (håren på armarna reser sig vilket är ganska sjukt), eller så får den oss att spy vilket väl är en extrem reaktion.

 

Timbre solfège och det klingande gehöret har kategoriserats åtminstone sedan 1000-talet. Do-Re-Mi-Fa-Sol-La-Ti kommer från Guido d’Arezzos hymn om Johannes döparen. På den tiden var det enbart för att kunna notera och lära ut musik, men det hänger starkt ihop med hur vi ljudar och således hur vi hör.

 

Profilo storico e significato dell'esacordo

Italienaren Guido d’Arezzo. Bild: www.notetralerighe.it

 

Det finns en hel del forskning kring hur vi hör, och olika modeller tillämpas för att särskilja egenskaperna i vad man kan kalla hörselbilden - auditory image. Hörselbilden är en psykologisk representation av ett ljud. En enda hörselbild kan analyseras av en lyssnare som fokuserar på de individuella förnimmelserna eller detaljerna i ljudet. Tomasz Letowski har sammanställt en hierarkisk beskrivning av denna hörselbild. På grövsta nivå delar vi upplevelsen i klang (timbre) och rymd (spaciousness). När hjärnan delar upp dessa i olika lager kan vi särskilja mer och mer detaljerade egenskaper. Tex kan en lyssnare detaljera rymd i egenskaper som perspektiv, panorama, ambiens och närvaro. Letowski har föreslaget en sådan uppdelning i vad han kallar MURAL - MUltilevel auditoRy Assessment Language;

 

image.png

Bild baserad på Letowski, 1989.

 

 

Leo Beranek gjorde ett jättearbete med att kategorisera subjektiva egenskaper och psykologiska variabler till fysiska variabler för hur det låter i en konsertsal. Detta genom en matematisk formulering som beskriver en sals intimitet, livlighet, värme, direktljudets styrka, efterklangens styrka, definition, tydlighet, briljans, diffusion, balans, homogenitet, ensemble, attack, konsistens, frihet från eko, frihet från buller, dynamikomfång och tonal kvalitet.

 

I AES20-1996 (subjective evaluation of loudspeakers) anges ett testformulär för utvärdering av ett (högtalar)system i ett lyssningsrum;

 

EDA420F5-D220-43F6-9BBE-3912DA9F7CD6.jpeg
Bild: Annex C i AES20-1996

 

Jag tycker att systemen både från Letowski, Beranek och AES är bra eftersom de kompletterar varandra. Exvis har AES med image stability som utvärderingsparameter, en viktig egenskap kopplad specifikt till hifi osv. Att beskriva hur det låter i ett lyssningsrum eller i en konsertsal är på ett sätt samma sak som att beskriva en hörselbild, men med den stora skillnaden att man tillskriver rummet, systemet eller en komponent egenskaper snarare än att beskriva sig själv :)

Jag ser inga problem med det, eftersom för oss som läser här är det i första hand system eller komponenter vi vill utvärdera snarare än oss själva. Men det kan vara bra att ha i åtanke att dessa hänger ihop - vi är en del av systemet. Då blir det ganska tydligt att utvärderingar är i högsta grad subjektiva.

 

Här är en inspelning av Evelyn Glennie, som gör konserter worldwide trots att hon varit döv sedan hon var barn.

 

 

 

Beethoven var döv under större delen av sin tid som kompositör. Från hans brev till nära vänner (översatt ty-->eng):

"... It is curious that in conversation there are people who do not notice my condition at all; since I have generally been absent-minded, they account for it in that way. Often I can scarcely hear someone speaking softly, the tones yes, but not the words. However, as soon as anyone shouts it becomes intolerable..." "

... My hearing has grown steadily worse over the last three years, which was said to be caused by the condition of my belly..."

"... For two years I have avoided almost all social gatherings because it is impossible for me to say to people "I am deaf". If I belonged to any other profession it would be easier, but in my profession it is a frightful state..."

 

Man vet inte säkert vad som orsakade Beethovens gradvisa hörselnedsättning. Baserat på brev där han själv beskriver sina symptom och behandlingar av olika läkare så tyder det på otoskleros. Av någon anledning, möjligen ärftlig, förtjockas benet kring ovala fönstret och stigbygeln växer fast i detta. Stigbygeln kan därmed inte längre leda ljudet vidare från trumhinnan till hörselsnäckan. I vissa fall kan det botas med stapedektomi, dvs man byter ut stigbygeln mot en protes. Trots otaliga försök hade Beethoven såklart inte en chans till vettig behandling i början av 1800-talet.

 

 

Är det larvigt att spela luftgitarr?

 

image.png

 

Om man nu går vidare kring vad som händer efter avkodningen som görs i auditiva cortex så blir det både stort, komplext och lite flummigt eftersom det är oklart (åtminstone för mig) vad som är klarlagt. Men några grundläggande saker inträffar, och som verkar hänga ihop med vår evolution som människor.

 

En del av oss stampar takten, en del viftar med en osynlig trumstock, andra imiterar att de är dirigent eller pianosolist, och vissa spelar luftgitarr. Det kan verka lite larvigt kanske och det kanske är något man mest gör i sin ensamhet. Men det är inte alls larvigt.


All kommunikation bygger på att man imiterar den man kommunicerar med, för att hjälpa hjärnan att förstå vad personen menar. Om du ser någon som gapar, ler eller gör en min så är det lätt att du också gapar, ler eller gör en sådan min själv. En del rör på munnen och följer någons tal ord för ord, speciellt om det är något spektakulärt.

 

Man har visat att en person som ser och/eller hör en annan person avfyrar samma typ av nervpulser som personen. När någon ler så triggas samma nervpulser i den som ser leendet som hos den som ler. När en pianist spelar så triggas samma muskelnervceller hos lyssnaren som hos den som spelar. Det verkar inte spela någon roll om man kan spela gitarr eller inte, samma nervpulser avfyras hos lyssnaren. 

 

Människan har "spegelnervceller" (mirror neurons) som avger nervimpulser både när en person utför en viss handling och när en person ser samma handling utföras av en annan person. På det viset "speglar" nervcellerna beteendet hos en annan individ som om observatören själv utförde det. Nervceller med den funktionen finns hos många djur och människor. Det är väldigt tydligt hos en flock djur (apor, rådjur, fåglar, fiskar) där en i flocken reagerar på något och blixtsnabbt reagerar allihop. Hos människor har dessa nervceller hittats i Brocas område i pannloben och i undre halvan av hjässloben (lobulus parietalis inferior).

 

Man kan se det som att när vi lyssnar på musik, så spelar vi med bandet. Vi är såklart usla musikanter i jämförelse, men mentalt för oss själva så får vi samma upplevelse som att kommunicera musikaliskt med bandet.

 

image.png

 

 

Vi ser oss själva som individer, men allt detta tyder på att vi är sammankopplade ända in på cellnivå. Inte bara som en påhittad känsla utan helt fysiskt (om vi inkluderar eter som varande fysisk). Om någon i din närhet skär sig på en kniv, så "känner" du den personens smärta. Gränsen mellan vad två eller flera personer gör när de interagerar är flytande, inte bara på ett flummigt plan utan även på ett konkret biologiskt plan. 

 

Detta medför naturligtvis att hur musik är uppbyggd påverkar oss helt fundamentalt; om det är en dödsmässa eller en glad trudelutt triggar helt olika nervbanor.

Om man frågar så är det många som svarar "jag lyssnar på all sorts musik". Jag gillar inte det svaret riktigt eftersom det antagligen inte är sant. Man kan inte rimligen gilla all sorts musik eftersom den är diametralt olika. Jag tror inte att man kan gilla både John Cage och Justin Bieber, åtminstone inte samtidigt.

Men vi tolkar vad vi hör på två i huvudsak skilda sätt; vi kan uppfatta musik och vi kan känna musik. Det innebär att vi kan förstå ett musikstycke utan att defakto känna det, och det är därför vi kan gilla sorgsen musik. Man behöver inte vara sadist för att uppskatta en dödsmässa.

Vi känner inte riktig rädsla eller hot när vi lyssnar på Black Sabbath, vi bara relaterar till den, uppfattar den. Vi känner inte på riktigt utan det är s.k. vikarierande känslor, dvs en slags empati. Jämför med när en människa rodnar och skäms bara genom att t.ex se något på TV, trots att de inte är det minsta inblandade och än mindre kan hållas ansvariga för det. En del människor (kvinnor?) tycks ha en starkare sådan egenskap än andra (män?).

 

Det medför också att vår hjärna prioriterar det ljudomfång som vi själva (som individer) kan producera. Hörselorganen och hjärnan har utvecklats för att uppfatta små subtila nyanser inom det ljudomfånget, och vi hör mindre av eller inte alls utanför det omfånget. Helt uppenbart hör vi inte utanför frekvenserna 20-20000 Hz, men det finns även andra aspekter i ljud som vi varit inne på med övertoner, harmonier etc, och för att inte tala om vad vi uppfattar som musik till skillnad från buller.

Introduktionen av elektriskt förstärkt och senare syntetisk musik under andra halvan av 1900-talet har garanterat påverkat hur vi lyssnar och uppfattar musik.

 

Christopher Hitchens hade en teori om varför han inte kunde skriva romaner eller åtminstone noveller. Allt han skrivit är reportage, biografier och extremt faktaspäckade teorier om allt från ondskans axelmakter till Kissinger, Bill Clinton och Moder Teresa. Flera av hans nära vänner skriver romaner, och det som skiljer dem åt är musik. Hitchens har försökt otaliga gånger, men menade att han inte hade "genen", och att det beror på musik. Han fick inte ut något av musik, han var inte musikalisk, kunde inte spela och förstod inte musik. De författarvänner han refererar till som skrev romaner var musikintresserade, spelade instrument eller musicerade på annat sätt.

George Orwell var inte heller intresserad av musik, även om man skulle tänka sig det från en del av handlingen i 1984.

 

Bildresultat för christopher hitchens image.png

Christopher Hitchens (1949-2011) och George Orwell (1903-1950)

 

 

Tankar

 

Biasering diskuteras ofta vid jämförelser, tester och utvärderingar. Med biasering avser man då tankepåverkan genom reklam, förutfattade meningar, pris, grupptryck etc. Det är väl en sak, men man har inte en "ren miljö" bara för att man eliminerar dessa. Vi är och blir även biaserade på andra sätt.

 

För att bli lite tekniska igen så kan vi backa till att slutprodukten i hjärnans hörselcentra då alltså är vad vi kallar tankar :)

Med tankar avses vårt medvetande, våra föreställningar och de mönster med vilka vi uppfattar och svarar på omvärlden. En tanke är ett försök från hjärnan att förutspå sin omgivning - en processplanering om vad konsekvenserna kommer att bli om den låter det ena eller andra knippet av processer att inledas. Våra tankar är präglade men de är också dynamiska, de kan förändras om de påverkas. Vår hjärna är ständigt föränderlig, plastisk, det vill säga vi bygger om hjärnan med tankarnas hjälp. En skadad hjärna omorganiserar sig själv så att andra delar kan ersätta den skadade delen, och hjärnan kan producera nya hjärnceller. Man kan dra om sina hjärnbanor genom att träna sig på att ta sig ur och in i olika "stämningar". En tanke ger upphov till en nervbana och när man ändrar sina tankar så bygger man om kretsen. Eftersom "vad vi hör" i slutändan är tankar så inser man att "vad vi hör" är en helt individuell ögonblicksbild.

 

Eric Kandel, Nobelpristagare i medicin, visade att vi enbart med våra tankar kan förändra hjärnans struktur. Hjärnan har över hundra miljarder nervceller, och den kan skapa nya banor genom att blockera befintliga nervbanor, lyfta fram alternativa banor och utveckla nya. Och allt detta styrs av våra tankar. För bara genom att tänka, slås gener på som gör att det bildas nya nervbanor och synapser i hjärnan. Det bildas bland annat NGF, en nervtillväxtfaktor som gör att nerverna ”groddar” och skjuter ut en massa nya skott. Hjärnan är en stor lagringscentral där minnena sitter lagrade i ett nätverk. Aktiverar man en tråd kommer det samtidigt att aktivera en rad andra trådar, dvs aktivera en rad andra minnen.

 

image.png

 

 

Så, för att inte bli för långrandig vill jag redogöra för mina slutsatser;

  • Det du hör är sannolikt inte samma sak som det jag hör.
  • Det du hörde igår är sannolikt inte detsamma som det du hör idag.
  • Det är ytterst troligt att man kan utveckla sig till en bättre lyssnare. Det finns antagligen ingen övre gräns för hur skicklig man kan bli.
  • Testning av produkter är en bedräglig verksamhet. Man har helt olika nervbanor aktiverade när man lyssnar kritiskt (bedömande) jämfört med när man lyssnar för nöjes skull.

 

Vi är många som redan känner till detta, men jag tänker att det kan vara nyttigt att visa hyfsat tydliga belägg så att vi tar mindre lätt på det.

Hoppas detta ger en del att fundera på när det gäller möjligheten att träna upp sitt lyssnande :)

 

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
×
×
  • Create New...