Jump to content

Recommended Posts

 

Digital audio

 

Digital audio är ett omfattande ämne. Syftet med denna tråd är inte att gå igenom hela ämnet, utan snarare dyka ner i vissa avsnitt som har mer intresse för vad de flesta på Euphonia kommer i kontakt med, dvs att lyssna på inspelad musik i hemmiljö. Det behövs ingen utförlig artikel för att lägga en cd i släden och trycka på play, men många av oss är noga med högkvalitativ återgivning och i strävan efter bra ljud hamnar man stundtals i kvasivetenskapliga resonemang som kan låta mer som voodoo än bondförnuft för en glad amatör. Därför kan det väl vara bra att gå igenom några grundläggande tekniker och begrepp inom digital audioteknik.

 

Jag börjar med en översiktsbild över inspelnings- och uppspelningskedjan.

Utan inspelning - ingen uppspelning :1952293183_slightlysmilingface:

 

image.png

 

Hyfsat begripligt, men hur fungerar de olika stegen i dessa kedjor mer i detalj, och vad är det för faktorer som påverkar dem :question:

 

Link to comment
Share on other sites

Digitala och analoga signaler


Det som karakteriserar en analog signal är att den är kontinuerlig och avbildar något med en analogi. Variationen i det som avbildas har i varje ögonblick en avbild i proportion till det som avbildas. Analogin mellan avbildningen och det som avbildas åstadkoms med någon sorts transducer, dvs en apparat som omvandlar ett energislag till ett annat. En transducer kan omvandla mekanisk, magnetisk, elektrisk, termisk, kemisk eller akustisk energi. Analogin blir då att tex en kraft eller rörelse motsvarar en viss mängd magnetism, spänning, temperatur, ljusmängd, ljudtryck eller godtyckliga varianter av dessa. Dessa fysiska analogier fungerar när (eller eftersom) systemen har samma matematiska modeller.


En digital signal är diskret, dvs den avbildar genom att kvantisera med en sekvens punkter där varje punkt ges ett värde i proportion till det som avbildas.
För att skapa en digital signal utförs en process av sampling och kvantisering. Sampling och kvantisering är motsvarigheten till en transducer för analog signalbehandling. Sampling innebär att skapa en kontinuerlig sekvens värden vid diskreta tidpunkter. Man använder då en sample & hold-krets, vilket innebär en krets som läser av värden (samplar) från en analog signal och fryser respektive värde i en bestämd tidsperiod. Kvantisering innebär att byta ut varje värde med en approximation som väljs från en given serie diskreta tal, dvs en sorts avrundning.

 


Digitalt ljud
 

Som beskrivits i denna artikel kan ljud sägas utgöra vågformer som har en viss nivå och en viss tonhöjd. Det allra mesta ljud vi hör, inkl musik, är en salig blandning av olika toner (frekvenser) med olika nivåer (ljudstyrka).
Sedan i slutet av 1800-talet har man kunnat spela in dessa ljudvågor, och därefter spela upp dem igen.
Den in- och uppspelningsutrustning man använt i form av mikrofoner, grammofoner eller magnetband lagrar vad man kallar en analog signal. Det innebär att graveringen i en LP respektive magnetiseringen på ett magnetband följer ljudvågens form kontinuerligt i "realtid":

 

image.png

 

Digitalt ljud lagras på ett i grunden annorlunda sätt. Den analoga signalen diskretiseras eller samplas, dvs den delas upp med jämna tidsintervall, där varje intervall får ett värde från vågformen:

 

image.png

 

Detta kallas för pulskodmodulering och förkortas pcm. Tidsintervallets storlek (avståndet mellan pulserna) kallas för samplingsfrekvens, och precisionen i det valda värdet definieras av bitdjup.

Ju högre samplingsfrekvens, desto tätare är det mellan de värden som samplas. Det innebär att avbildningen blir mindre känslig för hastiga ändringar i signalen:

 

image.png

 

Och ju högre bitdjup, desto närmre det exakta värdet på den analoga grundformen. Även om man har hög samplingsfrekvens så kan värdet bara väljas i diskreta steg:

 

image.png


Kvantiseringen (avrundningen) kan göras med linjära nivåer, dvs avrundningen och därmed felet blir lika stort oavsett om signalen är svag eller stark. Det finns andra algoritmer där kvantiseringen tex är en funktion av signalens amplitud, men linjär pcm (LPCM) är det som normalt avses och standarden för tex cd (Red Book) baseras på LPCM. 

Den digitaliserade signalen lagras som en bitström, dvs en binär sekvens av bitar där varje bit kan vara en etta eller en nolla. (Anm: Många spelare med digital utgång anger om signalen är pcm eller bitstream. PCM är också en bitstream, men här avser man om utsignalen ska skickas ograverad så som den lagrats på mediat eller om den först ska avkodas till pcm. Mer om detta senare.)

 

 

 

Historik


Grundtekniken med pcm har egentligen använts sedan mitten av 1800-talet inom telegrafi mm, och senare inom telefoni, radio och fax redan före 2:a världskriget.
Den första pcm-inspelningen gjordes i Japan av NHK 1967. Fem år senare släppte Denon en 8-kanals pcm-inspelningsmaskin med 13-bitars 47kHz upplösning.

 

R-10551375-1499736448-5925.jpeg.jpg....image.png....R-10263609-1494325819-9271.jpeg.jpg....R-10502289-1499038581-5444.jpeg.jpg

 

Den första prototypen till CD visades för några entusiaster 1979 i Europa och Japan. Året därefter bildade Sony och Philips ett team för att ta fram CD för konsumentmarknaden. De bestämde sig för en tunn, skinande lagringsdisk som kunde innefatta ca 80 min musik och som kunde sättas i en cd-spelare. Digital Audio Disc Committee godkänner den standard som Sony-Philips föreslår och formatet definieras i Red Book.

 

File:CD-AUDIO logo.png - Wikimedia Commons

 

Både Sony och Philips lanserar cd-spelare för det nya systemet 1982, Philips med CD100 och Sony med CDP-101. CD-skivor blev tillgängliga för allmänheten samma år och de blev snabbt det mest effektiva sättet att lagra musik.
 

image.png....image.png

Philips CD100 och Sony CDP-101, de första kommersiella cd-spelarna. Bild: Catawiki och Alamy

 

Den första kommersiella musik-CDn var albumet "The Visitors" av ABBA. Den CD som sålt mest genom tiderna är Eagles Greatest Hits, som sålt i över 38 miljoner ex. Den första helt digitala inspelningen gjordes med en 3M-bandspelare för Ry Cooders album "Bop Till You Drop". Donald Fagens "The Nightfly" är en mycket tidig digital inspelning som visar att man behärskade tekniken redan från kommersiell start.

 

CD-skivans marknadsandelar steg markant år från år, men tekniken fortsatte utvecklas.

Sony hade ett gigantiskt arkiv av masterband, och man ville hitta ett digitalt arkivformat som inte skulle bli förlegat inom snar framtid. Det vore en kommersiell katastrof om det format man använde inte höll måttet i framtiden. Det Sony kom på var att i den process man hade för AD-omvandling så fanns det ett steg i digitaliseringen innan man förband sig till ett specifikt digitalt format. Så, det var detta man spelade in. En ΣΔ-modulerad 1-bits digitalström skapades rakt av helt utan editering och med så hög samplingsfrekvens att man garanterat skulle få med alla nyanser från masterbanden. Filstorleken (det var många band) motsvarade ungefär pcm 24/96, och pcm 24/96 betraktades som ett mer riskabelt format ur marknadssynpunkt. De där 24 bitarna är bara ineffektiva. Varför ska man spara det exakta värdet för varje sampel när det räcker att man vet om värdet är större eller mindre än föregående värde? Bättre då att sampla tätare. Det beslutet innebar att man inte kunde editera. Man kunde inte plocka ut ett stycke musik från dsd-strömmen och bearbeta den, eftersom det inte finns nån referens. Men det var inte heller syftet. Dsd skulle absolut inte editeras, tvärtom. Tanken var att när något arkivmaterial skulle användas, så kunde man konvertera det till vilken analog eller digital signal man än önskade. Därefter kom Philips in i bilden, och efter deras samarbete med lanseringen av cd började man snegla på dsd och därifrån kom lanseringen av sacd, för ca 20 år sedan. Sony och Philips gav specifikationen för formatet namnet "Scarlet Book".

 

image.png

 

 

I början på 90-talet lanserades också en codec för audio som drastiskt minskade filstorlekar men bibehöll acceptabel ljudkvalitet, MPEG-1 Audio Layer III, eller mp3 i kortform. Det var främst Karlheinz Brandenburg vid Fraunhofer IIS som utvecklade algoritmer för ljudkompression utifrån perception. Det sägs vara mest hans egen perception av Susanne Vegas "Tom's Diner" som låg till grund för utvecklingen. Formatet standardiserades 1993 i ISO/IEC 11172-3.

 

Parallellt med illegal rippning och fildelning via tjänster som Napster, mp3.com m.fl utvecklades bärbara och billiga mp3-spelare. Formatet fick snabbt världsomspännande spridning, och ungdomar hade enorma musikbibliotek på sina hemdatorer.

Jag tror att den ursprungliga tanken med Napster var god, man ville utveckla en tjänst för spridning av obskyr musik som ingen av de lokala skivhandlarna tog hem på varken LP eller cd. Konsekvensen blev att man sänkte hela musikindustrin. Men borde inte musikindustrin själv varit mer kreativ och proaktiv under alla dessa år?

 

image.png

 

 

 

Grundaren till Napster, Shawn Fanning, hade en Metallica T-shirt på sig på en MTV-gala, och när värden kommenterade “nice shirt” svarade han "A friend of mine shared it with me, but I’m thinking of getting my own”. Lars Ulrich satt i publiken, men låtsades sova.

 

 

 

Lawrence Lessig representerade Napster i stämningen från RIAA:

Quote

Lawrence Lessig claimed that the decision to prevent Napster trading of copyrighted music made little sense from the perspective of copyright protection: "When Napster told the district court that it had developed a technology to block the transfer of 99.4% of identified infringing material, the district court told counsel for Napster 99.4% was not good enough. Napster had to push the infringements 'down to zero.' If 99.4% is not good enough," Lessig concluded, "then this is a war on file-sharing technologies, not a war on copyright infringement."

 

Winamp släpptes som freeware 1997, och Nullsoft tjänade 10 MSEK/år när de ändrade licensen till shareware utan att ändra innehållet. Entusiastiska användare skickade $10 checkar i mängder till den lilla firman.

 

I takt med att hårddisk blev billigt, processorer och minnen blev snabbare, och utbyggnaden av bredband tog fart så minskade kraven på små filstorlekar. Nya codecs som aac, ac3, wma och flac utvecklades. De flesta innefattar komprimering i kodningen, men en del av dem utan förluster i ljudkvalitet vid avkodning.

 

Det var främst inom gaming som utvecklingen skedde kring strömning av media. SimpleDevices, TurtleBeach och senare Sony Playstation och Microsoft XBOX implementerade lösningar för strömning av både audio, video och annan data. Uppkoppling mot databaser och så småningom online gaming var de stora pådrivarna.

 

Från början av millenieskiftet gick utvecklingen snabbt inom alla områden kopplat till digital audio. Computer audio blev hushållsvara, digitala inspelningar blev standard, digital hårdvara boomar inom alla prissegment från en hundring till mångmiljonklassen. Musikdistributionstjänster som Spotify, Tidal och Qobus etableras. Communities som Roon och iTunes har miljoner medlemmar, där både hård- och mjukvara tillhandahålls av it- eller elektronikföretag. Helt nätbaserade bolag nischar sig med försäljning av spår eller album, Bandcamp för små artister, eClassical för klassisk musik eller HDTracks för högupplöst pcm och dsd. Konserthus och spelställen strömmar konserter live till medlemmar eller pay-per-view.

 

 


Brus, dynamik och överstyrning


Inom analog signallagring är det det fysiska mediat som bestämmer max- och min-nivåer på signalen, inklusive brus. Hur mycket man kan magnetisera ett band och hur djupt man kan gravera en LP bestämmer dynamik- och frekvensomfång för en given speltid. Kraftfaktorn i transducern (tonhuvud/pickup) avgör vilken nivå utsignalen får i volt.


Inom digital signallagring har man i stället en skala 0 till 100%, och hela inspelningen måste hålla sig inom dessa 100%. Som vanligt uttrycks detta i dB, och 100% signal definieras som 0dBFS, noll decibel full scale. Förstärkningen i analogdelen i da-omvandlaren avgör vilken utnivå detta kommer motsvara. Om tex en cd-spelare förstärker utsignalen till 2 V så motsvarar 0dBFS 2V.

 

Inom analog signalbehandling har man alltid brus från inspelningsrummet, mickar, elektronik, filter mm, och vid varje kopiering ökar detta brus. Inom digital signalbehandling har man också brus från inspelningsrum, mickar och elektronik, men när väl signalen är digitaliserad kan den hanteras utan att detta brus ökar. Dock har man så kallat kvantiseringsbrus. Processen som beskrivs ovan ger ett lägsta brusgolv som definierar hur mycket dynamik det teoretiskt går att skapa för 0dBFS. Kvantiseringsbruset beror av bitdjupet, och det finns alltid ett fel så länge bitdjupet inte är oändligt. Storleken på detta fel definierar den undre gränsen på signalnivå. Man kan säga att för väldigt låga ljudnivåer kan en signal med lågt bitdjup inte bestämmas till ett precist värde. Varje extra bit sänker brusgolvet med 6dB. För 8-bitars ljud ligger brusgolvet på -48dB, och för 32-bitars ljud ligger det på osannolika -192dB.

 

Hela inspelningen måste hålla sig under 0dBFS. Varje transient eller tillfällig instrumentmix som överstiger den nivån gör att kvantiseringen klipper:

 

image.png

 

 

Nyquists samplingsteorem

 

Samplingsteorem får en egen rubrik eftersom det är helt grundläggande för vilken standard man kan erhålla för digitalt ljud.

Vi ska dock inte fördjupa oss i det utan bara konstatera att när man samplar en analog signal, så måste man göra detta så tätt som motsvarar signalens frekvensomfång gånger två. Med andra ord, man kan inte återskapa en signal till mer än hälften av samplingsfrekvensen.

 

image.png

 

Om man ska mäta och dokumentera en signal (vilken som helst) som har en bandbredd på säg 100Hz, så måste man ha mätpunkter var 0.005:e sekund för att exakt kunna återskapa alla förekommande signaler som innehåller 0 till 100 Hz.

Bandbredden inom audio är som bekant 20kHz, varför man behöver sampla med som mest 25µs tidsintervall (motsvarar 40kHz) för att undvika fel i samplingen.

 

Detta krav var allmän kunskap sedan länge inom kommunikation före förra sekelskiftet, men det var Harry Nyquist och Claude Shannon som först beskrev teoremet i samband med deras arbete med telefoni på 1910- och 20-talet.

 

harry-nyquist.jpg The Nyquist Limit: Tips & Help: Equipment: Electron Microscopy Center:  Indiana University

Harry Nyquist och Claude Shannon. Bild: Indiana University

 

 

AD-omvandling

 

Ovanstående figurer är schematiska för att ge en övergripande beskrivning. För att praktiskt kunna skapa den digitala signalen behöver man beskriva några ytterligare trix i AD-omvandling.

 

Vid mastring av en analog inspelning till pcm inleder man med en lågpassfiltrering av den analoga signalen. Det finns flera skäl till detta. Dels vill man ta bort högfrekvent brus och störningar för att inte kontaminera signalen med vikningsbrus*). Detta filter rensar såklart också bort överstyrning utanför bandbredden, men kan även användas att begränsa ström och nivåanpassa spänningen till efterföljande AD-omvandlingskrets.

Ju högre samplingsfrekvens man avser använda i kommande steg, desto flackare filter kan man använda utan att riskera påverka magnitud och fas inom audiobandet.

 

image.png

 

 

*) Vikning innebär att flera alias (eng: aliasing) skapas vid sampling. Om en hög frekvens samplas så bildas en låg frekvens vid återskapandet av den samplade signalen. En rekonstruktionskrets kan inte veta att den låga frekvensen inte finns. Därför måste den höga frekvensen filtreras bort för att inte den låga ska komma med i signalen.

 

image.png

 

 

 

Sample & Hold är en krets för att sätta det värde man får i varje sampel att gälla konstant under hela tiden fram till nästa sampel. På så vis har man en sammanhängande signal som inte är noll mellan varje sampel. För att kunna ta ett sampel används en analog switch (tex en JFET eller MOSFET) och för att hålla detta värde konstant till nästa sampel behövs en kondensator.

 

image.png

 

Signalen är fortfarande analog (om än diskret), och det är först när kvantiseringen är gjord som signalen kan lagras digitalt. Kvantiseringen innefattar att tilldela sampelvärdena något av de närmevärden som är möjliga utifrån aktuellt bitdjup. Ju högre bitdjup desto bättre approximation. För 8-bitars ljud finns det 28=256 tal att välja mellan, för 24-bitars ljud finns det 224=16 miljoner tal.

Därefter kan dessa värden skrivas om i binär form.

Exempel: antag att vi har ett analogt sampel som är 1.32V och att detta ska kvantiseras till 4-bitars ljud. Antag vidare att max amplitud från inspelningen sätts till ±2.00 V. Då måste vi välja ett värde i 0.27V-steg:

 

image.png  

 

image.png

 

Det finns en rad olika metoder för att så precist och snabbt som möjligt bestämma approximationen för aktuellt antal bitar. En vanlig metod är så kallad successiv approximation, här exemplifierad för en 4-bitars kvantisering:

 

 

successiv-approximering-001.gif

 

Felen i approximationerna i kvantiseringen visar sig som kvantiseringsbrus. För 8-bitars ljud är felet ±2, för 24-bitars ljud är felet ±0.00003.

Dynamikomfång så som det anges för digitala format är alltså bara en matematisk konsekvens, det har väldigt lite med verkliga förhållanden att göra.

 

All inspelning är analog i något led, eftersom man måste ha en transducer i mikrofonen för att omvandla ljudtrycket till en elektrisk signal innan digitalisering. Nästkommande led kan dock utföras med analog eller digital inspelning, mixning och/eller mastring. Den 3-siffriga SPARS-koden på cd-skivor anger detta. Så koden AAD innebär analog inspelning och mixning, medan mastring är digital (självklart ett krav för cd). DDD anger att både inspelning, mixning och mastring utförts digitalt.

 

image.png

 

För mixning och mastring i digital miljö används en digital arbetsstation för audio (DAW). Alltifrån freeware i pc och mac används såsom Audacity och MusE, till appar för smartphones. I pro-miljö används dedikerad hård- och mjukvara för all dsp till färdig digital master.

 

Ovation & Horus rack at La Grande Gallerie de l'Evolution, Paris

Komplett rack med a/d-omvandling och dsp. Bild: merging.com

 

 

Link to comment
Share on other sites

 

CD-spelare och andra digitala musikspelare

 

Många spelare har en diskläsare eller så kallad transport och digital till analog omvandlare (DAC) samt klocka integrerat i samma låda.

Men det förekommer mängder av varianter med separat transport och dac, separat klocka och framför allt är det snart vanligare med strömmad musik där transporten ersätts med en dator och mjukvara eller strömmare. En del spelar enbart cd eller sacd, medan andra spelar allt från brända filer till hdcd, bluray, dvd audio och andra highres-format samt surround. Utöver detta finns det en rad olika standarder för att transportera den digitala audioströmmen mellan enheter.

De olika huvudfunktionerna beskrivs därför var för sig i följande avsnitt.

 

p1x_front.jpg

Dual mono sacd transport med separat nätdel från Esoteric. Bild: esoteric.jp

 

 

Transport

 

En transport består normalt av en släde för skivor, en motor, en laser för avläsning, ett servo som styr motorhastigheten, ett kretskort med digitalutgång och en nätdel för spänningsmatning till dessa komponenter.

 

Motorn roterar skivan med ca 500 rpm och en laser riktad mot en fotocell skannar skivan inifrån och ut. Motorn saktar ner kontinuerligt under skanningen, så att fotocellens avläsningshastighet är konstant. 

En cd-skiva har binärkoden lagrad fysiskt som en enda lång spiral med präglade gropar och plana delar:

 

image.png

 

 

Lasern strålar mot skivans undersida och ljuset reflekteras mot aluminiumskiktet i skivan. För plana delar reflekteras ljuset rakt tillbaka, medan groparna diffuserar ljuset. Varje tidsenhet kommer det således antingen en ljusreflektion eller ingen ljusreflektion.
När ljuset reflekteras tillbaka detekteras det av fotocellen som skickar en elektrisk puls till en elkrets som då genererar en etta. När det inte reflekteras ett ljus till fotocellen, genererar elkretsen en nolla.

 

 

image.png

 

 

 

image.png

 

 

 

Optiska pickuper (OPU) eller i dagligt tal "laser" till cd-, sacd-, dvd- och bluray-spelare använder ett astigmatiskt detektionssystem.

 

OPU-01.jpg (klicka för större bild)

 

 

Bilden visar en 3-stråles optisk pickup, där laserdioden lyser med tre strålar mot ett diffraktionsgaller som delar upp varje stråle i ett knippe ljus som träffar ett polarisationsfilter och därefter en spegel. Det utgående ljuset speglas mot en kollimeringslins för att parallellrikta ljuset och därefter en kvartvågsplatta som konverterar ljusets vågutbredning. Innan ljuset träffar cd-skivan passerar det en objektivlins som fokuserar strålarna mot plana och gropiga delar i spåret.
Det reflekterade ljuset passerar tillbaka genom objektivlinsen, mot spegeln och polarisationsfiltret, för att slutligen träffa en yta på fotosensorn.

 

Konstruktionen ser onödigt krånglig ut, men är helt avgörande för att sensorn ska kunna fokusera med så högfrekvent ljus och kontinuerligt ha kännedom om spåravvikelse och fokuseringsfel.

 

Fotosensorn omvandlar ljusintensitet till en elektrisk spänning för olika ytor på sensorn, här indelade i A, B, C, D. Objektivlinsens placering styrs av fotosensorn som ger en spänning till en moving coil för att flytta linsen till bästa möjliga fokus.

 

image.png

 

Att man läser av rätt spår styrs på liknande sätt av ljusfläckar från strålarna E och F.

 

 

 

Hur mycket data man kan trycka in på en skiva beror på hur tätt man kan prägla aluminiumskiktet med gropar och vilken typ av ljus man kan använda i lasern.
På en cd-skiva är en grop 0,8µm och det röda ljusets våglängd från dioden är 780nm. Ljuset i en dvd-laser har 650nm våglängd och groparna är 0,4µm. Det gör att en dvd kan lagra 4,7 GB (8,5 GB för dual layer) medan en cd endast kan lagra 680 MB.
Blu-ray använder blå-violett laser med 405nm våglängd och kan lagra 50 GB. Det finns som bekant en hel rad olika varianter, men här är ett par exempel illustrerade för att ge en känsla för principerna:

 

image.png


Jämförelse av geometrier för laser och prägling mellan cd och blu-ray.

 

 

För Hybrid SACD spelas skivan med två lasrar, 780nm för cd och 680nm för sacd, och objektivet har olika bländaröppning, så att för det halvtransparenta sacd-lagret fokuserar linsen på 0,6mm från ytan och för cd på standard 1,1mm:

 

 

image.png

Hybrid sacd.

 

 

Utvecklingen fortskrider och det är inte långt bort med multilager holografiska skivor som kan lagra uppåt 1,6 TB.

 

Discos ópticos : Discos ÓpticosHolographic Versatile Disc – Wikipedia

HVD (Holographic Versatile Disc). Bild: discosopticoslosazulejos

 

 

 

Streamers, digitala mediaspelare, nätverkstransporter mm

 

Musik blir mer och mer tillgängligt som filer, antingen direkt från musiktjänster som Spotify, Tidal, Qobus m.fl, eller för musikfiler som säljs för nedladdning från nätbutiker. Musiken spelas då med en mjukvaruspelare och strömmas med ethernet eller wifi, lokalt eller med Internet.

Enbart denna typ av strömmare, kringutrustning, format och tekniker är så omfattande att det kräver en separat artikel. Dessutom är det inte mitt område :1952293183_slightlysmilingface:

Jag nöjer mig därför med denna korta notis om strömmare, och konstaterar bara att dessa digitala mediaspelare är transporter för digital audio där gränssnittet till transporten är UPnP med ethernet, wifi eller anslutna hårddiskar, och output mot en dac är de sedvanliga s/pdif, aes3 eller usb.

Esoteric N-03T finns hos Ultimate.se | Sounds Perfect

Esoteric Network Audio Transport N-03T. Bild: esoteric.jp
 

 


DA-omvandlare

 

Output från transporten ska nu rekonstrueras och omvandlas till en analog signal i linjenivå, och det görs i en DAC. De fysiska huvudkomponenterna i en dac är (oftast) ett dac-chip, klocka eller klockgränssnitt, filter, nätdel, ingångsgränssnitt och utgångsgränsnitt.  

 

 

ESS Technology will integrate MQA rendering into its SABRE DACs -  HardwareZone.com.sg

Dac-chip från ESS Technology. Bild: Apogee Digital

 

Dac-chippet är normalt en ic-krets som innefattar någon form av transkodning för att anpassa den digitala signalen till nästa steg, samt en dekoder, exvis en delta-sigma-modulator med översampling. Därefter behövs filter för rekonstruktion till en analog signal och biasering till linjenivå. Både filter för eliminering av vikningsbrus (anti-aliasing) och rekonstruktionsfilter är lågpassfilter vars syfte är att ta bort oönskat högfrekvent brus. Anti-aliasing bandbreddsbegränsar till aktuellt format, och rekonstruktionsfilter tar bort oönskat brus från samplingen.

 

Det första som görs i DA-omvandlingen är att läsa de paket av binärkod som skickas i bitströmmen. Varje paket innehåller ett sampel där binärkoden omvandlas till ett flyttal:

 

image.png

 

 

Nästa steg är att rekonstruera en kontinuerlig analog signal som kan skickas till en förstärkare. Man behöver ett rekonstruktionsfilter. För att göra det bör man i DA-omvandlingen (på samma sätt som i AD-omvandling) definiera en bandbredd så att man kan filtrera bort speglingsprodukter pga vikning. Det perfekta filtret är sådant att under delningsfrekvensen är responsen 1.0, och över delningsfrekvensen är responsen 0.0.
Rent tekniskt innebär det att responsen är en rektangelfunktion i frekvensdomänen:
 

image.png

 

 

En sådan rektangelfunktion i frekvensdomänen (dvs ett idealt lågpassfilter) innebär att impulssvaret är en sinc-funktion i tidsdomänen:
 

image.png

 

 

Matematiskt betyder det att FFT av en sinc-funktion (sinx/x) är en rektangelfunktion (image.png).

Den perfekta sincen eliminerar alla frekvenser över den valda bandbredden, utan att påverka lägre frekvenser varken i amplitud eller fas.

Output från dekvantiseringen är ett värde i volt för varje sampel. Om man lägger en sinc över varje sampel och adderar bidragen från de då överlagrade sincarna så erhålls en mycket bra approximation för ett godtyckligt antal punkter som ligger mellan varje sampel.

 

image.png

 

På så vis får man en mycket bra approximation för punkterna mellan varje sampel:

 

image.png

 

Vi har i vårt exempel valt en pcm-ström med både låg samplingsfrekvens och lågt bitdjup för att kunna illustrera vad som ger vad. Trots detta ser vi att rekonstruktionsfilter med sincen ger en väldigt bra approximation och återskapande av den analoga signalen. Med hög samplingsfrekvens och högt bitdjup blir återskapandet mycket exakt.

 

Det är inte helt intuitivt hur sincen samtidigt fungerar som ett lågpassfilter. Men om man tittar på ett mer extremt exempel med kraftigare diskontinuiteter så ser man det tydligt. Exvis en sågtandsignal som filtreras med sincen:

 

image.png

 

 

 

Diskret DAC, NOSDAC

 

Det förekommer även diskreta dacar, där ic-kretsen ersätts med passiva och aktiva komponenter, typiskt en R/2R-stege och mosfetar eller bipolära transistorer, där varje R/2R+mosfet motsvarar en bit.  Kretsen utgör en summerande förstärkare som normalt beräknar spänningen direkt från bitströmmen utan översampling, varvid den kallas NOSDAC (non-oversampling dac). Filtrering i en sådan dac utförs normalt i den analoga domänen.

Här är ett exempel som motsvarar en 4-bitars dac, där D1-D4 tar emot inkommande bitar som var för sig kan anta värdet 0 eller 1. En 1:a ger då en spänning på den ingången, medan en 0:a lämnar den ingången jordad:

 

 

image.png

 

 

Principen att omvandla binär kod till spänning har funnits sedan början på 60-talet och TTL (Transistor-Transistor-Logic) är exempel på en digital integrerad krets med 5V spänningskälla som omvandlar 0-0.8V till en logisk 0:a och 2-5V till en logisk 1:a.

 

Exempel på elektroniktillverkare som använder diskreta dacar i en del modeller är Esoteric, MSB, Sonic Illusions och Audionote. Här ser vi DAC-kretsen till en sådan 32-bitars diskret dac. R-2R-stegen är uppdelad i 4st halvcirklar per kanal för att få samma avstånd för signalöverföring i varje delkrets:

 

image.png

Esoteric Mastersound Discrete DAC. Bild: esoteric.jp

 

 

Klocka

 

All AD- och DA-omvandling styrs av en klocka som antingen sitter i ADC/DAC eller externt. Den används för att synkronisera olika delar av kretsen, och bestämmer takten för all digital transport av data. En klocksignal skapas av en oscillator (klockgenerator) som består av en piezoelektrisk kristall som vibrerar och på så vis skapar en elektrisk signal med mycket exakt frekvens. Om datatransport inte sker med perfekt periodicitet skapas jitter.

Klocksignalen i en DAC brukar benämnas WORD CLOCK eftersom den klockar sampel, och det finns ett sampel i varje WORD.

Kommunikationen mellan digitala kretsar kan ske synkront eller asynkront. I synkron kommunikation skickas WORD i klockans takt mellan kommunicerande kretsar och kretsarna taktar med varandra som ett roddarlag. I asynkron kommunikation interagerar också delkretsarna, men de kan arbeta var och en i sin egen takt oberoende av varandra.

 

Sida 2 – Äldre foton från Sollerö socken

Roddarlag. Bild: solfoto.se

 

 

Kablar och kontakter

 

De mest förekommande gränssnitten för överföring av digitalt ljud är s/pdif, aes3, usb, hdmi.

För s/pdif använder man då en 75 ohms koaxialkabel som termineras med rca-kontakter alternativt en optisk fiberkabel med toslink-kontakter.

För aes3 använder man antingen en balanserad 110 ohms tp-kabel med xlr-kontakter, eller en obalanserad 75 ohms kabel med bnc-kontakter.

Usb-kablar baseras på ett twisted pair för signal och 5V + jord för spänningsmatning.

Hdmi-kablar (utan ethernet) har fyra skärmade 110 ohms tp-kablar och sju separata ledare för kommunikation. 

 

Som kuriosa kan nämnas att många kontakttyper är förenade med licenskonstnader för tillverkarna. En hdmi-kontakt kostar tillverkaren 1.50 kr per apparat i licensavgift utöver en årlig administrationskostnad på 5-10 k$. Om tillverkaren implementerar kopieringsskyddet HDCP (bra namn!) och sätter HDMI-loggan på apparaten kostar kontakten bara 40 öre i licens.

 

Vi ska inte gå igenom kablar mer i detalj för det skenar iväg och blir dessutom snabbt inaktuellt. Enbart olika typer av usb-kontakter förekommer i en uppsjö varianter från typ A, B, C, mini och micro-varianter med olika specar;

 

image.png


Det finns redan idag ett dussin olika typer av USB-kontakter

 

Kablarna i sig är sällan det som avgör typ eller standard för signalöverföring utan det är snarare gränssnitten och bakomliggande protokoll. Men kablarna är ett pedagogiskt sätt att definiera vilken typ av digital audio som stöds av en dac med sådana kontakter. Eller rättare sagt kan stödjas, om da-omvandlaren har konstruerats med stöd för det. I nästa avsnitt ska vi titta på vilka digitala format som kan användas för olika gränssnitt.

 

Link to comment
Share on other sites

2 hours ago, calle_jr said:

Enbart denna typ av strömmare, kringutrustning, format och tekniker är så omfattande att det kräver en separat artikel. Dessutom är det inte mitt område :1952293183_slightlysmilingface:

Finns det någon lika pedagogiks och kunnig herre, eller dam, som kan fylla i detta område åt calle_jr? 

Jag tror det finns ett stort intresse "där ute" att få en "komplett" digital-audio-förståelse-bibel :1952293183_slightlysmilingface:

Link to comment
Share on other sites

Format, protokoll och interface

 

Format för audio är ett brokigt begrepp. I dagligt tal blandas det friskt mellan format och prestanda, gränssnitt, kontakter, protokoll och filtyper.
Strikt är formatet det som anger vilken typ av modulering som används för digital kodning och avkodning, antal kanaler samt vilket bitdjup och samplingsfrekvens man valt för ad- och da-omvandlingen. Tex 2-kanals pcm16/44 eller 5.1-kanals dsd128.

Format anger också om ljudströmmen i efterhand är kodad, dvs komprimerad och/eller är inbäddad eller anpassad för kommunikation mellan olika system (interchange file format), tex wav, aiff, dsf, flac, ac3 eller dop.

 

image.png

 

Det finns en uppsjö protokoll inblandade i audio. Det som är värt att nämna här är RTP (Real-time Transport Protocol) som är ett nätverksprotokoll för leverans av audio i IP-nätverk. Protokollet används för strömning av audio (och video), och det har även stöd för hantering av jitter, förluster och andra fel i signalöverföring vid strömning. 

 

Philips och Sony har definierat en rad regnbågsböcker inom audio och video, för att definiera format för olika typer av compact disc-media. Det finns idag en samling med Red, Green, Yellow, Orange, Beige, White, Blue, Scarlet och Purple Book, varav Red Book (CD) och Scarlet Book (SACD) är de vi främst berör i denna artikel.

 

Det gränssnitt man använder i sin dac begränsar formatet. S/PDIF är endast avsett för pcm och max 24/96 okomprimerat eller komprimerad flerkanals pcm exvis DTS. Jag började på en sammanställning över vilka format som olika gränssnitt kan spela upp, men kom så småningom fram till att de flesta gränssnitt kan spela det mesta och att det är en massa detaljer och versioner som spelar in. Det handlar mer om ifall dacen har stöd för formaten. De format idag som har vissa begränsningar är s/pdif och aes/ebu. Här är ett utkast till förenklad sammanställning som jag säkert får äta upp:

 

image.png

 

 

 

 

PCM-teknik

 

Den helt förhärskande tekniken för att representera en analog audiosignal digitalt är pulskodmodulering PCM (pulse code modulation). Det är också därför de allmänna beskrivningarna ovan baseras på pcm. Metoden används för cd-skivor, datorljud, telefoni och andra digitala audiotillämpningar. De allra flesta digitala lagringsformat såsom wav, aiff, au, raw baseras på pcm, och även de komprimerade formaten såsom wma, mp3, flac, ac3, vorbis, dts, aac etc.

Det som utmärker egenskaperna för PCM är att standarden för den bitström man får definieras av dess samplingsfrekvens och bitdjup.

 

För att lagra en pcm-ljudström på en dator behöver den sparas i ett format som stöds av datorns operativsystem. För Windows-plattformar har WAV (Waveform Audio File Format) varit förhärskande som grundformat. För iOS-plattformar är motsvarigheten AIFF.

 

WAV är baserat på RIFF (Resource Interchange File Format) som utvecklades av IBM och Microsoft, och som (liksom AIFF) bygger på en serie chunks (fragment) med en bestämd struktur:

 

image.png

 

Som exempel kommer här de första 72 bytes i en WAV-fil där bytes visas i hexadecimal form:

image.png

 

 

Om vi översätter detta:

image.png

 

 

 

Vi behöver inte gå djupare in på pcm i detta avsnitt, eftersom tekniken beskrivs i de allmänna avsnitten ovan. Lagring och komprimering utförs på liknande sätt för pcm och dsd och beskrivs senare.

 

 

 

DSD-teknik

 

Det andra digitala grundformatet som förekommer inom audio för musik är dsd. Det är inte i närheten så väletablerat och använt som pcm, och har nästan varit på väg att dö ut. Men det är omtyckt i vissa kretsar, och har fått ett visst uppsving i samband med ökande utbud från nedladdningssiter. Jag tänkte därför i det följande göra en liten fördjupning kring dsd-teknik.

 

Det förekommer en hel del diskussioner som faktiskt tar avstamp i ganska avancerad digitalteknik och som ligger långt över mitt huvud, och säkert över många av våra läsares också. Min egen uppfattning har flackat genom åren efter att ha spelat med en rad olika D/A-omvandlare som varit både bra och mindre bra på olika format. Det enda jag kan säga entydigt är att för de inspelningar där man månar om ljudkvalitet så väljer man oftare ett mer högupplöst format. Jag har aldrig hört en SACD-skiva med dåligt ljud.

 

När SACD-skivan lanserades blev mottagandet förvisso positivt i vissa kretsar, men en utbredd uppfattning var att anledningen fanns i att drakarna Sony och Philips fick ett robust kopieringsskydd. Men det finns ett inneboende genialt koncept med SACD tycker jag. Det stavas DSD och uttalas Direct Stream Digital. Och här kommer den enda jämförelsen jag behöver ta upp mellan DSD och PCM :)

 

image.png
Kvantisering och sampling av signal efter pulskodmodulering (PCM) och ΔΣ-modulering (DSD)

 

Det räcker man ser den bilden för att förstå att det är två helt olika djur, fast att vi ofta klumpar ihop dem och kallar dem gemensamt för digitalt ljud. Det är alltså inte för att jämföra PCM med DSD som jag vill rekapitulera, utan för att redovisa ett slags avstamp till diskussioner kring DSD. Jag tänkte därför försöka förklara grunderna för DSD på ett begripligt sätt.

 

Men vi börjar med en skiss som visar att A/D-omvandlaren har principiellt samma blockschema som D/A-omvandlaren:

 

 

image.png

 

Och notera att både input och output kan vara analog eller digital, både för A/D- och D/A-omvandling.

 

Ingenting blir bättre som arkivmaterial än källmaterialet, men när det spelas upp i realtid kan det vara många faktorer som avgör hur det låter. Rent principiellt kan därför ett mer högupplöst inspelningsformat (exvis hirez pcm) låta bättre efter ADC till ett annat format, exvis xrcd, sacd eller dsf och så vidare. Det beror på hård- och mjukvara i min och din specifika DAC och hur dessa har anpassats för olika arbetsuppgifter. Två ledord för alla DACar är noggrannhet och snabbhet, och dessa står ju faktiskt i rakt motsatsförhållande. Ju fler arbetsuppgifter man ber en DAC att utföra, desto fler fel kommer den göra.

 

Tricket med Direct Stream Digital är att man endast tillämpar 1 bit i dataströmmen samt att man använder delta-sigma-modulering.
Utöver detta använder man teknik för översampling, brusformning och ev dither.

 

1 bit i dataströmmen innebär att varje sampel endast kan vara en 1:a eller 0:a. För att A/D-omvandla tex en 10 sekunders musiksnutt används delta-modulering. Delta betyder inom matematik skillnad, där man historiskt använt den grekiska bokstaven Δ för att beskriva skillnaden mellan två tal. Det är just precis här likheten med analoga format ligger. Skillnaden i amplitud per tidsenhet, dvs Δx/Δt, är ju hastighet. För delta-modulering står en 1:a för att öka amplituden, och en 0:a står för att man ska sluta öka och börja minska. Eftersom delta-modulering är en så otroligt enkel operation så kan man använda ofantligt hög samplingsfrekvens. Standard för dsd är 2,8 MHz, som är 64 ggr högre än standard 44 kHz för cd.

 

Sigma-modulering kommer också från den grekiska beteckningen inom matematik, där Σ står för summering. Sigma-modulering innebär att man summerar den analoga signalen med output innan man gör delta-moduleringen. Det gör att gain för Δ kan styras, och att felen som uppstår vid kvantiseringen kan lagras och medelfelet kan minimeras med en feedback-loop.

 

Man kan sammanfatta processen med hjälp av följande figurer.

 

image.png


Den blåa linjen är den inspelade signalen. Den heldragna röda linjen är den maximala brusnivån som är oundviklig pga felen som blir vid kvantiseringen av signalen. För varje sampel måste processorn välja om signalnivån är större eller mindre än signalnivån för föregående sampel. Strikt matematiskt kan detta val bli fel varannan gång, dvs risken för avvikelse är 50%. För 1-bit dataströmmar kan man alltså bara räkna med ett uruselt S/N på ungefär 6dB. (Jämfört med tex 16-bitar där man har S/N på ungefär 6x16=96dB.)

 

Man kan inte ta bort brus utan att påverka nyttosignalen, men man kan förändra det. Genom översampling bibehålls mängden brus, men det sprids jämnt inom den nya upplösning man skapat med översampling. Så med 64 ggr översampling som är standard för sacd, så sänker man brusets nivå till den streckade röda linjen.

 

 

image.png

 

 

Därefter kan man med finurliga algoritmer forma bruset, så att man förskjuter så mycket av det man kan till högre frekvenser. Den totala mängden brus är densamma, men mängden inom audiobandet har minskats drastiskt. Därefter appliceras ett lågpassfilter på signalen, så att allt över audiobandet filtreras bort. För ADC är detta lågpassfilter digitalt, för DAC är det analogt, dvs det kan vara ett enkelt RLC-filter.

 

 

image.png

 

 

 

Voila! nu har vi 10 sek musik med uppåt 120dB dynamik i ett digitalt pulståg som populärt kallas DSD;

 

image.png...

 

 

Det ska också nämnas att klockan är en mycket viktig del i hårdvaran, men det gäller ju alla format. Indelning i sampels baseras på tid, så klockans exakthet är avgörande, både för ADC och DAC.

 

En annan sak som ska nämnas är DST, Direct Stream Transport. Det är den algoritm som används för återställning av bitströmmen i filöverföringen till DA-omvandlaren. Pga den höga samplingsfrekvensen är det viktigt att en sådan algoritm är enkel och stabil.

 

 

Bildresultat för AK4490EQ dsd chip

 

 

 

Mixning av DSD

 

Rent konkret kan man som exempel mixa en rå 1-bitars sigma-delta-modulerad bitström, men bitströmmen måste ju ges värden. Annars har den bara värdet "öka" eller "minska". Mixning innebär att digitalt splitta, flytta, blanda, ändra nivå och fasmodulera audiosignalen (-erna).

I praktiken innebär det att den måste konverteras så att alla sampels får ett värde. Och då har vi pcm eller något liknande, dvs det är inte dsd längre :)

 

Ett grovt exempel för att förtydliga. Säg att spänningsnivån i den analoga signalen för 50µsek musik varierar från 1,5000 V till 1,5005 V. Då kommer en 44.1 pcm-signal hinna kvantisera detta till två eller kanske tre värden, eftersom det samplas ett värde varje 22,7µs. Men för en dsd-signal beror det på spänningssteget. Om steget är 15 µV så kommer det beräknas 140 värden eftersom det samplas ett värde varje 0,35µs. För pcm kan värdets nivå lagras med 16 bitars precision, dvs 216=65536 olika värden på spänningsnivå kan lagras. Men för dsd som bara har 1 bits precision kan värdet bara jämföras om det ökar eller minskar (21=2) jämfört med föregående, och det är resultatet av jämförelsen som lagras;

 

image.png

 

 

Vad är det då som skapar bruset i en dsd-signal?

”Brus” är ju en vid benämning. Man bör kalla det vi talar om här för brus eftersom det ger en koppling till vad man hör och det kan uttryckas i volt eller dB i förhållande till nyttosignalen, dvs SNR. Detta brus är en produkt av fel i processen för kvantisering av en analog signal, och kallas därför kvantiseringsbrus. Felen (e=error) som skapar detta brus (n=noise) beror helt på storleken på steget i kvantiseringen;


image.png

 

 

En analog insignal matas till kretsen med en viss gain G. Den digitaliserade signalen får då en spänningsnivå som kan uttryckas:

 

image.png

 

 

Medelvärdet av felet kan beräknas till:


image.png

 

Man kan anta att felen vid kvantisering är slumpmässiga och ser därför ut som vitt brus i audiobandet.
När man översamplar sprider man bruset inom bandbredden för samplingsfrekvensen. Antag att bandbredden för audiosignalen är f0, och att samplingsfrekvensen är fs. Förhållandet mellan fs och 2f0 kallar vi för översamplingskvoten, eftersom Nyquists samplingsteorem säger oss att man måste sampla över 2fs för att inte skapa vikningsdistorsion (aliasing). Så översamplingskvoten betecknas OSR=fs/2f0.
Kvantiseringsbruset inom audiobandet, kallat n0, minskar till:


image.png

 

En ΔΣ-moduleringskrets kan vidare forma bruset genom att "seriekoppla" översamplingen. Ovanstående beskrivning kallas ΔΣ-modulering av 1:a ordningen.
Om moduleringskretsen stackas skapar man en ΔΣ-modulering av 2:a, 3:e eller generellt k:te ordningen.
Kvantiseringsbruset vid ΔΣ-modulering av k:te ordningen blir:


image.png

 

Exempel: om den analoga insignalen har bandbredden 20kHz, och vi översamplar den till double-dsd (5,6MHz) med 3:e ordningens ΔΣ-modulering kommer man minska bruset från kvantiseringen till den digitaliserade utsignalen till:

 

image.png

 

 

Varför 1-bit?

 

Bitdjup används för att beskriva precision.

1 bit kan bara användas för att beskriva om det var tavelträff eller ej. 

2 bitar kan användas för att ge 22=4 alternativa värden.

4 bitar kan användas för att ge 24=16 alternativa värden, fortfarande ingen vidare precision i en miljö där man vill mäta absoluta tal.

8 bitar kan användas för att ge 28=256 alternativa värden, dvs fullt möjligt att ge ett bra referensvärde.

 

På en darttavla kan vi på bråkdelen av en sekund urskilja 83 olika värden med olika egenskaper. Man kan säga att vi då utnyttjar vår hjärna med ett bitdjup på drygt 6 :). Men jämfört med en dac ligger vi i lä eftersom den håller reda på en piltavla som är numrerad från 1-16000 i stället för 1-20, och den urskiljer ett av dessa värden 44100 ggr per sekund.

 

Bildresultat för dart board

 

Den uppenbara nackdelen är att informationshanteringen sväller bokstavligen exponentiellt om man för varje sampel ska räkna ut ett värde med hög precision i enheten volt.

Så fort man frångår 1 bit för en dac blir det genast mycket mer komplicerat.

Det är inte bara att jämföra 216x44100=2890137600 varianter/sek för 16/44 pcm med 21x2822400=5644800 varianter/sek för dsd, vilket i sig innebär 500 ggr fler operationer per tidsenhet.

Det är också att en dac behöver styra på flera olika saker samtidigt. Dsd behöver bara rinna, mer-mindre, mer-mindre. 

 

För mixning däremot, där ser jag inga problem att använda 4, 8 eller 16 bitar i kombination med översampling + ΔΣ-modulering + LP-filter. Det kan fortfarande kallas dsd eftersom de processer som karakteriserar dsd finns där, mastringen är fortfarande exakt dsd, och da-omvandlingen i hemmet är dsd.

 

Jag är inte biolog men :) om man skulle skapa en trädstruktur för format så borde dsd ligga närmre magnetband än pcm.

Det grundläggande funktionssättet, dvs det som skapar själva ljudet, är samma princip för dsd som för magnetband.

 

Obs! Det innebär inte att dsd låter bättre. Många anser att pcm är överlägset magnetband vilket jag inte kan bestrida.

Men det innebär att vi bättre kan förstå de övergripande egenskaperna och vad som skiljer djurens beteende åt.

 

 

Inspelningsformat

Det här med format är ett litet detektivarbete, och man behöver börja med källmaterialet dvs inspelningarna och hur dessa går till :sherlok:

Channel Classics som exempel spelar in i dsd sedan sju år tillbaka, men BIS och Chandos fina sacd-utgåvor är normalt inspelade med 24/96 pcm-format. Man ska nog beakta att väldigt många skivbolag inte har egna inspelningsledare utan anlitar ett team, en studio eller frilansare. Det gör att de inte ens styr över inspelningskedjan såvida de inte har definierat detta för beställningsjobb. Jag kan bara anta att man hellre väljer en inspelningsledare på dennes meriter än att man väljer ett format.

 

DSC_4002.jpg

Här ser vi producenten Brian Pidgeon till vänster, dirigenten Peter Oundjian till höger och The Doric String Quartet under provlyssning av John Adams' Absolute Jest. Foto: Jonathan Cooper

 

Baserat på egna lyssningstester med inspelning både i pcm och dsd anser BIS att 24/96 pcm fungerar klanderfritt. De arbetar normalt med inspelningsformatet i hela processen tills det är dags att göra en master där de skapar dsd för sacd-produktion. Jag har försökt få svar från Harmonia Mundi, men de kan inte bekräfta att de spelar in i dsd för sina sacd. Man ska dock beakta att de allra flesta av deras utgåvor är cd och då är inspelningen pcm.

 

Channel Classics gör en grej av sin inspelningskedja, vilket alltid gör mig lite misstänksam eftersom man får lite vibbar av att musiken är sekundär. I deras fall är det inte så tycker jag. De använder mickar från Schoeps och Bruel & Kjaer, AD- och DA-omvandlare för dsd från Grimm Audio och Meitner/EmmLabs och mixerbord från Rens Heijnis. Editeringsmjukvara är Pyramix som utvecklats av Merging.


Här är en förklarande berättelse om en inspelningssession 1997 från Dr Andrew Demery på Super Audio Center:

Quote

 

Unlike current DSD recorders/editors, our first generation software had a few “features” that were less than desirable.  Key among them was the fact that the system had a considerable “recovery” time following a record cycle (i.e., go into record, come out of record).  Once you had stopped recording, you needed to re-set the software before you could carry on.  This process took somewhere between 30 seconds and a minute (though it felt like several lifetimes when you were in a live recording session!).  To compound matters, we were working with considerably smaller hard-disks than we have today.  As 8-channels of DSD eats approximately 10 GB of disk space per hour, our MASSIVE disk arrays equated to about 2 hours of recording time.  So, our natural tendency was to try to conserve disk space as much as possible, with the caveat that every time we stopped recording we would have to wait a while before we could start again.

 

After a few rehearsals, it was time to go for the first take.  Everyone in record ready?  Yes.  Everyone in record?  Yes.  Slate the first take.  The music starts, and within a few seconds we hear the rat-tat-tat of the conductor’s baton on his music stand.  Everyone in the orchestra stops, and a big discussion starts.  Erdo shouts, “Keep rolling.”  More discussion.  “Keep rolling.”  More discussion.  We start to get fidgety.  Doesn’t the maestro realize our predicament?  We shoot anxious glances at Erdo.  “You can probably stop, if you like.”  We hit stop.  Almost immediately the discussions stop, and it’s time to go again.  Except, our computer is still thinking about it.  Slowly.  V-e-r-y s-l-o-w-l-y.  There’s nothing we can do about it.  The orchestra starts without us.  Bugger!

 

They don’t get too far, however, before it’s time to talk it over again.  Bar numbers are mentioned.  Players are asked to play louder, softer, faster, slower.  By the time the instructions are given out, we’re ready to go again.  Great!  This time they get through the entire first movement without stopping.  Excellent!  We hit stop.  They decide to immediately go into another take.  Bugger!

 

This scenario was to play itself out over and over for the three days or so that it took to record the 4th Symphony.  Sometimes we got lucky and got the “good” take, sometimes we didn’t.  Sometimes we stopped too soon during the “false takes” and didn’t get anything.  Sometimes, in our eagerness to conserve disk space, we stopped too soon and cut off the decay of the last note – easy to do when you are working without monitors!  It was all a learning experience, and our methods would improve on future trips, but for now we were happy to have recorded anything.

 

 

 

Polyhymnia är ett holländskt bolag som gör förstklassiga inspelningar och produktioner. Företaget är sprunget ur den tekniska delen av Philips Classics sedan 1950-talet. De gjorde några av de första experimentella dsd-inspelningarna i mitten av 90-talet med Erdo Groot vid spakarna. Polyhymnia gör idag inspelningar och efterbearbetning i en kedja som enbart inbegriper analog signal och dsd-signal.

 


eClassical säger såhär:

Quote

 

What we call "Original sample rate" is the pcm sample rate of the highest bit rate files we receive from the labels. The highest bit rate download we offer will have the same sample rate. We ask the labels to give us the highest meaningful quality in which they have the recording. If they didn't convert rates during the postproduction, this will be the sample rate in which the album was recorded. But we cannot know each label's signal chain for each album. We trust them that they don't deliver upsampled recordings (contact our support if you think you found a "black sheep"). Should they send sample rates lower than the original, they obviously have no other choice (at present). Even there, we can't know whether a higher version maybe exists.

 

We understand that the above may be considered inaccurate for dsd recordings. Of course, there the "original sample rate" was 2.8224 MHz. And some people will definitely want to have the "better" dsd originals, no pcm conversions. But since we decided to only deal with pcm files at eClassical (up to now), we write what you will get when you buy the album. Unless looking up each album manually, we won't even know whether it has been dsd once - or maybe just some tracks of it?  That information rests with the labels.  Therefore, should it be essential for you to know whether a 88.2 or 96 kHz album originates from a dsd recording, we must ask you to check this with the respective label or read in the enclosed booklet. This is what our term "original" means in detail. We hope you understand that we don't have the possibilities to "legally bindingly" inform you about the production process of every album we sell, since we don't have access to each label's modus operandi for each specific record. 

 


 

En annan viktig faktor är att sacd aldrig har sålt. Det är väldigt små volymer i förhållande till det utbud av sacd och dsd som trots allt finns. Man ska dock tänka på att en del av nedladdningen är dsd, men sannolikt inte större andel än förhållandet mellan cd och sacd. Som bäst sålde sacd i USA för 26 MUSD och det var år 2003, det är alltså bara promille av motsvarande cd-försäljning. 2003 var också det enda år då sacd, med knapp marginal, slog LP-försäljningen :)

 

riaa.jpg

Omsättning i USA för några utvalda format. Källa: RIAA


Så vad drar man för slutsatser?  Ja, framför allt att allt som glimmar inte är guld. Även om man köper dsd så är det stor sannolikhet att materialet är mixat och mastrat i 24-bitars pcm. Men inte alltid, och tendensen är att dsd-mastring ökar.

 

En sak som jag inte begriper är varför dsd säljs till ca 40% högre pris än sacd :unsure:

 

.........bis.jpg chandos.jpg channelclassics.jpg harmoniamundi.jpg chandos2.jpg

 

 

 

Holländska Pentatone gör alla sina utgåvor i SACD, och det rör sig om 30 album per år.

Det var Giel Bessels, Dirk van Dijk och Job Maarse från Philips Classics som startade etiketten 2001, med fokus på högkvalitetsinspelningar med internationella toppmusiker.

De anlitar Polyhymnia (sannolikt gamla kolleger) för DSD-inspelning, editering, mixning och mastring för SACD.

De ger även ut ommastringar av fyrkanalsinspelningar från Philips som gjordes för quad-skivor på 70-talet. Fantastiskt.

 

pentatone-01.jpg pentatone-02.jpg

 

Detta tycker jag är ett exempel på en katalog som prioriterar det musikaliska innehållet, toppsolister och bra orkestrar. Men de bryr sig också om produktionen. Hög kvalitet rakt igenom.

 

pentatone-symbol-white-new.jpg PENTATONE

 

 

Jag kan se en rad anledningar till att inte mixa i dsd (personal, kostnader, programvara i alla led, multiformatsläpp), och jag tycker inte att det är självklart bättre på ena eller andra sättet. Jag vet ärligt talat inte om det ens finns en vits i att mixa i dsd som slutformat, och att mixa nånstans mitt i dsd-processen är ett högriskprojekt pga brushantering.


För en mastringsstudio är kedjan liksom öppen och de kan tagga in och ur med olika moduler, stoppa, blanda, splitta, jobba med kanaler, fasmodulera, frysa, backa osv lite som de tycker blir bäst. Varken en pcm- eller dsd-fil har ett fixt format, utan det finns råformat och mellanformat även av dessa. De kan arbeta med materialet på sampelnivå eller vilken nivå de vill, i okomprimerad form och utan kopieringsskydd. Inspelning, mixning och mastring är ju också en betydande del av artisteriet. Detta är ju väsentligt annorlunda jämfört med musiklyssning med en dac.

 

Jag märker att jag har svårt att förklara mig :)

Men ponera att jag tycker att 24/96 låter skit hos mig, men att dsd låter suveränt.
Även om det är en analog inspelning som ad-omvandlas och mixas i rå 24/96 för att sedan mastras för sacd, så betyder inte det att även den låter skit.
De spåren som den digitala bearbetningen lämnar efter sig behöver inte ens synas (höras) eftersom i mixningen kan en skicklig hantverkare tillämpa supersmarta tekniker (exvis dithering och anti-aliasing) baserat på det aktuella råmaterialet. Och framför allt, en dac kan vara bättre på vissa operationer än på andra.

 

 

 

Lagring, komprimering, lossy och lossless
 

CD-formatet definieras av Red Book, vilket innebär 2-kanalsljud med bitdjup 16 och samplingsfrekvens 44.1 kHz. En Byte motsvarar 8 bitar, så vi har alltså 2 Byte gånger 44100 sampel per sekund, gånger två kanaler, gånger 60 sekunder per minut vilket motsvarar 2 x 44100 x 2 x 60 = 10 MB/min.
En cd-skiva kan därför innehålla max 85 min pcm, och en 1 TB-hårddisk kan innehålla max ca 1500 album okomprimerad pcm.
För strömning av okomprimerad pcm i realtid krävs att all inblandad hårdvara kan hantera minst 200 kB/s. Det gäller även vid strömning från Internettjänster, men en fiberanslutning 100/100 motsvarar 100 Mbps / 8 = 12.5MB/s, så det lär inte vara några problem så länge strömningen får kidnappa några procent av anslutningen.

 

Men det finns två huvudskäl att komprimera audio. Båda reducerar dynamikomfånget, men de har olika syften.

 

Det ena skälet är under mixning och mastring, där kompression används för att ge en mer naturlig nivåvariation och uppfattbarhet utan att ge distorsion. Det gör musiken mer bekväm att lyssna på.

 

För kompression i mixning sätter man ett tröskelvärde på nivån. Den del av signalpeakar som överstiger denna nivå komprimeras, dvs nivån sänks, och hur mycket det sänks bestämmer man med ett förhållande mellan insignal och utsignal.
Här är ett exempel där tröskelvärdet satts till -24dB, och tre olika ratio 2:1, 4:1 och 8:1 jämfört med ratio 1:1 som betyder att utsignal=insignal (ingen kompression).

 

image.png

 

Det finns hårdvara som ger ett hårt eller mjukt knä dvs övergången vid tröskeln är distinkt som i figuren ovan, eller med en mjukare övergångszon. Man brukar även styra attack dvs tiden i millisekunder innan hårdvaran börjar komprimera en insignal som överstiger tröskeln, liksom release som är tiden innan signalen återgår efter tröskelvärdet understigits. Det ger mjukare och mer naturliga övergångar även i tiden.

 

image.png

 

I en kompressor eller limiter ökar man även förstärkning eftersom ju signalnivån har sänkts. Under många års tid har man dock successivt pressat nivåer för att skapa effekt och höras i allt brus, inledningsvis framför allt i radio. Det som låter högre skapar helt enkelt mer uppmärksamhet. Ofta sätter man då tröskelvärdet mycket lågt, tex allt som överstiger -6dB komprimeras. Detta okynnesbetéende har kommit att gå under namnet Loudness War.

 

IMG_0285.PNG

 

Kompressorn Tube-Tech CL1B från danska Lydkraft.

 


Det andra huvudskälet för kompression är för att minska filstorlek.
 

Kompression av audio utförs för att minska filstorleken för upp- och nedladdning samt för att minska lagringsplats på disk.

Principen i all datakompression är i första hand att ta bort redundant information. För en bild eller videoframe kan det vara svarta pixlar, för audio är det typiskt tystnad. Musik innehåller mycket tystnad (givet hur man definierar tystnad), och man behöver inte definiera hur tystnad låter för varje enskilt sampel den förekommer.

I andra hand minskar man bitdjup och samplingsfrekvens. För en bild minskar man antalet färger och pixlar. För ljud minskar man antalet steg i nivå och ökar avståndet mellan sampel.

Båda dessa åtgärder kan göras på finurliga sätt, och det är hur vi uppfattar bild och ljud som avgör vad man kan förenkla mest utan att synbart/hörbart försämra kvalitén för mycket. Inom audio baseras de flesta förekommande sätten därför på psykoakustisk forskning. Man konstruerar algoritmer för analys av data och matematiska operationer för hur psykoakustiska approximationer kan genomföras. Man plockar helt enkelt ut det vi uppfattar som mest signifikanta data och rensar bort det som är mindre viktigt, vilket ger högre ljudkvalitet per byte.

Dessa algoritmer implementeras i mjukvara som standardiseras och kallas då codec. En codec kodar ljudströmmen för lagring och transport, och avkodar den vid uppspelning (coding-decoding).

Codecs för kompression på detta sätt brukar delas in i om den är lossy eller lossless, dvs om kompressionen degraderar signalen eller ej.

De vanligaste formaten för okomprimerad förlustfri audio är WAV och DST (Direct Stream Transfer).

WAV har vi förklarat ovan, och DST är den codec som används för DSD som ju baseras på pulsdensitetsmodulering (PDM).

De vanligaste formaten för komprimerad förlustfri audio är FLAC (Free Lossless Audio Codec) och ALAC (Apple Lossless Audio Codec).

De vanligaste formaten för komprimerad audio med förluster är AAC (MPEG-2 och MPEG-4), AC3 (Dolby Digital) och MP3 (MPEG Audio Layer III)

 

Ett exempel på algoritm är den mycket vanligt förekommande MDCT (Modified Discrete Cosine Transform), som används för tex MP3 och många andra komprimerade format. I huvuddrag innefattar algoritmen sex steg:

 

  1. Audiosignalen delas upp i 32 frekvensband, där varje band filtreras för att reducera vikningsdistorsion (filterbank).
     
  2. Därefter utförs en 1024-punkters FFT. En audiosignal är av naturen i tidsdomänen, men det är i frekvensdomänen man kan se och reducera bort "onödig" data och artefakter.
     
  3. Den psykoakustiska modellen appliceras.
     
  4. Kompression utförs med MDCT.
     
  5. Signalen kvantiseras till vald bitrate och ytterligare komprimeringsrutiner tillämpas exvis Huffmankodning.
     
  6. I sista steget formatteras bitströmmen till frames, med header, error check, audio data och ancillary data. Signalen sparas som en bitström.

 

 

image.png

 

 

Förlustfri komprimering kan minska filstorlek till ca 50%. Gränsen för hur mycket förlustfri komprimering som är möjlig kallas för entropy rate. Gränsen är helt statistisk och beror på bit-sekvenserna av data. Det går inte komprimera mer än så, men man kan komma nära. För komprimering med förluster kan man minska en fil till 10% av originalfilen, men för audio och bilder är då degraderingen klart märkbar. För video är ganska hård komprimering mindre märkbar.


 

Quote

 

There is no point in dealing with inaudible sounds.

 

Stämmer det?

Och vad innebär "inaudible"?

Hör man inte ett ljud (eller snarare en klangsammansättning) även om man inte kan pinpointa den i ett hörseltest?

 

Link to comment
Share on other sites

On 2020-10-18 at 14:33, Amatören said:

Jag tror det finns ett stort intresse "där ute" att få en "komplett" digital-audio-förståelse-bibel

Det måste egentligen ta sitt avstamp i computer audio, dvs mjukvaruspelare, ljudkort, asio o sånt i pc- och mac-världarna.

Jag stöttar den som har lust att ta tag i det till 100%. Med bilder, korrektur eller vad det må vara.

:1952293183_slightlysmilingface:

Link to comment
Share on other sites

 

Begränsningar, fel och brister

(Before anyone did anything, Elvis did everything)

 

Här kommer några exempel och beskrivningar för att exemplifiera varför det inte "bara är ettor och nollor" och att format inte är liktydigt med prestanda.

Vi kan också exemplifiera varför det ens är en idé att hålla på med bitdjup och samplingsfrekvenser som ligger högt över hörbara gränser.

 

image.png

Bild: gurushots.com

 

 

Linjäritetsfel

 

Om vi börjar med hårdvaran, så har alla da-omvandlare mer eller mindre problem med låga signalnivåer eller signalnivåskillnader.

Stereophile brukade mäta linjäritetsfel på digitalspelare som var mycket illustrativa. Weiss har grymma resultat i de mätningarna, exempel:

 

image.png


Även om alla är medvetna att da-omvandlare låter olika, så finns det en utbredd uppfattning att digitala källor är mer eller mindre perfekta. CD-ljud har alldeles tillräcklig upplösning och dynamik osv.
Visst, så är det.
Men "CD-ljud" eller 16/44 är ett format, en standard. Det är inte ett mått på vad en cd-spelare, transport eller dac har för prestanda. Det säger bara att den kan spela och/eller avkoda det formatet. Inte hur bra den gör det. Nivån i en digital fil ges av bitdjupet, tex 216=65536 steg. Om en CD-spelare har tex +/-1V output så blir upplösningen 2/65536=0.03mV. Pga mer eller mindre linjäritetsfel i dacen kommer så små spänningsskillnader inte kunna hanteras, utan snarare kanske 2/213=0.2mV, vilket såklart resulterar i drastiskt reducerat dynamikomfång.

 

Här är en mätning på en Zanden som väl kostar en kvarts miljon:

image.png

 

Om vi säger att +/-2dB är acceptabel gräns, så spelar denna med 88/6=14 bitar. Detta är ju en highend-dac, och tittar man på de enklare varianterna ser det ut hur som helst, 10-12 bitar inte ovanligt och lägg till en digital volymkontroll så rasar det helt. I specarna visas en spikrak frekvensgångsmätning vid full output, och då är det ju perfekt. Eller? Det är ju digitalt :unsure:

 

CD-formatet (redbook) har utan tvekan tagits fram utifrån att människan hör 20-20000Hz, och många ställer sig bakom detta och blir ibland t.o.m irriterade på folk som väljer format med bättre prestanda. Men det är just att redbook är ett format som förbises. Alla tillkortakommanden i inspelnings-, mastrings-, mixnings- och uppspelningskedjan kommer adderas på varandra. Om inspelningen är ett analogt masterband eller 24/96 som spelas med en bra transport och en bra dac så fungerar det utmärkt med uppspelning av cd. Men om inspelningen är gjord på ett ljudkort på moderkortet i en laptop, uppspelningen sker från HRT musicstreamer och digital volymkontroll... :dead: I båda fallen är det 16/44, och det är ju bara ettor och nollor eller hur :)

Hemmapulare som spelar in, samplar, mixar, mastrar, konverterar, filtrerar i den miljön kommer inte ha en nyttosignal som är i närheten av redbooks randvillkor.

 

 

Degradering pga filter

 

Oavsett format finns det normalt alltid ett lågpassfilter i en DAC. Hur och om detta påverkar den analoga signalen inom hörbara audiobandet beror på formatets samplingsfrekvens och filtrets branthet.

Här är ett exempel där man ser att en dac som spelar vanlig cd påverkar en bra bit ner i hörbart område även med ett brant filter:

 

image.png

Not: grupplöptiden är här normaliserad och ska divideras med aktuell frekvens. För 2kHz är alltså grupplöptiden 1,0/2000=0,5ms.

 

Om signalen är 16 bitar, så bör dämpningen inom stoppbandet vara -96dB. Det innebär att om nyquist-frekvensen inte är rejält högre än audiobandet så är det svårt (och dyrt) att hitta ett passande antivikningsfilter. Även med ovanstående exempel på filter och utan översampling av pcm 16/44 får man i praktiken 9 bitars audio med flera dB dämpning högfrekvent, samt artefakter med fasvridningar inom audiobandet.

De där enkla diagrammen som redovisas i olika sammanhang för att jämföra och visa på förträffligheten med cd säger alltså inte sanningen. Det är inget fel på formatet CD, men det är ju vad man får i verkligheten som är det avgörande.

 

 

Även bitdjup och nivå kan påverka vid rekonstruktion, eftersom om signalen är nära full nivå (0 dBFS) så kommer sincen ge värden utanför möjligt omfång, dvs klippning:

 

gradius%2Btrue%2Bpeak.png

Exempel på klippning pga rekonstruktion med sincen. Bild: archimago.blogspot.com

 

 

De flesta dac-chip på marknaden ger sådan intersample clipping med audio som saknar headroom, oavsett om de är från TI, AKM eller ESS. Här är ett exempel på vad som händer med vitt brus med 0dBFS (blå), -3dBFS (röd) och -6dBFS (grön kurva).

 

image.png

När en audiosignal saknar headroom höjs brusgolvet pga intersample clipping. Bild baserad på mätning från audiosciencereview.com

 

Om insignalen ligger för nära full scale så höjs brusgolvet markant. Utan klippning i dacens interpolering, så hade kurvorna sett likadana ut (som grön kurva). Nu blir det inte såhär drastiskt i praktiken när man spelar musik, men effekten sänker helt klart tillgängligt dynamikomfång, speciellt för pcm 16/44.

 

Det kan alltså vara all idé att öka både bitdjup och samplingsfrekvens (översampla) när man spelar cd. Givetvis måste värdena mellan lagrade sampel interpoleras, annars är det ingen vits :)Som exempel kan man utgå från tex 16/44 flac, konvertera bitdjup till 24 för att inte riskera överstyrning i uppsampling till 24/88, och sedan spara filen. Allt för att bättre anpassa till dacens lågpassfiltrering vid uppspelning.

 

 

 

Vad är då tillräckligt bra?
Är frågan intressant?
Jag tycker inte det eftersom det finns så många om och men. Ur ett mätperspektiv är den intressant eftersom man får bättre mätningar. Men ur ett strikt hörbarhetsperspektiv finns det så många olika nivåer. Brothers In Arms låter tillräckligt bra i min telefon. Det gör inte Khatchaturian. Och å ena sidan har man inga problem att ta till sig 8-bitars ljud samplat med 22kHz. Men om man lyssnar efter utklingningen i en cymbal så kommer den både låta naturligare och hänga i längre om man utgår från ett fullt utnyttjat 24/96-format. Och om det är pga naturligt brus så kommer man höra cymbalen genom bruset mycket lägre än för en bitbaserad dynamik (som ju blir tyst). Osv. Så diskussionen om vad som är tillräckligt bra blir akademisk tycker jag. Den är intressant men går inte att svara på utan att missförstås. Den är inget värd utan en jätteradänga av sammanhängande villkor inkl psykoakustik.

 

R-11222804-1512198674-3154.jpeg.jpg

 

Vid för hög upplösning (>pcm 24/96 eller >dsd128) är jag rädd att man flyttar flaskhalsar till andra processer i signalbehandlingen, brister i exekveringen av rutiner med stora mängder data klockade i realtid skapar mer fel än vad den högre upplösningen bidrar med. Om jag vid sporadiska tillfällen hör dropouts, så är det för mig en signal att den digitala signalbehandlingen är stressad, dvs att det sker kontinuerligt omfattande fel. En dropout är ju egentligen ett haveri. Man kan inte heller bortse från att 32-bitars ljud o liknande blir för kliniskt, för lite brus. Eller rentav en kombination av de båda.

 

 

Digital filhantering

 

Vad händer med ljudfiler när de digitala funktionerna i spelaren används?

 

För att studera det skapade jag en 10 sek mono ljudfil med en helt perfekt 1kHz fyrkantvåg. Därefter är denna konverterad till dsd64 i JRiver Mediacenter, sparad som fil, och därefter är den sparade filen konverterad tillbaka till pcm 16/44.

 

Här är alltså en 1kHz fyrkantvåg mono 0.8 x full scale som jag skapat syntetiskt och den är därför helt perfekt:

image.png

 

Samma ton sparad som pcm 16/44:

1kHz-square-16-44-flac.jpg


Här är samma ton konverterad till dsd64:

1kHz-square-16-44-dsd64.jpg

 

Här är samma ton konverterad tillbaka till pcm 16/44:
1kHz-square-16-44-dsd64-pcm1644.jpg

 

Med korrekta rekonstruktionsfilter kommer denna ljudfil fungera hur bra som helst. Men har vi koll på det när vi konverterar filer?

 

 

Slutsatser

 

I de enkla exemplen ovan (linjäritet i dac, inverkan av filter och digital mixning) ser man att dynamiken enkelt kan begränsas till 50-70dB. Dvs i samma härad som normala inspelningar på LP pga brus i konsertsalen/studion/spelstället, inspelningskedjan, mikrofoner, elektronikbrus, skivbrus etc. Brus som dessutom är betydligt behagligare än syntetbrus. Sammanfattning:

 

  1. Pga mer eller mindre linjäritetsfel i hårdvara är bitdjupet ofta betydligt lägre än det format man spelar. Man har ofta 75-80dB möjligt dynamikomfång snarare än tex 96dB som formatet för cd medger.
     
  2. En digital ljudfil behöver filtreras i da-omvandlaren. Hur väl denna filtrering fungerar beror på filtrets kvalitet och hur det har implementerats.
     
  3. En digital inspelning måste mixas. Många typer av processer (nivå, eq, filter, konverteringar) kommer påverka signalen på olika sätt som vi sett exempel på ovan. En professionell mastringsingenjör har järnkoll på detta. Men denna typ av "mixning" förekommer också ofta i konsumentmjukvara. Det krävs en hel del av en användare för att ha koll på vad mjukvaran egentligen gör med musikfilerna.
     
  4. Om man inte har tillräckligt headroom i mastern så kommer konverteringar och andra processer ge överstyrningar i mixen, dvs signalen kommer dista i övertoner. Detta headroom måste man reservera från tillgängligt dynamikomfång.

 

I dessa punkter ligger kanske också anledningen att en pcm 24/96 master kan bli ett bättre slutresultat som dsd64 än som pcm 16/44?

 

Syftet med ovanstående är att visa att format prestanda. Det vet vi och det är trivialt, men jag tycker ofta det verkar negligeras. Vi tror på nåt sätt ändå att cd-avspelning = cd-kvalitet. Mer och mer material förekommer i form av nedladdad musik och rippning. Den hanteras på diskar i hemdatormiljö, och importeras till olika bibliotek i musikspelare, dsp managers, eq, converters, filter osv. För mig är detta ett minfält. Jag tycker att jag alltför ofta ser funktioner som bara är en checkbox i en meny och man har ingen aning om vad den egentligen innebär.

 

En konvertering av pcm24/96 till dsd64 och vice versa fungerar mycket bättre, men jag tycker ändå att man ska uppmärksamma riskerna med att dribbla med musikfiler. Det är inte ettor och nollor som bara flyttas runt och kan återställas till sitt ursprung*). Räkna med att en transkodning för alltid har förändrat strukturen på ljudmaterialet. Väldigt mycket av den mjukvara som förekommer har en rad andra funktioner som kan likställas med konvertering. Det behöver inte vara en regelrätt formatkonvertering, utan alla filter innebär en transkodning, vilket innebär att originalet förändras.

 

*) Jo, det är det. Men ni förstår vad jag menar.

 

Link to comment
Share on other sites

  • 4 weeks later...
  • 2 years later...

Computer Audio och MP3-revolutionen

På det tidiga 90-talet jobbade undertecknad som fotografassistent till en av Sveriges skarpaste skidsportfotografer. Under den perioden hände det massor inom media som var knutet till den datorkraft som började bli tillgänglig, även för mindre företag och även privatpersoner.

Vi började digitalisera och katalogisera de bilder som bildbyrån erbjöd de tryckta mediernas reklambyråer och dagspress. Det underlättade enormt när man kunde ”bolla” bilder via epost och möjliggjorde att flera kunder kunde ha tillgång till samma bild för påseende. 

 

De första datorerna dök upp med CD-släde och CD-skivan kunde även lyftas in på datorns hårddisk. Jodå, det gick även att få ut ljudet ur både datorns högtalare och även via linjenivå. Jag har inget minne av hur det lät, om jag någonsin lyssnade till ljudet från filer uppspelade av en dator, annat än via den inbyggda högtalaren!

image.jpeg

Macintosh IIvx -93, med optisk läsare. Man fick lägga CD-skivan i en ”kassett” som sedan matades in under floppy-diskläsaren. Jag tror min hade 80Mb hårddisk…

 

Varje CD-skiva kunde lagra upp till 74minuter musik, eller i datorns lagringsmått mätt 650Mb (första generationen). Dessa datamängder var inte rimliga att lagra på en hemdator före millenieskiftet, kostnaden skulle bli orimlig. Det fanns givetvis också planer och önskemål om att kunna kommunicera digitalt både i ljud och bild över den begränsade bandbredd som var tillgänglig för gemene man och aktiebolag.

 

Under den här perioden började internet bli en folkhemstillgång, inte som tidigare för universitet och företag. Eftersom lagringsytan fortfarande var en kostsam tillgång var det då inte görbart eller praktiskt att lagra sina CD på hårddisken. En del av svaret på behov av lagring och överföring av digitalt ljud var MP3, ISO Mpeg Audio Layer 3. Utvecklingen av denna audiokompression hade börjat redan tidigt 80-tal men nu började den tillämpas av alla möjliga intressenter. Möjligheten att komprimera digitala ljudfiler ned till 1/12-del av sin ursprungliga storlek gjorde det möjligt att både lagra och överföra dessa via modem-länkar och ISDN-anslutningar.

 

1998 lanserades de första MP3-spelarna, kommer ni ihåg Rio MP3? 

image.jpeg
Den hade 32Mb minne och en extra port för lagringsminne. Anslöts till en dator via en speciell vagga, till printerporten. Den här modellen såldes i ca 200.000 exemplar efter att en rättstvist fördröjt lanseringen. RIAA försökte stoppa försäljningen eftersom det medförde att man kunde spela upp upphovsrättsskyddat material på en annan plats än där den licensierade utgåvan (CD’n) befann sig.

 

 

1999 lanserades programmet Napster, en sorts sökmotor för MP3-filer som tillgängliggjordes av samma användare som laddade ned dem. Teknologin för att sprida trafiken över flera användares bandbredd kallas P2P, Peer to Peer. Napster stämdes ganska snart av bl.a. Metallica eftersom programmet möjliggjorde delning av upphovsrättsskyddat material.

 

2001 släppte Apple sin iPod, med inbyggd 1.8” hårddisk på 5Gb vilket utlovade ”a thousand songs in your pocket”. Detta kom ca 8 månader efter att iTunes släpptes till Macintosh. iTunes har alltid valt AAC, Advanced Audio Codec som det föredragna valet av kompression, även om iTunes även kunnat spela upp och hantera MP3-filer. Apple har rapporterat en försäljning av ca 400.000.000 iPod-enheter av olika modell fram till och med 2014.

 

Varför är det här ens intressant för oss, som ibland kallas audiofiler (”vänner av ljud”, och musik, egen tolkning) kan man ju undra? Anledningen är givetvis att utvecklingen av lagringsutrymme och överföringskapacitet har möjliggjort en helt ny sida av musikbranschen, samtidigt som dörrarna stängts för andra. Vi har accepterat att digitalt ljud  i form av filer är en likvärdig ljudkälla med en CD-skiva eller iaf jämförbar. Digitalt lagrad musik har onekligen fördelar i form av utbud, tillgänglighet, portabilitet och det kan även låta fantastiskt, i synnerhet om vi tillåter oss att lyssna till okomprimerade filer eller kanske till och med filer av samma typ som de som lagras på SACD-skivorna. 

 

Det här handlar hittills primärt om hur man lagrar och överför filer, men att strömma media har varit en ambition och möjlighet sedan det tidiga 90-talet. Utvecklingen av teknologier för att komprimera, överföra och styra digitalt media har varit helt avgörande för den utveckling vi sett de senaste 25 åren. 

 

Önskemål om större utbud, högre upplösning och uppspelning i portabla spelare har dock introducerat nya krav, i synnerhet ökar behoven av lagring. Tillgången på bandbredd och uppkoppling har ju öppnat för andra sätt att konsumera musik utan att behöva lagra den. Och genom att välja att strömma musiken kan vi minska kraven på lagringsyta och istället förskjuta behoven mot bandbredd.

 

Den här utvecklingen har givetvis medfört ändrade beteendemönster och format vår vardag i många andra aspekter, men kontentan av detta är att vi idag accepterar att hyra musik, eller välja att lagra den musik vi köpt på en annan plats än där den avses spelas upp som musik. Vi kommer osökt in på vad vi kallar streaming, och hur vi kan tillämpa det och hur det öppnar andra möjligheter för oss musikkonsumenter.

 

Streaming for dummies 

Nej, det är missvisande då man alls inte behöver vara en ”dummie” för att finna detta förvirrande. Streaming är komplext och det finns nästan lika många varianter som tillämpare, det kan vi fastställa redan nu och för att göra detta gripbart behövs ett gemensamt språk. 

 

Vad är Streaming då? Ja, det är ju ett begrepp som kan innefatta många saker. Den mest korrekta definitionen torde vara ”uppspelning utan att lagra källmaterialet”. Det blir ju en sanning med modifikation, för någonstans lagras de flesta källmaterial, förutom live strömmar.

 

Utan att ljuga allt för mycket vill jag påstå att streaming-epitetet kan tillämpas på alla typer av mediauppspelning som kräver ett nätverk baserat på ethernet, trådlöst eller trådbundet. Namnet används även för apparater som enbart spelar upp filer från inbyggd lagring vilket kanske inte är formellt korrekt men eg. spelar det mindre roll för förståelsen. För mig är ordet ”nätverksuppspelning” eller ”nätverksspelare” liktydiga med streaming. 

Syftet med streaming är att kunna tillhandahålla media vid behov eller i realtid till små, billiga (inte alltid) utenheter som omvandlar den digitala strömmen till ljud och/eller bild. Du behöver alltså inte lagra informationen i uppspelningsapparaten, även om detta ofta också sker, helt eller delvis i form av "buffring". 

Några uttryck som används ofta är On Demand och Live, eller realtid, och dessa beskriver om du själv bestämmer när strömmen skall levereras eller om strömmen påbörjas vid en fastställd tidpunkt. Skillnaden är att i realtid kan man ”slå på TV’n och se vad som just nu sänds” medan on demand betyder att du går in på TV4 Play och klickar på symbolen för senaste avsnittet av ”Bonde söker fru”, eller kanske inte förresten... Men, du fattar vad jag menar! 
Internetradio och live/direkt-sändningar från streamingtjänster som t.ex. Metropolitan-operan är ”live” eller i realtid. När vi däremot klickar på Ed Sheerans senaste album och väljer ”play” så strömmas innehållet ”on demand”, på begäran översatt. 

Däremot börjar gränsen mellan on-demand och live att suddas ut, då tjänster som exempelvis Radio Paradise erbjuder möjlighet att "hoppa" till nästa spår, vilket är omöjligt om du tar del av en äkta livesändning såklart! Radio Paradise och liknande tjänster uppträder som en live-tjänst, men bygger i bakgrunden på samma teknik som bygger on-demand funktionalitet. Motsvarande kan sägas om hur dagens nätverksbaserade TV-utbud byggs upp.

 

Streamingens logik

Oavsett metod så behöver vi några byggstenar för att streaming ska kunna ske. För det första så behövs en digital fil, eller en källa som skapar en digital ström av information lämpad för överföring via nätverk. Vi kallar logiskt denna information för källa, eller source. För översiktens skull ger vi denna byggsten symbolen nedan:
source.png Källa (Source, Media, Stream) 

 

Vi behöver i dessa sammanhang också något som driver, riktar eller sänder informationsflödet, vi kan kalla det för motor eller engine. I våra lokala sammanhang handlar det oftast om en programvara, eller den del av programvaran som ansvarar för att samla information om tillgängligt media, bygga ett bibliotek och presentera den överskådligt. Den initierar också ljudströmmen och möjligtvis manipulerar den, både för att göra den kompatibel eller för att anpassa till konsumentens önskemål. Den får symbolen:
engine.png Motor (Roon Core, Media Server) 

 

Nästa del blir den som "konsumerar" ljudströmmen från nätverket. Här blir det lite förvirrande då utenheten egentligen inte behöver producera musik, det kan lika gärna handla om en digital signal t.ex. i formatet SPDIF. Men, det viktiga är att utenheten uppnår det till synes enkla målet att omvandla informationen som skickats över nätverket (eller internt i apparaten) till en ljudström, digital eller analog. Ljudströmmen har den egenheten att den skickas utan möjligheter att korrigera eller begära om informationen. Man kan säga att man i någon mån återför tidskomponenten i det digitala mediat. Så länge den är digital finns möjligheten för mottagaren att kontrollera att informationen är oförvanskad, men inte att begära en korrigerad sändning. Om ljudströmmen uppfattas som icke-korrekt så räknas närmevärden ut matematiskt. I de flesta fall går inte heller att verifiera tidsperspektivet utan man får anamma ett ömsesidigt förtroende att de inblandade parternas klockor är synkroniserade och inte avviker. 

För våra syften ger vi utenheten symbolen av en högtalare, även om den kan vara en sekvens av ettor och nollor:
endpoint.png Utenhet (Roon Bridge, MediaRenderer, Endpoint, Streamer)

 

För att dessa komponenter skall vara till någon nytta måste vi ju kunna välja vad vi vill skall spelas upp, och var. Här kommer det kritiska gränssnittet in oavsett om det handlar om en fysisk fjärrkontroll i metall, knappar på apparaten eller en app på din telefon. Syftet är ju ganska enkelt, att välja ut vad som skall spelas upp och, där så är möjligt, var någonstans. 

Symbolen får bli en sån här:
 control.pngStyrning (Roon Control, Control point, Fjärrkontroll, Touchpanel, App) 

 

Ofta finns möjligheten att anpassa ljudströmmens eller ljudets egenskaper av olika skäl. Det kan t.ex. handla om att olika utenheter helt enkelt inte klarar av alla upptänkliga format, upplösningar eller liknande. Eller något så grundläggande som en digital volymkontroll. Ibland finns anpassningarna ”bakom kulisserna” så att säga men de flesta system har någon metod att påverka ljudströmmens egenskaper. Det kan givetvis handla om andra typer av anpassning också, tycke och smak, systemanpassning etc. 

Symbolen för anpassning får bli denna:

dsp.png Anpassning (Transcoding, Re- Up- Downsampling, Volymkontroll) 

 

De fyra första delarna krävs för att få ljud ur ett streaming-system medan den femte inte alltid är synlig eller obligatorisk. Komponenterna har lite olika namn i olika sammanhang men jag tänkte försöka visa på några olika system och var respektive komponent placerats. 

 

Översikt Squeezebox

En klassiker som de flesta hört talas om, och många kommit i kontakt med.

Den schematiska översikten ser ungefär ut så här:

squeeze.png

I bilden ovan representeras 

Källan (1.) av Internet och lokalt tillgänglig media. Med lokalt tillgängligt menas att det kan vara åtkomligt via nätverket (NAS) eller anslutet direkt till servern, som t.ex. en intern hårddisk, minneskort eller en USB-hårddisk. 

Motorn (2.) kan befinna sig på en NAS, en dator eller kanske på en RaspberryPi. 

Utenheten (3.) kan t.ex. vara en Squeezebox Classic i sovrummet, eller en piCorePlayer vid uteplatsen. 

Styrningen (4.) slutligen kan vara en app i din telefon, en fysisk fjärrkontroll eller kanske touchdisplayen på en Squeezebox Touch. 

 

Översikt Laptopbaserad streaming

Låt oss titta på en annan lösning, kanske en som många av oss provat på, nämligen en dator med uppspelningsprogramvara och USB-DAC, nätverksansluten och eventuellt filer på en NAS. Styrning med platta eller smartphone är en möjlighet, inte ett krav, som också innebär det första steget att dela upp de logiska byggstenarna i en streaminglösning. 

pc.png

Nu börjar förkortningarna ramla in igen, ledsen, men det blir tydligare bilder så. Bilden beskriver en anläggning med möjlighet att: 

  • Spela lokala filer från inbyggd hårddisk (eller USB-hårddisk/sticka/SD kort etc).
  • Spela filer från nätverket. Några program som låter dig utföra detta är t.ex. iTunes, JRiver Media Center eller Windows Media Player.
  • Spela Internetradio och on demand-tjänster. Exempel är t.ex. Sveriges Radio P2, Spotify, Tidal.
  • Ta del av Live-streams via YouTube, Facebook och även Tidal, Spotify m.fl.

 

Lägg märke till att DAC’en i sig inte fått någon funktionssymbol. Den är ingen ljudbrygga i det här perspektivet då den tar emot en digital ljudström (över USB, SPDIF e.d.) som redan omvandlats från sitt filbaserade eller nätverksbaserade format. Datorn kan lämna både digital (ofta) och analog ljudsignal redan. 

 

Några begrepp är bra att känna till:

När vi diskuterar runt den nödvändiga infrastrukturen kommer ofta en mängd begrepp upp. Man behöver vara bekant med dessa för att göra sig förstådd och förstå.
Router – Denna ansluter dig till din internetoperatör och skapar ett privat nätverk, där du ansluter dina produkter, på ”insidan”. Anslutningarna brukar ofta förkortas WAN (anslutning till Internet), LAN (lokalt, trådbundet nätverk) och WLAN (trådlöst lokalt nätverk, ibland omnämnt som WiFi av ngn outgrundlig anledning). Den låter kommunikation ske mellan de olika anslutningarna och brukar innehålla en tjänst som delar ut adresser. Dessa kallas för IP-adresser och är fundamentala för kommunikationen. Många routrar har också möjlighet att ansluta en USB-hårddisk och göra innehållet tillgängligt på ditt nätverk. I princip blir din router + USB-hårddisk = NAS

NAS – Formellt ”nätverksansluten disk” men i de allra flesta fall innehåller en NAS programvara som gör att du kan tilldela den funktionalitet i din tänkta streaminglösning. Den fungerar i de flesta fall även som hjälpreda för administrativa sysslor som backuper, lagring av dokument och annat. Dessa är oundvikliga men när vi närmar oss lyssningsrummet och de begrepp som är förhärskande där blir det mera preferenser och omständigheter som bestämmer språket

 

Låt oss skifta fokus en smula och istället kika på ett par av de produkter som samlas under epitetet streamers eller nätverksspelare.

 

Exempel på dedikerade streamer-produkter

Jag väljer att presentera en mångsidig produkt från Bluesound och även en mera hifi-inriktad apparat från Lumin. De är både lika och avviker en del i funktionalitet.

 

CAF77CE6-6625-40BC-A7D0-8FDD534A6A96.jpeg

Bluesound Node. Den här apparaten kan anslutas till din ljudanläggning och innehåller i sig den viktiga serverdelen och en utenhet och även en DSP som kan bearbeta ljudet genom att t.ex. anpassa utnivån.

engine.pngdsp.pngendpoint.png

Så, för att få ljud ur den behöver vi göra två saker:

1. Se till att vi har en källa, source.png. Det här kan betyda att ansluta en USB-sticka eller konfigurera ett musiktjänst som Tidal. Eller att peka ut en Internernetradio-kanal. 

2. Se till att vi kan kontrollera den, så genom att installera mjukvaran för styrning på en dator, smartphone eller platta,control.png

 

 

 

 

LUMIN-T2.jpgLumin T3, en läckerbit designad för att pryda sin plats i en musikälskares anläggning i alla aspekter. Möjligheterna med T3 påminner mycket om Bluesound men fokusen ligger mer på ljudkvalitet än att ha stöd för "alla" tjänster och funktioner.

dsp.pngendpoint.png

T2 har inte en enda manöverknapp men kan kontrolleras rudimentärt med en fjärrkontroll. Så vi behöver en utförligare fjärrkontroll,control.png och givetvis även konfigurera en eller flera källor, source.png. Dessutom är Lumin konstruerad för att erhålla sitt digitala bibliotek från en separat server, engine.png. Denna ska vara av UPnP-typ, vilket vi kommer till senare.

 

Så, de är "lika" funktionellt påstår jag? Jamän, låt mig lista vad de har gemensamt.
Har du nätverk, ström och en ledig analog ingång på din förstärkare kan du köpa en och få ljud ur den redan idag. Jag förutsätter att du har en tablet, smartphone eller dator som kan utgöra fjärrkontroll. Har du funderingar på Roon som musikspelare så är dessa som klippt och skurna för att ingå som en del i detta. De kan båda anslutas till en extern DAC  om du skulle föredra en annan ljudsignatur än den som erbjuds av apparatens analoga utgångar. De kan användas av "ungarna" som kommer med sina Spotify-fyllda telefoner på besök. Kommer din filspelande vän på besök med en USB-sticka med musik i de "vanliga" formaten kan denna spelas upp direkt. Givetvis erbjuder de Internetradio och kan ersätta din tuner likaväl som de har fullt stöd för de etablerade musiktjänsterna Tidal (Ja, fullt stöd även för MQA om det intresserar) och Qobuz. Båda tillåter volymkontroll med möjlighet att ansluta direkt till aktiva högtalare eller slutsteg.

 

Vilka är skillnaderna då? 

Bluesound Node kan anslutas till ditt nätverk trådlöst, Lumin kräver kabel. Är det ett stort projekt att dra en kabel för nätverket kan det troligen lösas med någon form av "trådlös brygga" om täckningen är god där denna placeras. Bluesound behöver ingen server, den är nöjd om en mapp delas ut på nätverket, och bygger utifrån detta sitt eget bibliotek (Den har en inbyggd engine.png-funktionalitet). Lumin vill ha en server (Minim, Twonky, Asset) på nätverket som redan har byggt ett index över dina filer för bästa funktion. En uppenbar skillnad är givetvis displayen på Lumin, där Node endast avger ett antal ljussignaler från en flerfärgad diod som återkoppling. Möjligheten att hantera de mera esoteriska filformaten är begränsad i Bluesound.

De båda enheternas appar är funktionella och stabila men skiljer sig åt i design. Båda kan tas hem till din tablet/smartphone och köras som demo, även om du inte har en enhet att styra.

 

Identifiera dina krav och önskemål!

Dessa skillnader och likheter är bara exempel givetvis, men de kan fungera som någon introduktion. Hur väljer man då när de är lika som bär och ändå skiljer sig åt i funktion? För att komma med på tåget så finns det ett antal val man behöver göra och några grundkrav som bör uppfyllas innan man kan börja bygga sin streaminglösning.

  • Ett funktionellt nätverk med räckvidd för både ethernetkabel och trådlösa styrdon är en av de viktigaste byggstenarna. Undvik i möjligaste mån routers från din internetleverantör!
  • Utöver detta bör man fundera över om man är intresserad av att spela och hantera lokala filer och om du är intresserad av att prova de mer extrema delarna av upplösningsspektrat. Lumin hanterar t.ex. DSD upp till DSD512 och PCM
  • Vill du även kunna rippa CD/SACD och spela dessa filer så påverkar det vilka val som är mest lämpade.
  • Eller är du enbart intresserad av att konsumera musik via streamingtjänsterna? Spotify, Tidal, Qobuz och Apple Music är väl de mest aktuella för oss audiofiler. Deras utbud skiljer sig åt, både avseende musiken men även tekniskt.
  • Du kanske har tillgänglig datorkraft, nätverkslagring eller kanske en bra DAC som du trivs med, så kommer även detta forma din kravspec.
  • Sätt en budget, det är möjligt att göra detta för vad en biokväll på stan kostar, eller vad din drömbil kostar i inköp. Givetvis kommer både ljudkvalitet och funktionalitet återspegla investeringarna i någon mån.
  • Du bör redan från början fundera över om om du vill ha din streaminglösning koncentrerad i samma rum där du njuter musik eller om du har möjlighet att placera serverfunktionaliteten på annan plats. Det här påverkar kostnad i första hand men påverkar även andra val.
  • En sak vi inte berört ännu är Multi-Room begreppet, alltså möjligheten att skicka ut musiken til verandan synkroniserat med köket, via olika ljudenheter. Här är vissa system mera mogna än andra.

 

Hur kan vi se till att möta de krav och önskemål på funktionalitet och ljudkvalitet som ställs?

Utöver de praktiska krav man kan ha, finns även en del filosofiska ståndpunkter som bör beaktas. Är funktionalitet viktigare än absolut ljudkvalitet? Kan du leva med ett mediokert gränssnitt i utbyte mot ett uns högre ljudkvalitet? Är du en förespråkare av distribuerade system eller vill du ha en integrerad funktion i en enda burk som är tillräckligt "civiliserad" att få vistas bland dina övriga komponenter?

 

Etablerade ekosystem

Det några förhärskande tekniker som är tillräckligt mogna för att anses stabila för att erbjuda ett funktionellt urval, och möjliggöra uppspelning till vald zon.

  • Sonos - Stabilt och funktionellt, bygger på UPnP-standarden men måste nog betraktas som proprietärt.
  • Bluesound BluOS - Även detta stabilt och tryggt, bygger också på en variant av UPnP men är stängt för andra appar och uppspelare. 
  • UPnP/DLNA - en branschstandard som omfattar så oerhört mycket mera än att spela musik. De allra allra flesta streamers har en nära anknytning till UPnP. Streams Unlimited heter ett företag som levererar en hårdvara med tillhörande mjukvara till ett otal stora hårdvarutillverkare, som alla bygger på UPnP. Några exempel på tillverkare som följer UPnP-standarden: Linn, Marantz, Onkyo, Naim, Vitus etc. etc.
  • Squeeze/Logitech Media Server - En klassiker, har varit med länge och nyttjas fortfarande, bl.a. av Innuos. Iaf innan InnuOS 2.0. Ljudenheterna kan lika gärna vara mjukvarubaserade som en Squeezebox.
  • Roon - En vidareutveckling av Sooloos-konceptet. Kan spela till Roon Ready nätverksspelare, Sonos, Squeezebox, Airplay och i princip alla DACar på marknaden om du installerar en Roon Bridge på lämplig hårdvara, som i sin tur ansluts till DAC'en.

 

De flesta hårdvaror bygger på någon av dessa som bas, för att spela filer. De har i princip alltid fler möjligheter till uppspelning, och de vanligaste listas nedan. Utöver dessa har många en inbyggd klient för  Qobuz, Deezer eller andra streamingtjänster, samt vTuner eller TuneIn som tjänst för att hitta Internetradiostationer.

 

  • Airplay - Apples variant på överföring av ljud (och bild i vissa fall). Det här skiljer sig dock åt genom att det inte innefattar någon serverfunktion, utan det är "sändaren" som både gör urval och skickar ljudströmmen till "mottagaren", över nätverket.
  • Bluetooth - Skapar ett eget nätverk mellan sändare och mottagare med begränsad räckvidd och ofta kompromissad ljudkvalitet.
  • Spotify Connect - En riktigt god idé genomförd på ett riktigt bra sätt. Istället för att skicka ljudströmmen från din padda eller telefon direkt till mottagaren, så skickar man bara en adress till ljudströmmen till mottagaren. Denna sköter sedan uppspelningen helt frikopplad från den tlf/padda som gjorde musikvalet.
  • Tidal Connect - Samma princip som ovan, men ganska nytt.
  • Qobuz är nära att lansera sin version av Connect-konceptet men är inte riktigt där ännu i börjn av 2023

 

Streaming och filspelning har potential att låta lika bra eller bättre än andra digitala återgivare. Men kan det låta lika bra som en vältrimmad skivspelare eller kanske till och med en rullbandspelare? Vissa hävdar detta och min egen åsikt är att det handlar mera om mediakvaliteten än bäraren.

 

 

Alla analoga ljudformat är ju linjära och baserade på hastighet. Latens eller tröghet kan komma ifråga i mekaniska transducers såsom pickuper och högtalarelement, men i övrigt sker i princip all signaltransport med nära ljusets hastighet.

 

För digitala format har man plockat bort tidsaspekten helt och beskriver audiosignalen antingen genom antaganden eller separat information. Tiden blir vad den blir utifrån en takt som ges av samplingsfrekvensen. Det medför att signalen kan bibehålla sin integritet när den beskrivits digitalt, trots överföringar och omvandling. Men det kritiska momentet är när man skall återställa tidsinformationen igen, alltså när man skiftat domän för musiksignalen, från den filbaserade diskreta till realtidsdomänen. 

 

De flesta (alla?) streamers och nätverksspelare bygger i någon mån på hyllprodukter från processortillverkare och andra delar inom IT-industrin. Dessa system är inte avsedda att fungera som signalprocessorer. Den stora utmaningen är att skapa realtidssignaler utifrån filernas diskreta värden. Man kan välja att lägga massor med kraft och energi på serversidan för att leverera en så komplett och oförvanskad ström som möjligt, till den ljudenhet som skall skapa realtidssignalen. Eller låta den senare besitta egenskaper som gör det möjligt för den att göra ett bra jobb utan att få med för mycket anomalier och tidsfel i resultatet, även om bakomliggande server bara kan betraktas som "good enough".

 

Summan av kardemumman blir att det är fullt möjligt att skapa god strömmad ljudkvalitet för kaffepengar. Är syftet att uppnå mycket god ljudkvalitet kan det bli både kostsamt och komplext.

 

 

 

Link to comment
Share on other sites

9 minutes ago, Vox said:

Felix St Clair-Renard?

 

Dräglade mycket över hans bilder i "Åka Skidor" på 80-talet. 

😀 Nej, inte den andra Felix heller även om jag träffat dem.

Per Eriksson var det, som även han förekom ofta som fotograf i Åka Skidor. Han har givet en enorm portfolio utöver dessa.

Ett exempel ur hans portfölj, som jag gillar:

136B6F5A-66A2-4991-874B-3F893D6C99D1.jpeg

Foto: Per Eriksson

Link to comment
Share on other sites

5 hours ago, AlfaGTV said:

Computer Audio och MP3-revolutionen

På det tidiga 90-talet jobbade undertecknad som fotografassistent till en av Sveriges skarpaste skidsportfotografer. Under den perioden hände det massor inom media som var knutet till den datorkraft som började bli tillgänglig, även för mindre företag och även privatpersoner.

Vi började digitalisera och katalogisera de bilder som bildbyrån erbjöd de tryckta mediernas reklambyråer och dagspress. Det underlättade enormt när man kunde ”bolla” bilder via epost och möjliggjorde att flera kunder kunde ha tillgång till samma bild för påseende. 

 

De första datorerna dök upp med CD-släde och CD-skivan kunde även lyftas in på datorns hårddisk. Jodå, det gick även att få ut ljudet ur både datorns högtalare och även via linjenivå. Jag har inget minne av hur det lät, om jag någonsin lyssnade till ljudet från filer uppspelade av en dator, annat än via den inbyggda högtalaren!

image.jpeg

Macintosh IIvx -93, med optisk läsare. Man fick lägga CD-skivan i en ”kassett” som sedan matades in under floppy-diskläsaren. Jag tror min hade 80Mb hårddisk…

 

Varje CD-skiva kunde lagra upp till 74minuter musik, eller i datorns lagringsmått mätt 650Mb (första generationen). Dessa datamängder var inte rimliga att lagra på en hemdator före millenieskiftet, kostnaden skulle bli orimlig. Det fanns givetvis också planer och önskemål om att kunna kommunicera digitalt både i ljud och bild över den begränsade bandbredd som var tillgänglig för gemene man och aktiebolag.

 

Under den här perioden började internet bli en folkhemstillgång, inte som tidigare för universitet och företag. Eftersom lagringsytan fortfarande var en kostsam tillgång var det då inte görbart eller praktiskt att lagra sina CD på hårddisken. En del av svaret på behov av lagring och överföring av digitalt ljud var MP3, ISO Mpeg Audio Layer 3. Utvecklingen av denna audiokompression hade börjat redan tidigt 80-tal men nu började den tillämpas av alla möjliga intressenter. Möjligheten att komprimera digitala ljudfiler ned till 1/12-del av sin ursprungliga storlek gjorde det möjligt att både lagra och överföra dessa via modem-länkar och ISDN-anslutningar.

 

1998 lanserades de första MP3-spelarna, kommer ni ihåg Rio MP3? 

image.jpeg
Den hade 32Mb minne och en extra port för lagringsminne. Anslöts till en dator via en speciell vagga, till printerporten. Den här modellen såldes i ca 200.000 exemplar efter att en rättstvist fördröjt lanseringen. RIAA försökte stoppa försäljningen eftersom det medförde att man kunde spela upp upphovsrättsskyddat material på en annan plats än där den licensierade utgåvan (CD’n) befann sig.

 

 

1999 lanserades programmet Napster, en sorts sökmotor för MP3-filer som tillgängliggjordes av samma användare som laddade ned dem. Teknologin för att sprida trafiken över flera användares bandbredd kallas P2P, Peer to Peer. Napster stämdes ganska snart av bl.a. Metallica eftersom programmet möjliggjorde delning av upphovsrättsskyddat material.

 

2001 släppte Apple sin iPod, med inbyggd 1.8” hårddisk på 5Gb vilket utlovade ”a thousand songs in your pocket”. Detta kom ca 8 månader efter att iTunes släpptes till Macintosh. iTunes har alltid valt AAC, Advanced Audio Codec som det föredragna valet av kompression, även om iTunes även kunnat spela upp och hantera MP3-filer. Apple har rapporterat en försäljning av ca 400.000.000 iPod-enheter av olika modell fram till och med 2014.

 

Varför är det här ens intressant för oss, som ibland kallas audiofiler (”vänner av ljud”, och musik, egen tolkning) kan man ju undra? Anledningen är givetvis att utvecklingen av lagringsutrymme och överföringskapacitet har möjliggjort en helt ny sida av musikbranschen, samtidigt som dörrarna stängts för andra. Vi har accepterat att digitalt ljud  i form av filer är en likvärdig ljudkälla med en CD-skiva eller iaf jämförbar. Digitalt lagrad musik har onekligen fördelar i form av utbud, tillgänglighet, portabilitet och det kan även låta fantastiskt, i synnerhet om vi tillåter oss att lyssna till okomprimerade filer eller kanske till och med filer av samma typ som de som lagras på SACD-skivorna. 

 

Det här handlar hittills primärt om hur man lagrar och överför filer, men att strömma media har varit en ambition och möjlighet sedan det tidiga 90-talet. Utvecklingen av teknologier för att komprimera, överföra och styra digitalt media har varit helt avgörande för den utveckling vi sett de senaste 25 åren. 

 

Önskemål om större utbud, högre upplösning och uppspelning i portabla spelare har dock introducerat nya krav, i synnerhet ökar behoven av lagring. Tillgången på bandbredd och uppkoppling har ju öppnat för andra sätt att konsumera musik utan att behöva lagra den. Och genom att välja att strömma musiken kan vi minska kraven på lagringsyta och istället förskjuta behoven mot bandbredd.

 

Den här utvecklingen har givetvis medfört ändrade beteendemönster och format vår vardag i många andra aspekter, men kontentan av detta är att vi idag accepterar att hyra musik, eller välja att lagra den musik vi köpt på en annan plats än där den avses spelas upp som musik. Vi kommer osökt in på vad vi kallar streaming, och hur vi kan tillämpa det och hur det öppnar andra möjligheter för oss musikkonsumenter.

 

Streaming for dummies 

Nej, det är missvisande då man alls inte behöver vara en ”dummie” för att finna detta förvirrande. Streaming är komplext och det finns nästan lika många varianter som tillämpare, det kan vi fastställa redan nu och för att göra detta gripbart behövs ett gemensamt språk. 

 

Vad är Streaming då? Ja, det är ju ett begrepp som kan innefatta många saker. Den mest korrekta definitionen torde vara ”uppspelning utan att lagra källmaterialet”. Det blir ju en sanning med modifikation, för någonstans lagras de flesta källmaterial, förutom live strömmar.

 

Utan att ljuga allt för mycket vill jag påstå att streaming-epitetet kan tillämpas på alla typer av mediauppspelning som kräver ett nätverk baserat på ethernet, trådlöst eller trådbundet. Namnet används även för apparater som enbart spelar upp filer från inbyggd lagring vilket kanske inte är formellt korrekt men eg. spelar det mindre roll för förståelsen. För mig är ordet ”nätverksuppspelning” eller ”nätverksspelare” liktydiga med streaming. 

Syftet med streaming är att kunna tillhandahålla media vid behov eller i realtid till små, billiga (inte alltid) utenheter som omvandlar den digitala strömmen till ljud och/eller bild. Du behöver alltså inte lagra informationen i uppspelningsapparaten, även om detta ofta också sker, helt eller delvis. 

Några uttryck som används ofta är On Demand och Live, eller realtid, och dessa beskriver om du själv bestämmer när strömmen skall levereras eller om strömmen påbörjas vid en fastställd tidpunkt. Skillnaden är att i realtid kan man ”slå på TV’n och se vad som just nu sänds” medan on demand betyder att du går in på TV4 Play och klickar på symbolen för senaste avsnittet av ”Bonde söker fru”, eller kanske inte förresten... Men, du fattar vad jag menar! 
Internetradio och live/direkt-sändningar från streamingtjänster som t.ex. Tidal och Spotify är ”live” eller i realtid. När vi däremot klickar på Ed Sheerans senaste album och väljer ”play” så strömmas innehållet ”on demand”, på begäran översatt. 

 

Streamingens logik

Oavsett metod så behöver vi några byggstenar för att streaming ska kunna ske. För det första så behövs en digital fil, eller en källa som skapar en digital ström av information lämpad för överföring via nätverk. Vi kallar logiskt denna information för källa, eller source. För översiktens skull ger vi denna byggsten symbolen nedan:
source.png Källa (Source, Media, Stream) 

 

Vi behöver i dessa sammanhang också något som driver, riktar eller sänder informationsflödet, vi kan kalla det för motor eller engine. I våra lokala sammanhang handlar det oftast om en programvara, eller den del av programvaran som ansvarar för att förmedla strömmen, ibland manipulera den, och rikta den till rätt mottagare. Den får symbolen:
engine.png Motor (Roon Core, Media Server) 

 

Här blir det lite förvirrande igen då utenheten egentligen inte behöver leverera musik, det kan lika gärna handla om en digital signal t.ex. i formatet SPDIF. Men, det viktiga är att utenheten uppnår det till synes enkla målet att omvandla informationen som skickats över nätverket (eller internt i apparaten) till en ljudström, digital eller analog. Ljudströmmen har den egenheten att den skickas utan möjligheter att korrigera eller begära om informationen. Så länge den är digital finns möjligheten för mottagaren att kontrollera att informationen är oförvanskad, men inte att begära en korrigerad sändning. Om ljudströmmen uppfattas som icke-korrekt så räknas närmevärden ut matematiskt. I de flesta fall går inte heller att verifiera tidsperspektivet utan man får anamma ett ömsesidigt förtroende att de inblandade parternas klockor är synkroniserade och inte avviker. 

För våra syften ger vi utenheten symbolen av en högtalare, även om den kan vara en sekvens av ettor och nollor:
endpoint.png Utenhet (Roon Bridge, MediaRenderer, Endpoint, Streamer)

 

För att dessa komponenter skall vara till någon nytta måste vi ju kunna välja vad vi vill skall spelas upp, och var. Här kommer det kritiska gränssnittet in oavsett om det handlar om en fysisk fjärrkontroll i metall, knappar på apparaten eller en app på din telefon. Syftet är ju ganska enkelt, att välja ut vad som skall spelas upp och, där så är möjligt, var någonstans. 

Symbolen får bli en sån här:
 control.pngStyrning (Roon Control, Control point, Fjärrkontroll, Touchpanel, App) 

 

Ofta finns möjligheten att anpassa ljudströmmens eller ljudets egenskaper av olika skäl. Det kan t.ex. handla om att olika utenheter helt enkelt inte klarar av alla upptänkliga format, upplösningar eller liknande. Eller något så grundläggande som en digital volymkontroll. Ibland finns anpassningarna ”bakom kulisserna” så att säga men de flesta system har någon metod att påverka ljudströmmens egenskaper. Det kan givetvis handla om andra typer av anpassning också, tycke och smak, systemanpassning etc. 

Symbolen för anpassning får bli denna:

dsp.png Anpassning (Transcoding, Re- Up- Downsampling, Volymkontroll) 

 

De fyra första delarna krävs för att få ljud ur ett streaming-system medan den femte inte alltid är synlig eller obligatorisk. Komponenterna har lite olika namn i olika sammanhang men jag tänkte försöka visa på några olika system och var respektive komponent placerats. 

Vi börjar med en klassiker som de flesta hört talas om, under namnet SqueezeBox!

Den schematiska översikten ser ungefär ut så här:

squeeze.png

I bilden ovan representeras 

Källan (1.) av Internet och lokalt tillgänglig media. Med lokalt tillgängligt menas att det kan vara åtkomligt via nätverket (NAS) eller anslutet direkt till servern, som t.ex. en intern hårddisk, minneskort eller en USB-hårddisk. 

Motorn (2.) kan befinna sig på en NAS, en dator eller kanske på en RaspberryPi. 

Utenheten (3.) kan t.ex. vara en Squeezebox Classic i sovrummet, eller en piCorePlayer vid uteplatsen. 

Styrningen (4.) slutligen kan vara en app i din telefon, en fysisk fjärrkontroll eller kanske touchdisplayen på en Squeezebox Touch. 

 

Låt oss titta på en annan lösning, kanske en som många av oss provat på, nämligen en dator med uppspelningsprogramvara och USB-DAC, nätverksansluten och eventuellt filer på en NAS. Styrning med platta eller smartphone är en möjlighet, inte ett krav, som också innebär det första steget att dela upp de logiska byggstenarna i en streaminglösning. 

pc.png

Nu börjar förkortningarna ramla in igen, ledsen, men det blir tydligare bilder så. Bilden beskriver en anläggning med möjlighet att: 

  • Spela lokala filer från inbyggd hårddisk (eller USB-hårddisk/sticka/SD kort etc).
  • Spela filer från nätverket. Några program som låter dig utföra detta är t.ex. iTunes, JRiver Media Center eller Windows Media Player.
  • Spela Internetradio och on demand-tjänster. Exempel är t.ex. Sveriges Radio P2, Spotify, Tidal.
  • Ta del av Live-streams via YouTube, Facebook och även Tidal, Spotify m.fl.

 

Lägg märke till att DAC’en i sig inte fått någon funktionssymbol. Den är ingen ljudbrygga i det här perspektivet då den tar emot en digital ljudström (över USB, SPDIF e.d.) som redan omvandlats från sitt filbaserade eller nätverksbaserade format. Datorn kan lämna både digital (ofta) och analog ljudsignal redan. 

 

Några begrepp är bra att känna till:

När vi diskuterar runt den nödvändiga infrastrukturen kommer ofta en mängd begrepp upp. Man behöver vara bekant med dessa för att göra sig förstådd och förstå.
Router – Denna ansluter dig till din internetoperatör och skapar ett privat nätverk, där du ansluter dina produkter, på ”insidan”. Anslutningarna brukar ofta förkortas WAN (anslutning till Internet), LAN (lokalt, trådbundet nätverk) och WLAN (trådlöst lokalt nätverk, ibland omnämnt som WiFi av ngn outgrundlig anledning). Den låter kommunikation ske mellan de olika anslutningarna och brukar innehålla en tjänst som delar ut adresser. Dessa kallas för IP-adresser och är fundamentala för kommunikationen. Många routrar har också möjlighet att ansluta en USB-hårddisk och göra innehållet tillgängligt på ditt nätverk. I princip blir din router + USB-hårddisk = NAS

NAS – Formellt ”nätverksansluten disk” men i de allra flesta fall innehåller en NAS programvara som gör att du kan tilldela den funktionalitet i din tänkta streaminglösning. Den fungerar i de flesta fall även som hjälpreda för administrativa sysslor som backuper, lagring av dokument och annat. Dessa är oundvikliga men när vi närmar oss lyssningsrummet och de begrepp som är förhärskande där blir det mera preferenser och omständigheter som bestämmer språket

 

Låt oss skifta fokus en smula och istället kika på ett par av de produkter som samlas under epitetet streamers eller nätverksspelare.

 

Jag väljer att presentera en mångsidig produkt från Bluesound och även en mera hifi-inriktad apparat från Lumin. De är både lika och avviker en del i funktionalitet.

 

CAF77CE6-6625-40BC-A7D0-8FDD534A6A96.jpeg

Bluesound Node. Den här apparaten kan anslutas till din ljudanläggning och innehåller i sig den viktiga serverdelen och en utenhet och även en DSP som kan bearbeta ljudet genom att t.ex. anpassa utnivån.

engine.pngdsp.pngendpoint.png

Så, för att få ljud ur den behöver vi göra två saker:

1. Se till att vi har en källa, source.png. Det här kan betyda att ansluta en USB-sticka eller konfigurera ett musiktjänst som Tidal. Eller att peka ut en Internernetradio-kanal. 

2. Se till att vi kan kontrollera den, så genom att installera mjukvaran för styrning på en dator, smartphone eller platta,control.png

 

 

 

 

LUMIN-T2.jpgLumin T2, en läckerbit designad för att pryda sin plats i en musikälskares anläggning i alla aspekter. Möjligheterna med T2 påminner mycket om Bluesound men fokusen ligger mer på ljudkvalitet än att ha stöd för "alla" tjänster och funktioner.

engine.pngdsp.pngendpoint.png

T2 har inte en enda manöverknapp men kan kontrolleras rudimentärt med en fjärrkontroll. Så vi behöver en utförligare fjärrkontroll,control.png och givetvis även konfigurera en eller flera källor, source.png.

 

Så, de är "lika" funktionellt påstår jag? Jamän, låt mig lista vad de har gemensamt.
Har du nätverk, ström och en ledig analog ingång på din förstärkare kan du köpa en och få ljud ur den redan idag. Jag förutsätter att du har en tablet, smartphone eller dator som kan utgöra fjärrkontroll. Har du funderingar på Roon som musikspelare så är dessa som klippt och skurna för att ingå som en del i detta. De kan båda anslutas till en extern DAC  om du skulle föredra en annan ljudsignatur än den som erbjuds av apparatens analoga utgångar. De kan användas av "ungarna" som kommer med sina Spotify-fyllda telefoner på besök. Kommer din filspelande vän på besök med en USB-sticka med musik i de "vanliga" formaten kan denna spelas upp direkt. Givetvis erbjuder de Internetradio och kan ersätta din tuner likaväl som de har fullt stöd för de etablerade musiktjänsterna Tidal (Ja, fullt stöd även för MQA om det intresserar) och Qobuz. Båda tillåter volymkontroll med möjlighet att ansluta direkt till aktiva högtalare eller slutsteg.

 

Vilka är skillnaderna då? 

Bluesound Node kan anslutas till ditt nätverk trådlöst, Lumin kräver kabel. Är det ett stort projekt att dra en kabel för nätverket kan det troligen lösas med någon form av "trådlös brygga" om täckningen är god där denna placeras. Bluesound behöver ingen server, den är nöjd om en mapp delas ut på nätverket, och bygger utifrån detta sitt eget bibliotek (Den har en inbyggd engine.png-funktionalitet). Lumin vill ha en server (Minim, Twonky, Asset) på nätverket som redan har byggt ett index över dina filer för bästa funktion. En uppenbar skillnad är givetvis displayen på Lumin, där Node endast avger ett antal ljussignaler från en flerfärgad diod som återkoppling. Möjligheten att hantera de mera esoteriska filformaten är begränsad i Bluesound.

De båda enheternas appar är funktionella och stabila men skiljer sig åt i design. Båda kan tas hem till din tablet/smartphone och köras som demo, även om du inte har en enhet att styra.

 

Dessa skillnader och likheter är bara exempel givetvis, men de kan fungera som någon introduktion. Hur väljer man då när de är lika som bär och ändå skiljer sig åt i funktion? För att komma med på tåget så finns det ett antal val man behöver göra och några grundkrav som bör uppfyllas innan man kan börja bygga sin streaminglösning.

  • Ett funktionellt nätverk med räckvidd för både ethernetkabel och trådlösa styrdon är en av de viktigaste byggstenarna. Undvik i möjligaste mån routers från din internetleverantör!
  • Utöver detta bör man fundera över om man är intresserad av att spela och hantera lokala filer och om du är intresserad av att prova de mer extrema delarna av upplösningsspektrat. Lumin hanterar t.ex. DSD upp till DSD512 och PCM
  • Vill du även kunna rippa CD/SACD och spela dessa filer så påverkar det vilka val som är mest lämpade.
  • Eller är du enbart intresserad av att konsumera musik via streamingtjänsterna? Spotify, Tidal, Qobuz och Apple Music är väl de mest aktuella för oss audiofiler. Deras utbud skiljer sig åt, både avseende musiken men även tekniskt.
  • Du kanske har tillgänglig datorkraft, nätverkslagring eller kanske en bra DAC som du trivs med, så kommer även detta forma din kravspec.
  • Sätt en budget, det är möjligt att göra detta för vad en biokväll på stan kostar, eller vad din drömbil kostar i inköp. Givetvis kommer både ljudkvalitet och funktionalitet återspegla investeringarna i någon mån.
  • Du bör redan från början fundera över om om du vill ha din streaminglösning koncentrerad i samma rum där du njuter musik eller om du har möjlighet att placera serverfunktionaliteten på annan plats. Det här påverkar kostnad i första hand men påverkar även andra val.
  • En sak vi inte berört ännu är Multi-Room begreppet, alltså möjligheten att skicka ut musiken til verandan synkroniserat med köket, via olika ljudenheter. Här är vissa system mera mogna än andra.

 

Hur kan vi se till att möta de krav och önskemål på funktionalitet och ljudkvalitet som ställs?

Utöver de praktiska krav man kan ha, finns även en del filosofiska ståndpunkter som bör beaktas. Är funktionalitet viktigare än absolut ljudkvalitet? Kan du leva med ett mediokert gränssnitt i utbyte mot ett uns högre ljudkvalitet? Är du en förespråkare av distribuerade system eller vill du ha en integrerad funktion i en enda burk som är tillräckligt civiliserad att få vistas bland dina övriga komponenter?

 

Det några förhärskande tekniker som är tillräckligt mogna för att anses stabila för att erbjuda ett funktionellt urval, och möjliggöra uppspelning till vald zon.

  • Sonos - Stabilt och funktionellt, bygger på UPnP-standarden men måste nog betraktas som proprietärt.
  • Bluesound BluOS - Även detta stabilt och tryggt, bygger också på en variant av UPnP men är stängt för andra appar och uppspelare. 
  • UPnP/DLNA - en branschstandard som omfattar så oerhört mycket mera än att spela musik. De allra allra flesta streamers har en nära anknytning till UPnP. Streams Unlimited heter ett företag som levererar en hårdvara med tillhörande mjukvara till ett otal stora hårdvarutillverkare, som alla bygger på UPnP. Några exempel på tillverkare som följer UPnP-standarden: Linn, Marantz, Onkyo, Naim, Vitus etc. etc.
  • Squeeze/Logitech Media Server - En klassiker, har varit med länge och nyttjas fortfarande, bl.a. av Innuos. Iaf innan InnuOS 2.0. Ljudenheterna kan lika gärna vara mjukvarubaserade som en Squeezebox.
  • Roon - En vidareutveckling av Sooloos-konceptet. Kan spela till Roon Ready nätverksspelare, Sonos, Squeezebox, Airplay och i princip alla DACar på marknaden om du installerar en Roon Bridge på lämplig hårdvara, som i sin tur ansluts till DAC'en.

 

De flesta hårdvaror bygger på någon av dessa som bas, för att spela filer. De har i princip alltid fler möjligheter till uppspelning, och de vanligaste listas nedan. Utöver dessa har många en inbyggd klient för  Qobuz, Deezer eller andra streamingtjänster, samt vTuner eller TuneIn som tjänst för att hitta Internetradiostationer.

 

  • Airplay - Apples variant på överföring av ljud (och bild i vissa fall). Det här skiljer sig dock åt genom att det inte innefattar någon serverfunktion, utan det är "sändaren" som både gör urval och skickar ljudströmmen till "mottagaren", över nätverket.
  • Bluetooth - Skapar ett eget nätverk mellan sändare och mottagare med begränsad räckvidd och ofta kompromissad ljudkvalitet.
  • Spotify Connect - En riktigt god idé genomförd på ett riktigt bra sätt. Istället för att skicka ljudströmmen från din padda eller telefon direkt till mottagaren, så skickar man bara en adress till ljudströmmen till mottagaren. Denna sköter sedan uppspelningen helt frikopplad från den tlf/padda som gjorde musikvalet.
  • Tidal Connect - Samma princip som ovan, men ganska nytt.

 

Streaming och filspelning har potential att låta lika bra eller bättre än andra digitala återgivare. Men kan det låta lika bra som en vältrimmad skivspelare eller kanske till och med en rullbandspelare? Vissa hävdar detta och min egen åsikt är att det handlar mera om mediakvaliteten än bäraren.

 

 

Alla analoga ljudformat är ju linjära och baserade på hastighet. Latens eller tröghet kan komma ifråga i mekaniska transducers såsom pickuper och högtalarelement, men i övrigt sker i princip all signaltransport med nära ljusets hastighet.

 

För digitala format har man plockat bort tidsaspekten helt och beskriver audiosignalen antingen genom antaganden eller separat information. Tiden blir vad den blir utifrån en takt som ges av samplingsfrekvensen. Det medför att signalen kan bibehålla sin integritet när den beskrivits digitalt, trots överföringar och omvandling. Men det kritiska momentet är när man skall återställa tidsinformationen igen, alltså när man skiftat domän för musiksignalen, från den filbaserade diskreta till realtidsdomänen. 

 

De flesta (alla?) streamers och nätverksspelare bygger i någon mån på hyllprodukter från processortillverkare och andra delar inom IT-industrin. Dessa system är inte avsedda att fungera som signalprocessorer. Den stora utmaningen är att skapa realtidssignaler utifrån filernas diskreta värden. Man kan välja att lägga massor med kraft och energi på serversidan för att leverera en så komplett och oförvanskad ström som möjligt, till den ljudenhet som skall skapa realtidssignalen. Eller låta den senare besitta egenskaper som gör det möjligt för den att göra ett bra jobb utan att få med för mycket anomalier och tidsfel i resultatet, även om bakomliggande server bara kan betraktas som "good enough".

 

Summan av kardemumman blir att det är fullt möjligt att skapa god strömmad ljudkvalitet för kaffepengar. Är syftet att uppnå mycket god ljudkvalitet kan det bli både kostsamt och komplext.

 

 

 

Tack för en väldigt bra genomgång, känns lite som ett blivande standardverk inom vårt område. 

Link to comment
Share on other sites

On 2023-03-16 at 22:24, Terminator said:

Tack för en väldigt bra genomgång, känns lite som ett blivande standardverk inom vårt område. 

Avsnitten i denna tråd är nu upplagda i artikelforum.

Lite lättare att hitta och lite lättare för den som vill läsa i efterhand.

 

 

 

Link to comment
Share on other sites

16 minutes ago, ulfsan said:

Jasså DÄR!!! ligger alla dom och gömmer sig 🫣😲😳…!

Det är forumvärldens akilleshäl.

Alltså att pga det flöde (som man ju vill ha) gör att ämnen drunknar och blir svårnavigerade.

Detta är ett sätt som vi tillämpar för att underlätta, och lämna gärna andra tips på trådar som skulle vara bra att kondensera. 

 

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...