V sledečem članku bomo poskusili zastaviti nekaj standardov za prenos glasbe iz analognega gramofona v digitalno obliko. Kakšno ločljivost izbrati? Kateri tip datoteke uporabiti za shranjevanje?
Omejitve hišnega studia pri pretvorbi iz analogne v digitalno obliko
Profesionalen glasbeni studio, ko dela s posnetki na trakovih, uporablja 24 bitov / 96 kHz natančnost. Kasneje, ko se izdeluje zgoščenka (CD), je ločljivost standardna 16 bitov / 44,1 kHz, oziroma za DVD 16 bitov / 48 kHz. To se smatra za človeško uho dovolj dobra ločljivost.
Za razliko od profesionalnega pa v domačem glasbenem studiu ne bomo uporabili takšne super mikroskopske ločljivosti, predvsem zato, ker nam že oprema tega ne omogoča. Mikročip, vgrajen v gramofon, bo pretvoril signal v 16 bitov / 44,1 kHz. Očitno gre za gramofon, ki je specializiran za prenos glasbe iz plošč na CD-je. Če se izognemo temu čipu in signal na računalnik pošljemo po drugi poti, neposredno s kablom do zvočne kartice, imamo poleg vprašanja o kavaliteti same zvočne kartice opravka s sorodnimi omejitvami. In na koncu Audacity, softver s katerim snemamo, razen če je posebej nadgrajen in skompajliran na 24 bitno delo, bo uspel delati z ne več kot 16 biti,.
Najboljša praksa, glede na vse te omejitve, je da snememo pri 16 bitni širini. Pri 48 kHz vzorčenju, kar je skoraj maksimum, je to dobra in praktična odločitev. Še en primer dobre prakse je shranjevanje arhivske kopije surovega posnetka v brezizgubni FLAC datotečni format še preden posnetek zvočno kakorkoli obdelamo. Za mp3 format torej, za našo končno obliko, najbolj prenosljivo in dostopno končno obliko, ki bo shranjevala obdelan posnetek ,to je uravnan, očiščen šuma, in podobno, se bom odločili za uporabo 16 bitov, 48 kHz, 320 bitrate. Tako, zapisali smo te štrevilke kot opomnik za smiselno konfiguracijo snemanja in shranjevanja datotek.
Zakaj je 16 bitov dovolj dobro
Čeprav se hišni studio po zmogljivostih ne more primerjati s profesionalnim, se pojavlja vprašanje ali je sploh kakšna razlika med obema. Zanimiv argument pravi, da pri zajemanju gramofonskih plošč ni nobene razlike med 16 in 32 bitnim sistemom.
Bitna širina, glede na to da predstavlja zgolj natančnost, s katero opisujemo posamezno točko (sample), to je kako natančna je številka, ki predstavlja vertikalno lego točke; bitno širino 32 si lahko predstavljamo kot enostavno številko z nekaj več decimalnimi mesti kot ponavadi. Na sliki, ki sledi, bomo opazili, da je razlika med 16 in 32 biti neznatna, da tistih nekaj decimalk ne igra nobene vloge. Sliko bi namreč morali povečati do velikosti, kjer bi bili na veliko vidni posamezni pixli, pa še potem tistih nekaj decimalnih mest razlike ne bi predstavljalo bistveno drugačne koordinate.
Za to, da bi prikazali koliko vpliva ima ta zanemarljiva razlika, če sploh ima kak vpliv, smo si zastavili sledeč poskus.
Slika prikazuje posneti signal gramofonske plošče. En in isti glasni zvok je bil posnet 6 krat, 3 krat z 16 biti in 3 krat z 32 bitno natančnostjo. V tem konkretnem primeru gre za prasko na plošči, ali pa morda prašni delec ali kako drugače poškodovano ploščo, ampak za potrebe našega poskusa zadostuje tudi, če si posneti zvok predstavljamo kot udarec bobna. V vsakem primeru se zgodi, da igla naleti na ostro oviro, vsakič z malce drugačno hitrostjo in pod malce drugačnim kotom, in se odbije. Ob majhnih vstopnih razlikah v hitrosti in kotu, se igla po prečkanju ovire obnaša zelo različno. V prvem posnetku se močno odbije, v drugem posnetku se odbije malo, v četrtem posnetku srednje, vsakič se igla odbije po vnaprej nepredvidljivoi poti. Te majhne razlike v poti igle, ki jih vidimo na sliki, so lahko tudi posledica raznih dejavnikov (tresljaji samega gramofona, pretok zraka, in podobno), sploh če upoštevamo, da igla na ploščo pritiska z majhno težo.
Ob videnih šestih različnih posnetkih lahko opazimo, da so razlike med njimi veliko večje, kot pa je razlika med 16 in 32 bitno ločljivostjo. Trditev, da razlike med 16 in 32 biti ni, je na ta način utemeljena.
Ni komentarjev:
Objavite komentar