How the Netherlands group grew in Covid times

Before André and I became coordinators for the Netherlands, we used to have yearly community meetings at both the Dutch T-Dose and the Belgian FOSDEM conferences. In order to build the FSFE NL community, as new coordinators we started having a regular booth at the national Linux user group (NLLGG) that met bi-monthly in Utrecht, which is quite central in the Netherlands. The NLLGG has a large space for booths, so we could do our outreach alongside the various sessions and other booths that were going on. Via that regular booth, we had more frequent interactions with like-minded people, including the friends we had made over the years. Of course there were still people that were interested to stay in touch with the FSFE, but didn’t want to travel half the country. At least we had email and chat as an option for those more distant relationships.

FSFE stand at NLLGG booth in Utrecht (NL) on 16th November 2019 FSFE stand at NLLGG booth in Utrecht (NL) on 16th November 2019


And than Covid came to the Netherlands, and we were forced to change our ways. We could no longer meet at the physical NLLGG location. There was an online NLLGG session we joined, but as expected the main focus was on the Linux users there and not on our overlapping FSFE group. Eventually in the autumn we just tried our luck with an online session of our own. Luckily the FSFE had just launched their conference server based on BigBlueButton, so the required freedom-respecting infrastructure was already in place. We held our first meeting on the 28th of October 2020, which we announced on the FSFE website, on our XMPP group and on the Netherlands mailinglist (contact details on our BNL wiki page).

The first meeting was a bit rough. As can be expected with the hotchpotch of computer setups, there were various issues with audio and webcams. Still we had a nice meeting of about 1,5 hours to discuss various topics that were keeping our minds occupied. With everybody locked up at home, it was a welcome change to chat to the people with similar interest you would normally only meet by going to a conference or other community event. The format of the meeting was very much the same as at the booth, just to have a relaxed group conversation on free software related issues.

We kept on doing the online meetings by just scheduling another one at the end of the meeting. We recently had our 9th online get-together already. The attendance varies somewhere between the 5 and 9 persons. In the mean time we have settled on the 3rd Wednesday of the month, so it has be come a regular thing with a regular attendance. Every meeting is somewhat of a surprise, because you just don’t know exactly what it will bring. Some new people might join, there might be some new and interesting subjects being tabled, and there could be a strong collaboration on an opportunity. The last meeting we started compiling a list of topics beforehand on an etherpad, so we can make an explicit decision which topics to spend time discussing.

We had one special occasion on the 25 of November 2020 when we had a sneak preview of the Dutch audio translation of the PMPC video. There was a larger attendance than usual, and Matthias was kind enough to join and speak some kind words about our local efforts.

In our meetings there is a lively discussion on current free software related topics, which helps to form opinions and perhaps even a plan of action. I like it when these discussions result in an idea of an action we could take from the FSFE perspective like reaching out to politicians or governmental organizations. The Dutch supporters have quite a bit of activism experience among them. Besides the general discussion plenty of day-to-day advice is shared how to maintain or increase your practical freedom.

The meetings are open to a wider audience, so if you are interested in attending, just sign up by emailing me and I’ll send the meeting room details. The meetings are announced on the FSFE events page. We have successfully switched to English in multiple occasions to be inclusive to other nationalities, so language shouldn’t be a problem. So maybe I’ll see you there?

Dutch Public Money? Public Code! video released!

In my last blogpost I wrote about how we created a Dutch video translation of the Public Money? Public Code! campaign video. Well, you can now watch it yourself, as it has been released! On the 25th of November we held our Netherlands online get-together in which we showed it as a sneak preview, before release. At this meeting Matthias also joined to congratulate us with the result and to thank us for our efforts. This was a welcome surprise. Our next online get-together will be held on the 23rd of December, feel free to join and have a chat.

Nederlandse Public Money? Public Code! video uitgebracht!

In mijn vorige blogpost schreef ik over hoe we een Nederlandse videovertaling van de Public Money? Public Code! campagnevideo maakten. Nu kan je deze zelf bekijken, want de video is gepubliceerd! Op 25 november hielden we onze Nederlandse online get-together waar we een voorvertoning hebben gehouden. Bij deze bijeenkomst haakte Matthias ook aan om ons te feliciteren met het resultaat en ons te bedanken voor onze inzet. Dit was een welkome verassing. Onze volgende online get-together wordt gehouden op 23 December, voel je vrij om deel te nemen om bij te praten.

Recording a Public Money! Public Code? video translation

A Dutch translation of the Public Money? Public Code! campaign video is in the works and close to being released. The video was initially released in English and has been translated in many languages already: German, French, Italian, Polish and Russian. And there is an even greater number of subtitles available. Getting a voice-over translation for the video was one of this year’s goals for the Netherlands local group, to help us advocate for this cause. Getting a voice-over translation can be much more involving than a textual translation, so that why I want to explain how we did it. And by showing others the way, hopefully there will be more audio translations in the future.

Getting quality

What makes a good voice over translation? It should be clearly spoken, be comfortable to listen too, be a correct translation, have a timing that matches the sound effects and visuals, has a varying tone that matches the message, and keep a rhythm to it to keep the attention. As you can tell, there are many factors that have to be balanced, requiring an iterative process. A good translation has to be adjusted if it doesn’t work for the required timing, and the best way to check the timing is by rendering the complete video with sounds effects. And so one has to be able to adjust parameters on the fly. Especially because arranging a voice actor and recording setup can be difficult and costly. You should be able to record it in about 5 to 10 takes. So you need a good preparation and the flexibility to make adjustments.

Process overview

Let me sum up the approach we took in the Netherlands:

  1. Subtitle translation: Translating the English subtitles into Dutch. Working with these .srt subtitle files has the benefit of having a timing attached to them. You’ll see the benefit of that in a minute.
  2. Adjusting translations for a voice-over: Speaking the translated subtitles to the video to get a feel for the timing. Focusing on long sentences especially. The ones where you need to speed up. Those should be shortened to enable silences and a slower pace for clear pronunciation.
  3. Record a demo to validate: Just like a singer, we recorded a ‘demo’. We put the modified subtitle translation file in a subtitle editor to have a consistent timing (more on that later) and recorded a voice track. No fancy equipment, just a phone headset microphone and Audacity recording software There were still some miss-spoken words and false timings in it, but it was good enough. This demo allowed us to validate the translation in the team, to be certain we were ready for a recording. We also used it to show the voice actor what to expect.
  4. Arranging the recording: We contacted a befriended couple for the recording. She has a quality voice, he has the technical knowledge and equipment for the recording. We had backup plans like renting equipment, reaching out to a local broadcasting station, or getting a professional to do it for us.
  5. The recording: This was the most critical, but also the most fun part of the process. Seeing the preparation pay off and getting a quality recording. More about the technical side of the recording further down in this article.
  6. Mixing: As we used two types of microphones for a stereo effect, they had to be balanced and mixed to get a nice sound. This was mostly done during the process of the recording. Also a gate and compressor were applied to reduce the noise during silences but keep a constant volume.
  7. Editing: Despite having a practical auto-cue from the subtitles file, it took a couple of hours of editing to get the timing right. I used the English recording, the sound effects track, and the video to check the timing. Mostly I just had to just move sentences one or two seconds in the timing. But some parts required breaking down sentences to leave more space between words, to reduce the pace of the rhythm. Although the largest part of the recording was from the last take, some parts had to be ‘repaired’ with pieces of earlier takes.
  8. Mastering: The PMPC video has a strong sound effects track. This does require the voice to cut through that for the audience to hear it. I had to apply more compression on the voice to further increase the volume, and had to EQ the female voice with a recommended boost at 400Hz and 4kHz to make it stand out more. Now both tracks could be combined into a single one to be added to the video.
  9. Release: Adding the audio to the video to actually publish it.

In this case I was involved in the recording, mixing, editing and mastering. A professional would probably do the mixing besides the recording, but I’m not sure about the editing and mastering. Please look into this when you want to do it.


Early on I realized that reading translations from a paper wouldn’t cut it. Timing has to be correct, even though you can make corrections in the editing process. Having a timed text will help you keep the correct pace and eases the editing process.

First I tried reading from subtitles. Although that contains the timing, each time the subtitles pop up, you are surprised by the content and have to build a sentence. There is no way to view the next line of the translations, so you have to stop and pause until the next line shows up. This leads to a stop-and-go recording with bad rhythm.

Als an alternative I looked into autocue software and apps, but couldn’t find any that fit my need. Most were made for speeches, where there was no requirement on timing, it would just do a certain words per minute. But this use-case required exact timing.

Then I found subtitle editors. Most have a preview where you can see overview of lines besides the video. That worked quite well. The best one I found was Subtitle Composer from the KDE suite of applications. Subtitle Composer has one major feature for this use-case: an auto-scrolling waveform.

Subtitle Compositor overview Subtitle Compositor overview

You load Subtitle Composer with the translation and the PMPC video file and can just press play. The subtitles will appear on the video but also on the side at the scrolling waveform. The scrolling waveform has the benefit of showing a bar indicating the current time, passing through boxed-off subtitles. This helps to give you a feel for if you are leading or lagging, and how much time is reserved for a sentence. It works similar to the interface of games like Dance Dance Revolution or Guitar Hero, which also solve the issue of timing in this way.

Thinking about it now, I could also have looked into karaoke solutions, because there also timing is critical. I’m not sure if that provides a similar option to look ahead to upcoming lines of text.

I made two adjustments to the settings of Subtitle Composer to enhance the experience of the auto-scrolling waveform:

Subtitle Composer waveform settings Subtitle Composer waveform settings
  • Auto Scroll Padding: set to the maximum to prevent the waveform from jumping per page, causing the voice actor to lose its place. With the maximum padding it scrolls continuously.
  • Subtitle text font size: The normal font size is quite small. I increased it to improve readability. The waveform changes its appearance to a horizontal waveform when the pane is stretched to more than about half the window size. In this horizontal form it becomes unusable for this purpose, so the waveform size is limited to about half the screen size. I found a size of 14pt was the largest I could go before words would end up besides the waveform screen.

Subtitle Composer is designed to make changes to the subtitles. Use that feature if you find that the current translation isn’t working in practice. For the Dutch translations we still had a typo in the translation, had some comma’s that were confusing the voice actress and she preferred to change the order of a sentences. We immediately changed these bits when we found them, so they went well in the next take. This allowed us to iterate quickly. Because of these modifications the last recording was used as the base, as it has the final version of the text.


Sound proofing

As any engineer will tell you: garbage in, garbage out. If you start with low quality, don’t expect it to end up much better at the end. Let’s start with acoustics. We recorded it in the study at my friends’ place. The room is box-shaped filled with two desks and a few closets. It has laminate flooring and a huge window pane off to the side. So plenty of surfaces to reflect sound and little to disperse or dampen it. We did some sound-proofing:

  • Hung a blanket at the wall behind the voice actress
  • Closed the curtains before the window pane
  • Used sheets of sound dampening foam to build a box around the microphone with an opening to the voice actress

We did this with stuff that was already available in the house and it made a huge difference for the audio quality. It reduced the echo in the room and blocked out noise from us moving on our chairs and spanning computer fans.


Perhaps we over-engineerd this part a bit. We used a Sure SM58 as the main voice microphone, combined with a matched pair of RØDE M5 microphones to pick up on the stereo effect of certain vowels. This all went into an M-Audio interface connected to the recording computer. We used the non-free Reaper software on Windows as my friend was used to it and had everything configured and ready to go. I guess we could as well have used Ardour, which I used for the editing and mastering. Perhaps something for a future recording. (I ended up with the WAV files of the recordings and the mixed recordings, so I could always recreate it if I needed to).

Sound proofed setup with microphone and autocue screen. Sound proofed setup with microphone and autocue screen

The Sure SM58 has a built-in pop-filter, to reduce the amount of air blowing into the microphone when vowels like P, B, S, T and F are spoken. This blowing of air creates a high-volume rumbling which is hard to remove in post-processing. The word ‘PoPriaTary SoFTware’ is really in need of a pop-filter. In hindsight it would have been better if we used an additional pop-filter to mount to the microphone, to further reduce the pops. I still consider the end-result perfectly usable, but would encourage you to take care of this if you arrange the equipment yourself.

We recorded in 48.000 Hz like the audio in the video and recorded in 24bits to keep plenty of detail.

Keeping notes

Another tip is to keep notes during the process. Do you notice a word being mispronounced, did you hear an unintended noise, or do you notice some wrong intonation, just write it down. I printed the text before the recording and kept it at hand during the process of recording, editing and mastering. As you can see I used it quite a bit.

Notes taken during the recording and editing process. Notes taken during the recording and editing process


During the recording, we had the video and sound effect track ready to go, to verify the timing. Granted, a lot could be done afterwards ‘in post’, but it is nice to be sure you have everything you need before breaking up the studio. Perhaps there was the option to synchronize a video with playing the software, but we just clicked the play-buttons of audio and video at the same time. I’d like to think the intermediary review helped the voice actress to better understand the meaning and timing of the words, leading to a better result.

Editing and mastering

I used to use Audacity for editing recordings. But in this case I had to work with multiple tracks and add some effects. I prefer to do so in a non-destructive way so I have more flexibility when editing. As far as I know Audacity cannot do so, so this was a nice opportunity for me to get familiar with Ardour. I had some initial problems running Ardour, because it didn’t have the permissions to set realtime priorities for JACK. On Debian these permissions can be granted during installations or afterwards, as is described in the Debian JACK documentation. I was surprised that it was actually more performant than Audacity on my computer whilst packing more features.

Ardour overview Ardour overview

I used four tracks for editing the recording:

  1. The final recording, used as the base of the sound track
  2. A track containing parts of other recordings to ‘repair’ certain parts
  3. The English audio track from the video, including sound effects, to compare timing of text
  4. The sound effects track to check timing and for mastering into a single file

The wave-form of the English track helped me to pinpoint where certain parts of audio had to start.

Detail of the added spaces in the voice track Detail of the added spaces in the voice track

As you can see, some sentences were really cut into pieces to increase the duration of silences between words. These are the small details that make it a more pleasant listen.

Besides fixing timing and repairing text, I also cut out some noised like deep inhaling or scraping a throat in between sentences.

Pay attention to the end marker in Ardour, as that will determine the length of the exported audio. I set that to the length of the sound effects track.

Four tracks with effects on the two voice tracks Four tracks with effects on the two voice tracks

For mastering I added an equalizer to boost the 400Hz and 4kHz and used the VocalLeveller mode of the compressor to boost the volume. The sound effects track was mastered to zero dB sound pressure, hitting that level with the typing sound at the end of the video. The English voice also seemed to be mastered up to zero dB, so I did the same.

Ardour compressor settings. Ardour compressor settings Equalizer settings Equalizer settings


The mastering resulted in a single .wav file to be added in the video. It already had the right length, as the end marker was set to the length of the sound effects track.

I initially added the sound to the video using OpenShot. Although that worked, it resulted in a stuttering video that wasn’t pleasing to watch. Perhaps it had something to do with my process or setup. Anyhow, I ended up choosing a different solution: using the power of ffmpeg to replace the audio but keep the video as is. This was also a lot quicker. I used the instructions from this helpful blogpost. This resulted in the following command taking in ‘pmpc_desktop.mp4’ for video, ‘pmpc-nl-mastered.wav’ for audio, resulting in ‘pmpc_desktop_nl.mp4’:

ffmpeg -i pmpc_desktop.mp4 -i pmpc-nl-mastered.wav -map 0:0 -map 1:0 -shortest -c:v copy -c:a aac -b:a 256k pmpc_desktop_nl.mp4

Considering that all mastered tracks of the video are kept stored at the FSFE, the core team probably also has a method to add the audio.

Final words

I would like to thank my friends for their help. The video is close to being released. Just a few checks and we should be able to publish it.

I enjoyed the process of making the video and the final result. It took more time than I originally anticipated, mostly because I had to work out how to do it. That why I wrote this blogpost, to encourage you to do it too and save you time by suggesting a methodology. In the process I learned some new skills and got to use some free software that was new to me.

We will continue the Public Money? Public Code! campaign in the Netherlands and the video will help us. And as a reminder, if you haven’t already, please sign the open letter if you agree with its content.

Opnemen van een Public Money? Public Code! videovertaling

Een Nederlandse vertaling van de Public Money? Public Code! campagnevideo is in de maak en wordt bijna uitgebracht. De video is initieel uitgebracht in het Engels en is al naar vele talen vertaald: Duits, Frans, Italiaans, Pools en Russisch. En er is nog een groter aantal ondertitels beschikbaar. Het krijgen van een voice-over-vertaling voor deze video was een van de jaarlijkse doelen voor de Nederlands local group, om ons te helpen bij belangenbehartiging. De productie van een voice-over-vertaling kan meer moeite kosten dan een tekstuele vertaling en daarom wil ik graag delen hoe we dit hebben gedaan. En door dit te tonen aan anderen komen er hopelijk meer audiovertalingen in de toekomst.

Kwaliteit krijgen

Wat maakt een goede voice-over-vertaling? Het zou duidelijk gesproken moeten zijn, comfortabel moeten zijn om naar te luisteren, een correcte vertaling zijn, een timing hebben die aansluit bij de geluidseffecten en het beeldmateriaal, heeft een variërende toon die past bij het bericht, en een ritme hanteren om de aandacht vast te houden. Zoals je kan zien zijn er verschillende factoren die gebalanceerd moeten worden, wat een iteratief proces vereist. Een goede vertaling moet worden aangepast als het niet werkt voor de vereiste timing, en de beste manier om de timing te controleren is door een complete video met geluidseffecten te renderren. En daarom moet men in staat zijn om in het moment aanpassingen te maken. In het bijzonder omdat het organiseren van een stemacteur en een opnameopzet moelijk en duur kan zijn. Je moet in staat zijn het in ongeveer 5 tot 10 takes op te nemen. Dus je hebt behoefte aan een goede voorbereiding en de flexibiliteit om aanpassingen te maken.


Laat me de aanpak opsommen die we in Nederland hebben toegepast:

  1. Vertaling ondertitels: Vertalen van de Engelse ondertitels naar het Nederlands. Werken met deze .srt ondertitelbestanden heeft het voordeel dat het de timing bevat. Dit voordeel zal straks aan bod komen.
  2. Aanpassen van de vertalingen voor een voice-over: Uitspreken van de vertaalde ondertitels op de video om gevoel te krijgen voor de vertaling. Hierbij in het bijzonder letten op de lange zinnen. De zinnen waar je moet versnellen. Die zouden moeten worden ingekort om stiltes en een langzamer tempo mogelijk te maken, voor een duidelijke articulatie.
  3. Opnemen van een demo ter validatie: Net als een zanger hebben we een ‘demo’ opgenomen. We hebben de aangepaste vertaling van het ondertitelbestand in een ondertitelbewerker geladen om een consistente timing te hebben (hierover later meer) en hebben een stemopname gemaakt. Geen bijzondere apparatuur, gewoon de microfoon van een headset en Audacity opnamesoftware. Er waren nog steeds enkele versprekingen en verkeerde timing, maar dit was goed genoeg. De demo stelde ons in staat om de vertaling te valideren in het team, om er zeker van te zijn dat we klaar waren voor de opname. We hebben deze ook laten zien aan de stemacteur zodat die wist wat te verwachten.
  4. Organiseren van de opname: We hebben een bevriend stel benaderd voor de opname. Zij heeft een goede stem, hij heeft de technische kennis en apparatuur voor een opname. We hadden een backup-plan zoals het huren van apparatuur, benaderen van een lokaal radiostation of door een professional het voor ons te laten doen.
  5. De opname: Dit was het meest kritieke, maar ook meest leuke deel van het proces. Zien dat de voorbereiding zich terugbetaalt en het krijgen van een kwalitatieve opname. Meer over de technische kant van de opname verderop in dit artikel.
  6. Mixen: Omdat de twee typen microfoons gebruikten voor een stereo-effect moesten deze worden gebalanceerd en gemixt om een goed geluid te krijgen. Dit was voornamelijk gedaan gedurende de opname. Ook zijn een gate en compressor toegepast om de ruis gedurende stiltes te reduceren en een constant volume te houden.
  7. Bewerken: Ondanks het praktisch hebben van een auto-cue van de ondertiteling duurde het nog een paar uur nabewerking om de timing goed te krijgen. Ik gebruikte de Engelse opname, het geluidseffecten-spoor en de de video om de timing te controleren. Voornamelijk moesten zinnen een of twee seconden worden verplaatst in hun timing. Maar sommige delen vereisten het opbreken van zinnen om meer ruimte te laten tussen woorden om de snelheid van het ritme te reduceren. Hoewel het grootste deel van de opname voortkwam uit de laatste take, zijn sommige delen ‘gerepareerd’ met delen van eedere takes.
  8. Mastering: De PMPC video heeft een sterk spoor met geluidseffecten. Dit vereist dat de stem daar doorheen weet te breken zodat het publiek het goed kan horen. Ik moest meer compressie op de stem toepassen om het volume te vergroten, en had EQ nodig om de vrouwelijke stem te versterken op de aanbevelen punten van 400Hz en 4kHz. Nu kunnen beide sporen worden gecombineerd in een enkele om toe te voegen aan de video.
  9. Uitbrengen: Toevoegen van de audio aan de video om het daadwerkelijk te kunnen publiceren.

In dit geval was ik betrokken bij het opnemen, mixen, bewreken en masteren. Een professional zou waarschijnlijk ook het mixen doen naast de opname, maar dat weet ik niet voor het bewerken en masteren. Kijk daar alstublieft naar als je dit wilt doen.


Al vroeg realiseerde ik me dat het lezen van vertalingen van papier niet goed werkte. De timing moet goed zijn, ondanks dat er nog aanpassingen gedaan kunnen worden bij de nabewerking. Een getimede tekst helpt je om het juiste tempo aan te houden en vergemakkelijkt de nabewerking.

Eerst probeerde ik te lezen van de ondertitels. Hoewel dit de timing wordt je elke keer verrast door de inhoud die op het scherm verschijnt waarmee de zin moet opbouwen. Er is geen manier om de volgende regel van de vertalingen te zien, dus je moet pauzeren tot de volgende regel verschijnt. Dit resulteert in een stop-and-go opname met een slecht ritme.

Als een alternatief heb ik gekeken naar autocue software en apps, maar kon niets vinden dat aansloot bij mijn behoefte. De meeste waren gemaakt voor voordrachten waar er geen eis is voor de timing. Het doet dan een vast aantal woorden per minuut. Maar deze use-case vereist een exacte timing.

Toen vond ik ondertitelbewerkers. De meesten hebben een voorbeeld waar je een overzicht van de tekst kan zien naast de video. Dit werkt behoorlijk goed. De beste die ik vond is Subtitle Composer van de KDE verzameling van applicaties. Subtitle Composer heeft één voorname mogelijkheid voor deze toepassing: een automatisch scrollende golfvorm.

Subtitle Compositor overview Subtitle Compositor overzicht

Je laadt de de Subtitle Composer met de vertaling en het PMPC videobestand en drukt simpelweg op de afspeelknop. De ondertitels zullen verschijnen op de video maar ook aan de zijkant bij de scrollende golfvorm. De scrollende golfvorm heeft het voordeel dat het een lijn toont die de huidige tijd aangeeft, die zich voortbeweegt door de afgekaderde ondertitels. Dit helpt om je een gevoel te geven of je voor- of juist achterloopt, en hoeveel tijd er is gereserveerd voor een zin. Het werkt vergelijkbaar met de gebruikersinterface van spelen zoals Dance Dance Revolution of Guitar Hero, die ook het probleem van timing op deze manier oplossen.

Nu ik erover nadenken had ik ook naar karaoke software kunnen kijken omdat ook daar de timing cruciaal is. Ik ben er niet zeker van of dat een vergelijkbare optie biedt om vooruit te kunnen kijken naar aanstaande regels van tekst

Ik heb twee aanpassingen gemaakt aan de instellingen van Subtitle Composer om de gebruikservaring van de automatisch scrollende golfvorm te maken:

Subtitle Composer waveform settings Subtitle Composer waveform instellingen
  • Auto Scroll Padding: ingesteld op het maximum om te voorkomen dat de golfvorm per pagina verspringt, waardoor de stemacrtice haar positie verlies. Met de maximale afstand scrollt het continu.
  • Subtitle text font size: De normale tekstgrootte van het lettertype is behoorlijk klein. Ik heb het vergroot om de leesbaarheid te vergroten. De golfvorm veranderd van gedaante naar een horizontale golfvorm als het paneel verder wordt uitgerekt dan ongeveer de helft van de schermgrootte. In deze horizontale vorm wordt het onbruikbaar voor dit doel, dus de golvormgrootte is beperkt tot ongeveer de helft van het scherm. Ik vond dat een grootte van 14pt het grootst was dat ik kon gaan voordat woorden naast het golfvormscherm belandden.

Subtitle Composer is ontworpen om ondertitels te bewerken. Gebruik deze mogelijkheid als je vindt dat de huidige vertaling niet werkt ovor je doel. Voor de Nederlandse vertaling hadden we nog een spelfout in de de vertaling, hadden we enkele komma’s die verwarrend waren voor de stemactrice en ze gaf had de voorkom om de volgorde van enkele zinnen te veranderen. We hebben deze punten direct aangepast zodra we ze vonden, zodat dit goed ging in de volgende take. Dit maakte het mogelijk om snel te itereren. Vanwege deze aanpassingen is de laatste opname als basis gebruikt, omdat het de laatste versie van de tekst had.



Zoals een ingenieur je zal vertellen: troep in, troep uit. Als je begint met lage kwaliteit, verwacht dan niet om te eindigen met iets veel beters. Laten we beginnen met acoustiek. We hebben het opgenomen in de studeerkamer van mijn vrienden. De ruimte is doosvormig met twee bureaus en een paar kasten. Het heeft een laminaten vloer en een groot raam aan de zijkant. Dus behoorlijk wat oppervlakken om geluid te reflecteren en weinig om het te verspreiden of te dempen. We hebben wat geluidsisolatie toegepast:

  • Een deken gehangen op de muur achter de stemactrice
  • Gordijnen gesloten voor het raam
  • Panelen van geluiddempend schuim gebruikt om een doos te bouwen om de microfoon met een opening naar de stemactrice

We hebbe ndit gedaan met spullen die al ter beschikking waren in het huis en dit maakte een enorm verschil voor de geluidskwaliteit. Het reduceerde de echo in de kamer en blokkeerde de ruis van ons bewegend op de stoelen en de draaiende computerventilatoren.


Misschien hebben we dit deel iets over-engineered. We hebben een Sure SM58 als de voornaamste stemmicrofoon gebruikt, gecombineerd met een gepaarde set  RØDE M5 microfoons om het stereo-effect van bepaalde klanken op te pakken. Dit ging allemaal in een M-Audio interface verbonden met de opnamecomputer. We gebruiken de niet-vrije Reaper software op Windows, omdat mijn vriend al gewend was dit te gebruiken en alles al had ingesteld, klaar om te gebruiken. Ik denk dat we net zo goed Ardour hadden kunnen gebruiken, dat ik ook heb gebruikt voor het nabewerken en masteren. Misschien iets voor een toekomstige opname. (Ik ontving de WAV bestanden van de opnames en de afgemixte opnames, dus ik kan het altijd opnieuw creëren als ik zou moeten).

Sound proofed setup with microphone and autocue screen. Geluidsgeïsoleerde opstelling met een microfoon en autocuescherm

De Sure SM58 heeft een ingebouwd pop-filter om de hoeveelheid lucht te beperken dat over de microfoon wordt geblazen bij klanken als P, B, S, T en F worden gesproken. Deze geblazen lucht resulteert een hard gerommel dat moeilijk te verwijderen is in de nabewerking. Het woord ‘PoPriëTaire SoFTware’ vraagt echt om een pop-filter. Achteraf gezien hadden we beter een extra pop-filter kunnen gebruiken om op de microfoon te monteren, om de pops nog verder te reduceren. Toch vind ik het eindresultaat prima bruikbaar, maar ik zou je aanbevelen om hiervoor te zorgen als je zelf je apparatuur regelt.

We hebben opgenomen in 48.000 Hz net als de audio in de video en in 24bit om voldoende detail te behouden.

Notities bijhouden

Een andere tip is om notities bij te houden gedurende het proces. Als je hoort dat een woord verkeerd wordt uitgesproken, dat er een onbedoeld geluid te horen is, of als er iets mis is met de intonatie, schrijf het op. Ik heb de tekst uitgeprint voor de opname en heb het bij de hand gehouden tijdens de opname, nabewerking en mastering. Zoals je kunt zien heb ik er behoorlijk gebruik van gemaakt.

Notes taken during the recording and editing process. Notities maakt gedurende de opname, nabewerking en mastering


Gedurende de opname hadden we de video en het geluidseffectenspoor klaar om af te spelen, om de timing te controleren. Toegegeven, veel kan worden gedaan ‘in post’, maar het is prettig om er zeker van te zijn dat je alles hebt wat je nodig hebt, voordat je de studio opbreekt. Misschien was er de mogelijkheid om een video te synchroniseren met met het afspelen van de opname, maar we hebben gewoonweg de afspeelknoppen van de audio en video tegelijkertijd ingedrukt. Ik houd me vast aan de gedachte dat het tussentijds terugluisteren de stamactrice heeft geholpen om de betekening en de timing van de woorden beter te begrijpen, wat leidde tot een beter resultaat.

Nabewerken en mastering

Ik gebruikte Audacity voor het nabewerken van opnames. maar in dit geval moest ik werken met meerdere sporen en moest ik wat effecten toepassen. Ik doe dit bij voorkeur in een non-destructieve manier zodat ik meer flexibiliteit heb bij het bewerken. Zover ik weet kan Audacity dit niet doen, dus dat was een mooie kans voor mij om bekend te raken met Ardour. Ik had enkele problemen in het begin om Ardour uit te voeren, omdat ik het niet de juiste rechten had om realtime prioriteiten voor JACK in te stellen. Op Debian kunnen deze rechten worden gegeven tijdens installatie of achteraf, zoals beschreven in de Debian JACK documentation. Ik was verrast dat het beter presteerde dan Audacity op mijn computer hoewel het meer mogelijkheden had.

Ardour overview Ardour overzicht

Ik heb vier sporen gebruikt voor het nabewerken van de opname:

  1. De laatste take, gebruikt als de basis
  2. Een spoor met delen van andere takes om bepaalde delen te ‘repareren’
  3. Het Engelse audiospoor van de video, inclusief geluidseffecten, om de timing van de tekst te vergelijken
  4. De geluidseffecten om de timing te controleren en om tot een enkel bestand te kunnen masteren

De golfvorm van het Engelse spoor hielp me te bepalen waar bepaalde delen van de audio moesten beginnen.

Detail of the added spaces in the voice track Detail va n de toegevoegde ruimte in het stemspoor

Zoals je kunt zien zijn sommige zinnen echt in delen geknipt om de duur van de stiltes te vergroten. Dit zijn de kleine details die het prettiger maken om naar te luisteren.

Naast het corrigeren van de timing en het repareren van de tekst, heb ik ook wat ruis verwijderd zoals diep inademen op het schrapen van de keel tussen zinnen.

Let op de eindmarkering in Ardour, omdat dit de lengte van de geëxporteerde audio zal bepalen. Ik heb dit gezet op de lengte van het geluidseffectenspoor.

Four tracks with effects on the two voice tracks Vier sporen met effecten op de twee stemsporen

Voor de mastering heb ik een equalizer toegevoegd om de 400Hz en 4kHz te versterken en de VocalLeveller modus van de compressor om het volume te vergroten. het geluidseffectenspoor is gemastered op nul dB geluidsdruk, dat wordt bereikt bij het typegeluid aan het einde van de video. De Engelse stem lijkt ook gemastered op nul dB, dus dat heb ik ook gedaan.

Ardour compressor settings. Ardour compressor instelling Equalizer settings Equalizer instellingen


Het masteren resulteerde in een enkel .wav bestand dat aan de video moet worden toegevoegd. Het had al de juiste lengte omdat de eindmarkering op de lengte van het geluidseffectenspoor gezet was.

Ik heb initieel het geluid aan de video toegevoegd met OpenShot. Hoewel dit werkte, resulteerde het in een stotterende video die niet prettig was om te bekijken. Misschien had dit iets te doen met mijn proces of setup. Hoe dan ook, ik heb uiteindelijk een andere oplossing gekozen: gebruik makend van de kracht van ffmpeg om de audio te vervangen maar de video te behouden. Dit was ook een stuk sneller. Ik heb de instructies gebruikt van deze behulpzame blogpost. Dit resulteerde in de volgende opdracht die gebruik maakt van ‘pmpc_desktop.mp4’ voor video ‘pmpc-nl-mastered.wav’ voor audio, en resulteert in ‘pmpc_desktop_nl.mp4’:

ffmpeg -i pmpc_desktop.mp4 -i pmpc-nl-mastered.wav -map 0:0 -map 1:0 -shortest -c:v copy -c:a aac -b:a 256k pmpc_desktop_nl.mp4

Wetende dat alle gemasterde sporen van de video worden bewaard bij de FSFE, heeft het core team waarschijnlijk ook een methode om de audio toe te voegen.

Laatste woorden

Ik wil mijn vrienden bedanken voor hun hulp. De video staat op het punt om uitgebracht te worden. Nog een paar controles en dan zouden we het moeten kunnen publiceren.

Ik heb genoten van het maken van de video en van het eindresultaat. Het kostte meer tijd dan ik oospronkelijk had gedacht, voornamelijk omdat ik ook moest bedenken hoe ik dit aan moet pakken. Dat is waarom ik deze blogpost heb geschreven, om je aan te moedigen het ook te doen en je tijd te besparen door een methodiek voor te stellen. In het proces heb ik wat nieuwe vaardigheden geleerd en heb ik wat vrije software gebruikt die nieuw voor me was.

We zullen doorgaan met de Public Money? Public Code! campagne in Nederland en de video zal ons helpen. En als een herinnering, als je dat nog niet hebt gedaan, taken alstublieft de open brief als je het eens bent met de inhoud.