Finde es top, dass jemand das Thema mal so richtig angeht!
Paar Anmerkungen von meiner Seite: Um Störgeräusche und den negativen Einfluss des Raumes möglichst gering zu halten, spielt der Abstand vom Sprecher zum Mikro noch immer die wichtigste Rolle. Natürlich sind auch Richtcharakteristik und Art des Mikros wichtig und es stimmt schon, dass Kondensatormikros tendenziell dazu neigen mehr Nebengeräusche aufzuzeichnen. Ich gehöre ja auch zu den Leuten mit einer netten Mikrofonsammlung und kann aus Erfahrung sagen dass die Wahl des richtigen Mikrofons von der Aufnahmesituation abhängt, was nehme ich wo und in welchem Abstand auf und was ist das klangliche Ziel. Z.B. liefert das Shure SM7B out of the Box einen Sound der einen sofort an Radiosprecher erinnert, vor allem wenn man dessen EQ entsprechend setzt. Es kann von der Klarheit und den Höhendetails für ein dynamisches Mikrofon auch sehr gut mit Kondensatormics mithalten. Ich kann es mir auch gut in einer Rock-Alternative Produktion als Gesangsmic vorstellen. Will oder muss ich aber etwas mit größerem Abstand aufnehmen, versagt es leider. Ich muss den Gain dermassen aufreissen, dass das Rauschen einfach zu laut wird, vor allem wenn das Signal noch mit Kompressoren und Höhenanhebung nachbearbeitet wird. In dem Fall liefert mir ein Kondensatormikro dann die besseren Ergebnisse, zumindest solange ich keine Nebengeräusche habe und der Raumhall passt. Mag sein, dass es für den Fall mit Nebengeräuschen/problematischem Raumhall dann besonders gerichtete dynamische Mikros gibt, die den besseren Kompromiss darstellen. Von daher würde ich mich freuen wenn du in deinem Vergleich auch auf das unterschiedliche Verhalten bei unterschiedlichem Abstand und evtl auch Einsprechwinkel eingehst.
Was evtl auch noch in den Thread sollte (weil es ja schon asngesprochen wurde), wäre was man durch ordentliche Nachbearbeitung alles rausholen kann. Um hier mal paar Sachen anzusprechen:
Ein Lowcut EQ bei 80-100Hz ist eigentlich trotz Poppschirm Pflicht, wenn man ein sauberes Sprachsignal ohne störende Popplaute aufnehmen möchte. Meist erhält man gleichzeitig auch höhere Headroom Reserven, sprich man kann das Signal nach dem EQ höher aussteuern ohne in die Übersteuerung zu kommen.
Ein Großteil dessen was die meisten als hochwertige Sprachaufnahme empfinden, kommt daher dass die Sprachaufnahme schön gleichmäßig klingt. Das läßt sich einerseits durch Einhalten eines konstant gleichen Abstands und ein antrainiertes gleichmäßiges Sprechen erreichen, andererseits durch den Einsatz von einem oder mehreren Kompressoren (ich verwende bei Sprache meist 2-3). Ich traue mich sogar, zu behaupten, dass man mit einem Mic der 10€ Klasse mit der richtigen Nachbearbeitung, im Vergleich zu einem guten Mic der 1000€ Klasse ohne Nachbearbeitung, einen von der breiten Masse als besser empfundenen Klang hinbekommt. Klar dass ein gutes Mikrofon mit Nachbearbeitung dann nochmal um Welten besser klingen wird, es soll nur zeigen wie wichtig dieser Aspekt ist und dass hinter sämtlichen professionell klingenden Sprachaufnahmen mehr steckt, als nur ein gutes Mikro.
Beim Einsatz eines Equalizers auf der Sprachaufnahme ist vieles Geschmacksache. Bewährt haben sich meistens eine leichte Bassabsenkung per Lowshelf bis ca. 300Hz und eine leichte Höhenanhebung ab 6-10KHz, am besten im Zusammenspiel mit einem DeEsser. Gerade bei den meisten dynamischen Mikros wird man um eine deutliche Höhenanhebung nicht rumkommen wenn man ein professionelles Ergebnis erzielen will.
Gerade bei Einsatz eines Kompressors, werden die Störgeräusche und der Raumhall nochmal extra mit angehoben. Man kann hier klassisch mit Noisegate und Expander gegensteuern, was aber gerade für unerfahrene User eine ziemliche Frickelei ist. Klar gibt es seit kurzem z.B. Plugins die sich darauf spezialisiert haben den Nachhall des Raumes rauszurechnen, die aber leider alle ziemlich kompliziert einzustellen sind und eher viel CPU-Last erzeugen. Ein Geheimtipp ist aber in einem Plugin zur Bearbeitung der Transienten, den Sustain ein gutes Stück rauszudrehen. Bocksimpel mit einem Regler weniger Nachhall und die Dinger brauchen fast null CPU Power, sind echtzeitfähig und somit durchaus streaming tauglich. Klar ganz perfekt wirds dadurch evtl noch nicht, aber um einiges besser als ohne.
Wenn ich Sprache aufnehme, sieht meine Signalkette auf der digitalen Ebene meist in etwa folgendermassen aus:
Lowcut EQ -> Transient Designer -> Kompressor1 -> Kompressor2 -> Klangfärbender EQ -> DeEsser -> Limiter zur Vermeidung von Übersteuerungen
Klar kann man vieles davon auch in einem Channelstrip auf analoger Ebene vor dem Audiointerface realisieren. Viele Audiointerfaces bieten aber auch interne DSP-Plugins die dafür in Frage kommen. Ich persönlich empfinde als optimale Möglichkeit (weil sie mir am meisten Freiheit bietet), das Mikrofonsignal vom Audiointerface im Rechner in einen VST Host zu leiten, das dort die Signalkette mit Plugins durchläuft, von dort wieder an das Audiointerface zurückgeschickt wird und dort per Loopback erneut in den Rechner an den Soundport den die Streaming Software verwendet. Dabei muss man natürlich streng auf niedrige Latenzen achten (sowohl beim Audiointerface als auch bei den Eigenlatenzen der PlugIns), ansonsten hört man das Audiosignal evtl merkbar verzögert. Falls kein Loopback zur Verfügung steht, kann man natürlich ein Routing Tool wie Virtual Audio Cable verwenden, das bedeutet aber auch Frickelei und somit eine höhere Wahrscheinlichkeit Fehler und Ausfälle zu produzieren. VST Hosts und Plugins für alle Bearbeitungsschritte gibt es natürlich von hochpreisig bis kostenlos.