Vor allem ist Sprache ein Missverständnis – wann immer Sprache gleichgesetzt wird mit Stimme. Sprache ist eine Form der Kodierung, die mit den Stimmlippen – und also mit Stimme und Tonhaftigkeit – nichts zu tun hat.
Mit dieser Ansicht oute ich mich möglicherweise als wenig weltgewandter Europäer: „Als Tonsprache wird eine Sprache definiert, in der jede Silbe eine distinktive Tonhöhe oder einen distinktiven Tonhöhenverlauf besitzt […].Sehr viele Sprachen der Erde, vielleicht sogar die Mehrzahl der Sprachen, sind Tonsprachen in diesem Sinne. Unter den europäischen Sprachen findet sich jedoch keine Tonsprache […].“ (Pétursson/Neppert: Elementarbuch der Phonetik; Helmut Buske Verlag 2002 – Seite 158)
Und so bleibe ich erst einmal in unserer Sprache.
Wenn bei Nocke zu lesen ist: „Die stärksten Frequenzanteile gesprochener Sprache liegen zwischen 300 Hz und 500 Hz“ , dann ist das, bezogen auf die Lautstärke, erst einmal korrekt (Chr. Nocke: Raumakustik im Alltag; Beuth Verlag 2019 – Seite 25):

‚Renz Solutions‘ hatte einmal in einer aus den Nuller-Jahren stammenden Publikation die Lautheiten der sprachlichen Äußerungen nach Frequenzen und nach Geschlechtern aufgeschlüsselt (siehe oben: Grafik). Man kann demnach eine besondere Lautheit der Sprache zwischen 200 und 630 Hz feststellen.
Das Problem jedoch ist, dass der Kodierungswert der Sprache in diesen Frequenzen nicht nur kaum, sondern gar nicht stattfindet. Indem ich nämlich mehrere Darstellungen zur frequenziellen Einordnung von Lauten zusammenführt habe (um möglichst viele Laute abbilden zu können), zeigt sich bereits ein etwas anderes Bild:

Wenn es nun bei Nocke auch heißt: „[…] der für die menschliche Sprach-Kommunikation wichtige Bereich von 200 Hz bis 2.000 Hz“ (Chr. Nocke: Raumakustik im Alltag; Beuth Verlag 2019 – Seite 25), dann fällt damit nicht nur gut die Hälfte der sprachlichen Kodierungen unter den Tisch, weil sie oberhalb von 2.000 Hz stattfinden – sondern insgesamt ist die bisherige Einordnung der Laute unvollständig bis fehlerhaft.
3 Beispiele mögen das verdeutlichen:
m und n: Beide Laute sind so genannt „stimmhafte“ Konsonanten – ebenso wie alle Vokale stimmhaft sind. Aber obwohl der Mund beim „m“ geschlossen, beim „n“ leicht geöffnet ist, unterscheiden sich beide Laute nicht voneinander, sondern gewinnen ihren Ausdruck erst im Zusammenhang mit einem Vokal. Egal, ob stimmhaft gesprochen oder geflüstert: Beide diese Konsonanten sind genau genommen bei 200 Hz fehlerhaft eingeordnet, da sie allein in den Obertönen kodieren.
beide ‚th‚: Das scharfe ‚th‘ (z. B. englisch ‚thumb‘ oder ‚theatre‘) ist korrekt bei den sehr hohen Frequenzen eingeordnet, weil es als Lispel-Laut ein Mittelding zwischen Zisch- und Rauschlaut ist. Das weiche ‚th‘ (z. B. englisch ‚the‘ oder ‚those‘) beinhaltet – vergleichbar „m“ oder „n“ – überhaupt keine Kodierung: Erst im Zusammenhang mit Vokalen wird eine Lautbarkeit daraus – die aber nicht über Stimme getragen wird, sondern ebenfalls in den Obertönen. Das weiche ‚th‘ gehört also ebenfalls nicht bei ca. 200 Hz eingeordnet.
alle Vokale – a, e, i, o, u: Nicht nur die Tatsache, dass man Vokale auch flüstern kann, deutet darauf hin, dass sie in der Stimme nicht kodieren. Sondern auch die Tatsache, dass bei gesperrtem Mund – bei fixiertem Unterkiefer kann die Mundhöhle nicht geformt und Modulation mit der Zunge nur eingeschränkt umgesetzt werden – die Vokale sämtlich nicht unterscheidbar sind. – Es wird deutlich, dass der Kodierungswert auch der sog. Vokale allein über den Mundraum, und somit in den Obertönen abgebildet wird.
So wird nicht nur klar, dass die gesamte sprachliche Kodierung von den Obertönen getragen wird – d. h. in den oberen Mittenfrequenzen und in den hohen Frequenzen stattfindet und stets energiearm ist…

… sondern auch, dass die Phonetik in einigen Details einen verzerrten Blick auf Sprachbildung und Sprachlaute bietet.
WEIL nun aber die sprachliche Kodierung so essenziell abhängig ist von den oberen Mitten- und den hohen Frequenzen, deshalb sind vollflächig bedämpfende Decken auch stets nachteilig für die Kommunikation. Auch schon in durchschnittlich großen Kommunikationsräumen wie etwa Klassenräumen – und stets auch dann, wenn nicht für die Inklusion besonders stark bedämpft wird.
Vollflächig bedämpfende Decken jedoch werden in DIN 18041:2016-03 ausdrücklich empfohlen: „Da bei Räumen mit einem Volumen bis ca. 250 m3 keine Gefahr zur akustischen Überdämpfung besteht, kann hier eine vollflächig schallabsorbierende Decke in Kombination mit einer ebenfalls schallabsorbierenden Rückwand eingesetzt werden.“ (DIN 18041:2016-03; 5.4 – Positionierung akustisch wirksamer Flächen)
Folge dieser raumakustischen Alltäglichkeit ist… ?
… dass die Räume dumpf klingen und sowohl Sprache und auch Musik detailarm sind. Dem gesprochenen Wort fehlt die Plastizität. Aber aufgrund der Energiearmut auch die nötige Reichweite – schon in einem normalgroßen Klassen- oder Besprechungsraum.
Zugleich ist also die Klarheit von Sprache sehr gering – und das Verstehen davon abhängig, dass Hörende sich aus den Lautfragmenten Wörter und Sätze vervollständigen können. Zum einen leidet darunter die Konzentration, je weniger die Dekodierung unterbewusst und ohne Anstrengung abgearbeitet wird. Zum anderen erfordert das eine bereits hohe sprachliche Kompetenz in der gehörten Sprache – oder gelingt ohnehin nur noch bruchstückhaft, wenn gar der Hörsinn in der einen oder anderen Weise beeinträchtigt ist.
Schon etwa ab der Mitte solcher Räume (z. B. durchschnittlich großer Klassenräume, mit bis zu 250 m3 Raumvolumen) reicht der Direktschall bei Weitem nicht mehr aus, um für einen klaren sprachlichen Austausch überall im Raum mit der nötigen Reinheit und Transparenz vernommen werden zu können.