Raumakustik Premium

Kategorien
Uncategorized

Was ist Sprache?

Vor allem ist Sprache ein Missverständnis – wann immer Sprache gleichgesetzt wird mit Stimme. Sprache ist eine Form der Kodierung, die mit den Stimmlippen – und also mit Stimme und Tonhaftigkeit – nichts zu tun hat. Und zwar tatsächlich: rein gar nichts.

Mit dieser Ansicht oute ich mich möglicherweise als wenig weltgewandter Europäer: „Als Tonsprache wird eine Sprache definiert, in der jede Silbe eine distinktive Tonhöhe oder einen distinktiven Tonhöhenverlauf besitzt […].Sehr viele Sprachen der Erde, vielleicht sogar die Mehrzahl der Sprachen, sind Tonsprachen in diesem Sinne. Unter den europäischen Sprachen findet sich jedoch keine Tonsprache […].“ (Pétursson/Neppert: Elementarbuch der Phonetik; Helmut Buske Verlag 2002 – Seite 158)

Und so bleibe ich erst einmal in unserer Sprache.

Norm setzt falsche Schwerpunkte

Wenn bei Nocke zu lesen ist: „Die stärksten Frequenzanteile gesprochener Sprache liegen zwischen 300 Hz und 500 Hz“ , dann ist das, bezogen auf die Lautstärke, erst einmal korrekt (Chr. Nocke: Raumakustik im Alltag; Beuth Verlag 2019 – Seite 25):

die gemessenen spektralen Verteilungen der Lautheiten betreffen die Stimmsprache

‚Renz Solutions‘ hatte einmal in einer aus den Nuller-Jahren stammenden Publikation die Lautheiten der sprachlichen Äußerungen nach Frequenzen und nach Geschlechtern aufgeschlüsselt (siehe oben: Grafik). Man kann demnach eine besondere Lautheit der Sprache zwischen 200 und 630 Hz feststellen.

Das Problem jedoch ist, dass der Kodierungswert der Sprache in diesen Frequenzen kaum, nämlich sehr gering stattfindet. Indem ich mehrere Darstellungen zur frequenziellen Einordnung von Lauten zusammenführt habe, zeigt sich bereits ein etwas anderes Bild. Die Nutzung mehrerer Quellen hat es mir ermöglicht, in einer eigenen Darstellung mehr Lautbildungen zu zeigen.

wo Sprache erwacht:

die Verteilung der Laute nach Frequenzen und durchschnittlichen Lautheiten

Wenn es nun bei Nocke auch heißt: „[…] der für die menschliche Sprach-Kommunikation wichtige Bereich von 200 Hz bis 2.000 Hz“ (Chr. Nocke: Raumakustik im Alltag; Beuth Verlag 2019 – Seite 25), dann fällt damit nicht nur gut die Hälfte der sprachlichen Kodierungen unter den Tisch, weil sie oberhalb von 2.000 Hz stattfinden. Sondern insgesamt ist die bisherige Einordnung der Laute auch unvollständig bis fehlerhaft.

3 Beispiele mögen das verdeutlichen:

m und n: Beide Laute sind sog. „stimmhafte“ Konsonanten – ebenso wie alle Vokale stimmhaft sind. Aber obwohl der Mund beim „m“ geschlossen, beim „n“ leicht geöffnet ist, unterscheiden sich beide Laute nicht wirklich voneinander. Sondern vielmehr gewinnen sie ihren Ausdruck erst im Zusammenhang mit einem Vokal. Egal, ob stimmhaft gesprochen oder geflüstert: Beide Konsonanten sind genau genommen bei 200 Hz fehlerhaft eingeordnet. Geräusche im Übergang zu Vokalen prägen beide erst zu eindeutigen Buchstaben aus.

beide ‚th: Das scharfe ‚th‘ (z. B. englisch ‚thumb‘ oder ‚theatre‘) ist korrekt bei den sehr hohen Frequenzen eingeordnet, weil es als „harter“ Lispel-Laut ein Mittelding zwischen Zisch- und Rauschlaut ist. Das weiche ‚th‘ (z. B. englisch ‚those‘ oder ‚together‘) beinhaltet – vergleichbar „m“ oder „n“ – überhaupt keine Kodierung. Erst im Zusammenspiel mit Vokalen wird daraus eine Lautbarkeit. Diese Lautbarkeit jedoch ist getragen von den Obertönen, nicht hingegen von der Stimme. Das weiche ‚th‘ gehört also ebenfalls nicht bei ca. 200 Hz eingeordnet.

energiearme Sprachlaute

alle Vokale – a, e, i, o, u: Nicht nur die Tatsache, dass man Vokale auch flüstern kann, deutet darauf hin, dass sie in der Stimme nicht kodieren. Sondern es ist auch die Tatsache, dass bei gesperrtem Mund die Vokale sämtlich nicht unterscheidbar sind. So lässt sich bei fixiertem Unterkiefer die Mundhöhle nicht formen und Modulation mit der Zunge fast gar nicht umsetzen. Es wird deutlich, dass der Kodierungswert auch der sog. Vokale erst über den Mundraum, und somit in den Obertönen moduliert wird.

So wird nicht nur deutlich, dass die gesamte sprachliche Kodierung von den Obertönen getragen wird – d. h. in den oberen Mittenfrequenzen und in den hohen Frequenzen stattfindet und stets energiearm ist…

Beispiel einer nachgerüsteten, vollflächig bedämpfenden Decke (Detail)

… sondern auch, dass die Phonetik in einigen Details einen verzerrten Blick auf Sprachbildung und Sprachlaute bietet.

WEIL nun aber die sprachliche Kodierung so essenziell abhängig ist von den oberen Mitten- und den hohen Frequenzen, deshalb sind vollflächig bedämpfende Decken auch stets nachteilig für die Kommunikation. Das gilt schon in durchschnittlich großen Kommunikationsräumen wie etwa Klassenräumen. Und das gilt erst recht dort, wo wegen – hingegen nicht „zugunsten“ – der Inklusion besonders stark bedämpft wird.

Absorption zerstört Sprache

DIN 18041:2016-03 jedoch empfiehlt ausdrücklich: „Da bei Räumen mit einem Volumen bis ca. 250 m3 keine Gefahr zur akustischen Überdämpfung besteht, kann hier eine vollflächig schallabsorbierende Decke in Kombination mit einer ebenfalls schallabsorbierenden Rückwand eingesetzt werden.“ (DIN 18041:2016-03; 5.4 – Positionierung akustisch wirksamer Flächen)

Und die Folge dieser raumakustischen Alltäglichkeit ist… ?

… dass die Räume dumpf klingen und sowohl Sprache und auch Musik in den Höhen beschneiden und detailarm wiedergeben. Dem gesprochenen Wort fehlt die Plastizität. Aber aufgrund der Energiearmut auch die nötige Reichweite – schon in einem normalgroßen Klassen- oder Besprechungsraum.

Und hier darf auch ein anderes Thema nicht unerwähnt bleiben: der Spracherwerb in KiTas. Sprache lernen ist kaum irgendwo so grundlegend wichtig, wie für Kinder im KiTa-Alter.

Zugleich ist die Klarheit von Sprache sehr gering, wo man „im Zweifelsfall“ (DIN 18041) mit Absorption großzügig umgeht. Denn dann ist das gegenseitige Verstehen davon abhängig, dass Hörende sich aus den Lautfragmenten Wörter und Sätze vervollständigen können. Zum einen leidet darunter die Konzentration, je weniger die Dekodierung unterbewusst und ohne Anstrengung abgearbeitet wird. Zum anderen erfordert das eine bereits hohe sprachliche Kompetenz in der gehörten Sprache.

… oder Sprache zu verstehen, gelingt ohnehin nur noch bruchstückhaft, wenn der Hörsinn in der einen oder anderen Weise beeinträchtigt ist.

Schon etwa ab der Mitte solcher Räume (z. B. durchschnittlich großer Klassenräume, mit bis zu 250 m3 Raumvolumen) reicht der Direktschall bei Weitem nicht mehr aus, um für einen klaren sprachlichen Austausch überall im Raum mit der nötigen Reinheit und Transparenz vernommen werden zu können.