Business

10 Hochmoderne Phonetik Trends der Zukunft

10 Zukunftsweisende Phonetik Zukunftsforschung - Dummies

Phonetik hat einen langen Weg zurückgelegt, seit die guten alten Zeiten von Daniel Jones und seinen Kollegen in London um die Jahrhundertwende. Technologie und Massenkommunikation haben das Gebiet der Phonetik revolutioniert und Durchbrüche ermöglicht, die sich die Gründer nie hätten vorstellen können. Die folgende Vorschau zeigt einige dieser erstaunlichen neuen Richtungen.

Computer trainieren, um menschliche Emotionen in der Sprache zu erkennen

Es gibt viele Situationen, in denen es wichtig ist, Emotionen in der Sprache zu erkennen. Denken Sie darüber nach, wie Ihre Stimme zunehmend angespannt wird, während Sie am Telefon warten, bis ein Computer-Operator Sie (endlich) einer echten Person übergibt. Oder ernsthafter: Betrachten Sie Leute, die in Notsituationen arbeiten, wie z. B. ein 911-Operator. Größere, potenziell lebensbedrohliche Probleme können auftreten, wenn ein 911-Operator nicht verstehen kann, was Sie sagen.

Das Arbeiten mit Emotionen in der Sprache ist in vielen Laboratorien weltweit ein hochmodernes Forschungsthema. Zum Beispiel hat Dr. Carlos Busso an der Universität von Texas in Dallas Experimente mit computerisierten Stimmen und visuellen Köpfen durchgeführt, die die Emotionen von Wut, Freude und Traurigkeit zum Ausdruck bringen. Diese Arbeit hat die Sprache von Schauspielern und gewöhnlichen Individuen in naturalistischeren Situationen verglichen. Von den Audioaufnahmen verwendet Busso Pitch-Funktionen, um Emotionen zu klassifizieren. Er verwendet dann die Bewegungsverfolgungs-Technologie, um die Gesichtsbewegungen der Sprecher während des Sprechens aufzuzeichnen. Die Ergebnisse zeigen, dass bestimmte Regionen des Gesichts kritischer sind, um bestimmte Emotionen auszudrücken als andere.

Linguisten und Wissenschaftler können nun die Ergebnisse dieser Studien nutzen, um glaubwürdigere Avatare (computergesteuerte menschenähnliche Charaktere) zu erstellen und Krankheiten wie die Parkinson-Krankheit besser zu verstehen ( in dem der Zerfall des Nervensystems einen Verlust des Gesichtsausdrucks verursacht) und Autismus (bei dem der Umgang mit Gesichtsausdrucken ein Problem zu sein scheint).

Animieren von Silizium-Vokaltrakten

Verschiedene Wege können Ihnen helfen, den menschlichen Vokaltrakt zu verstehen. Ein Weg ist, den menschlichen Körper durch Anatomie und Physiologie zu studieren. Ein anderer Weg ist, Modelle des Systems zu konstruieren und die biomechanischen Eigenschaften dieser Kreationen zu studieren. Silicon Vokaltrakte sind eine neue Art von Modell, das für Sprachsynthese verwendet werden kann, die künstliche Erzeugung von Sprache durch Maschine.

Der Beginn der Sprachsynthese geht zurück auf das 18. Jahrhundert mit einer dudelsackigen Sprechmaschine, die aus einem Lederbalg (um als Lunge zu dienen) und einem Rohr (als Stimmlippen) dient.Obwohl dieses System durch Sprache quietschte, war es nicht möglich, viel über die Sprachquelle oder den Filter zu entschlüsseln, indem man seine Komponenten studierte.

Menschen sind heute immer noch fasziniert von sprechenden Maschinen, einschließlich Robotern und humanoiden Kreationen. Solche Roboter helfen bei der Animation und anderen künstlerischen Zwecken und helfen Forschern dabei, anatomische Systeme besser zu verstehen.

Die Herstellung eines menschenähnlichen artikulatorischen Systems ist nicht einfach. Der menschliche Körper hat eine sehr spezifische Dichte, Dämpfung, Elastizität und Trägheitseigenschaften, die nicht einfach zu replizieren sind. Die sich ändernden physischen Formen des Vokaltrakts sind auch schwierig mechanisch zu reproduzieren. Zum Beispiel ist die Zunge ein muskulärer Hydrostat , der sein Volumen beibehält, wenn er die Form ändert. Die Zunge verlängert sich, wenn sie hervorsteht, und klappt zurück, wenn sie zurückgezogen wird.

Dr. Atsuo Takanishi an der Waseda Universität in Japan hat jahrzehntelang einen Siliziumkopf perfektioniert, der auf Japanisch Vokale, Konsonanten und Frikative erzeugen kann. Sie können sich Filme über seine verschiedenen Apparate ansehen, einschließlich Silikon-Stimmlippen, motorisierte Zungen und zahnradgetriebene Lippen und Gesicht.

Erste röhrenförmige und synthetische

Eine Methode zur künstlichen Synthese von Sprache, die mehr zerebral ist als der Bau von Robotern, besteht darin, elektronische oder mathematische Modelle des Spracherzeugungssystems zu erstellen. Nachdem Forscher diese komplexen Systeme verstanden haben, können sie diese erstellen und diese Systeme dann in einem Computer manipulieren, um das menschliche System (wenn auch elektronisch) zu simulieren. Gunnar Fant, der Modelle für die Beziehung zwischen der menschlichen Sprachanatomie und den Formantfrequenzen entwickelte, war in den 1950er Jahren Anführer dieser Arbeit. Dieses Unternehmen stützt sich auch auf die physikalischen Modelle von Hermann von Helmholtz, der beschrieb, wie einzelne Resonatoren und gekoppelte Resonatoren den Eingangsschall formen.

Neuere Versionen von Röhrenmodellen machen Durchbrüche mit schwierigen Problemen, wie der Nachahmung der Stimmen von Frauen und Kindern, und geben Computern die Illusion, dass sie erfolgreich singen. Brad Story, ein Professor an der Universität von Arizona, arbeitet an einem Prototyp namens Rohrsprecher. Dieses System basiert auf der modellierten Physiologie der Stimmlippen und des oberen Atemwegsystems. Das Design umfasst Videobilder der Stimmfalten und MRI-Bilder des Vokaltrakts, die während des Sprechens aufgenommen wurden. Durch die Verwendung sowohl artikulatorischer als auch akustischer Beschränkungen können Story und sein Team virtuelle Artikulatoren modellieren und bewegen, um glatte, sprachähnliche Bewegungen zu erzeugen. Das Ergebnis ist eine Schallwelle, die angehört, analysiert und mit realer Sprache verglichen werden kann.

Tube Talker wurde auf seltsame und interessante Weise modifiziert. Zum Beispiel legen traditionelle Sprachmodelle nahe, dass die Sprach- und Filterkomponenten als getrennt betrachtet werden sollten. Für einige Arten gesungener Stimme (und vielleicht für eine Kinderstimme) mag dies jedoch nicht der Fall sein. Jüngere Versionen des Röhrensprechers haben nichtlineare Wechselwirkungen zwischen Quelle und Filter als neue mögliche Kombinationen getestet, um solche Arten von Sprache und Lied besser zu modellieren.

Ein anderes Modell, das Röhren-ähnliche Designs verwendet, hat einen kürzlichen europäischen Gesangswettbewerb für Sprachsynthese gewonnen, um nicht nur plausible gesprochene Sprache zu machen, sondern auch zu singen (Sie können das unheimliche Schauspiel transparenter 3D computerisierter Vokaltrakte sehen, entwickelt von Dr. Birkholz, singt ein Duett).

Training mit Baldi und anderen Avataren

Ein weiterer interessanter Trend in der Phonetik sind Lehrmittel wie Avatare, die als Experten für verschiedene Sprachen konzipiert sind. Solche Systeme können Ausbildern helfen, indem sie zusätzliche Übung mit Unterrichtsplänen geben, beim Training mit dem Erlernen der zweiten Sprache helfen, mit schwerhörigen Personen arbeiten oder Einzelpersonen, die besondere Schwierigkeiten bei der Interaktion mit Live-Sprechern haben (wie Personen mit Autismus).

Unter der Leitung von Professor Dominic Massaro von der Universität von Kalifornien in Santa Cruz haben Forscher einen 3D-Sprechkopf namens Baldi entwickelt, der viele Aufgaben ausführen kann. Zum Beispiel hat Baldi japanischen Studenten geholfen, ihren englischen Akzent zu entwickeln, und hat bei der gehörlosen Erziehung geholfen. In neueren Versionen ist Baldis Kopf transparent geworden, um seinen Vokaltrakt besser darzustellen, so dass Sprachlerner, bei denen spezielle Zungen- und Pharynxpositionen wichtig sind (wie Arabisch), sehen können, was vor sich geht. Baldi hat sogar Beine, Arme und einen Körper gekeimt, weil die Gesten eines Avatars in manchen Situationen zu einer effektiveren Sprachlernsituation beitragen können. Diese Art der Forschung legt nahe, dass die Arbeit mit Avataren eine kühne und vielversprechende Zukunft für die Phonetik haben kann.

Stummes Sprechen mit Silent-Sprach-Interfaces

Das Silent-Speak-Interface (SSI) kann besonders bei militärischen Anwendungen nützlich sein, z. B. bei Personal in lauten Cockpits oder Fahrzeugen, die es verhindern, dass sie sich selbst sprechen oder von einem Mikrofon.

Darüber hinaus kann SSI anderen helfen, die keinen hörbaren Klang aus ihren Stimmlippen erzeugen können, aber ihre Artikulatoren (Zunge, Lippen und Kiefer) funktionieren immer noch. Eine künstliche Stimmquelle zu haben würde dieses Problem lindern. Wenn die Position der Zunge der Person in Echtzeit verfolgt werden kann und diese Information einem Computer zugeführt wurde, könnten die beiden mit einer Sprachquelle und mit presto Sprache gekoppelt werden.

Mehrere aufregende funktionierende Prototypen für SSIs werden derzeit entwickelt. Der folgende Fokus liegt auf artikulatorischen Akustikprinzipien und Fleckpunkt-Artikulator-Tracking-Technologien:

  • Forscher in Südafrika arbeiten an einem System, das Elektropalatographie (EPG) verwendet.

  • Wissenschaftler an der University of Georgia erforschen die Verwendung eines Permanentmagnet-Tracking-Systems.

  • Andere Forscher arbeiten an Lippen- und Zungenverfolgungssystemen.

Eines Tages ist das ultimative Ziel, Personen zu haben, die aufgrund des Verlustes des Kehlkopfs nicht sprechen können, um einfach ihr Telefon (oder ein Gerät dieser Größe) herauszuziehen, einen Knopf zu drücken und dann eine hohe Qualität zu synthetisieren. Stimme spricht für sie, wie sie artikulieren.

Visualisieren der Zungenbewegung bei Schlaganfallpatienten

Viele Personen mit linksseitigem kortikalen Hirnschaden haben Sprachapostrophie (AOS) , ein Problem, das die Produktion von Sprachgeräuschen steuert.Obwohl diese Patienten im Allgemeinen die Sprache ziemlich gut verstehen, wenn sie einen bestimmten Ton aussprechen wollen, sagen wir "s" im Wort " s ee", kann der Ton falsch herauskommen, wie zB " sh e. "AOS ist für Patienten sehr frustrierend, weil sie normalerweise wissen, dass sie irrtümlicherweise einen Ton produziert haben. Sie haben das Gefühl, dass sie wissen, was sie sagen sollen, aber sie können es einfach nicht herausbekommen.

Ein bewährtes Prinzip, das diesen Patienten hilft, ist das Üben (Übung macht den Meister), zumal solche Personen aufgrund von Frustration, Depression und anderen Familienmitgliedern das Sprechen aufgeben und für sie sprechen. Ein weiteres wichtiges therapeutisches Prinzip ist das Artikulationstraining. Die Universität von Dallas in Texas Labor (in Zusammenarbeit mit Kollegen an der Universität von Pittsburgh) gibt Personen mit AOS visuelles Feedback über die Position ihrer Zunge während der Rede. Diese Intervention basiert auf der Prämisse, dass Individuen mit AOS einen Zusammenbruch mit Tonsequenzierung und Soundimplementierung haben, aber ihre Feedback-Überwachungssysteme von Auge zu Zunge intakt sind.

Eine Reihe von Studien hat gezeigt, dass diese Methode Personen mit AOS dabei helfen kann, die Genauigkeit ihrer Tonproduktion nach einem Schlaganfall zu erhöhen. Die bisherige Arbeit stützte sich auf Informationen von einem einzigen Artikulationsdatenpunkt (wie z. B. der Zungenspitze). Zukünftige Arbeit wird Patienten einen 3D-Avatar geben, der ihnen die Online-Bewegung ihrer Zunge zeigt, während sie sprechen. Dies würde die Behandlung eines breiteren Spektrums von Sprachgeräuschen ermöglichen und es Klinikern ermöglichen, die Art der Artikulation sowie den Ort zu behandeln.

Mehr männliche Stimme aus weniger männlicher Stimme sortieren

Eine Reihe von Eigenschaften in der Stimme kann tatsächlich auf Männlichkeit hinweisen. Phonetiker haben Begriffe dafür:

  • Männlichere Sprache (MMS)

  • Weniger maskuline Sprache (LMS)

MMS ist niedriger in Grundfrequenz (die Tonhöhe, die eine Person hört). Die beiden scheinen auch Unterschiede in der spektralen Qualität der Frikative zu haben (wie hoch die Heitiness ist). Auch haben MMS-Individuen weniger ausgeprägten Vokalraum als Individuen, die als LMS beurteilt werden (was bedeutet, dass LMS-Sprecher während des Sprechens größere Zungenexkursionen verwenden).

Unternehmen oder Regierungen können möglicherweise diese Informationen nutzen, um einen männlichen oder weiblichen Sprachsensor und vielleicht einen noch detaillierteren Detektor (gerade oder schwul) für einfache Beurteilungen zu entwerfen. Die Übertragung von Geschlecht durch Sprache ist jedoch komplizierter als eine allgemeine Annäherung an die biologischen Eigenschaften des anderen Geschlechts. Das heißt, ungeachtet dessen, was die populäre Kultur oft impliziert, scheint die Rede schwuler Männer nicht bloß eine feminisierte Version der Rede von heterosexuellen Männern zu sein (oder die Rede von Lesben eine maskulinisierte Version der Rede gerader Frauen).

Ron Smyth, ein Professor an der Universität von Toronto, hat die Unterschiede zwischen mehr und weniger homosexuell klingender männlicher Sprache untersucht. Seine Arbeit zeigt, dass die folgende komplexe Mischung akustischer Eigenschaften "schwul klingende Sprache" charakterisiert:

  • Vokale, die näher an den Rändern des Vokalraums erzeugt werden

  • Konsonanten mit längeren Stimmeintrittszeiten (VOTs) stoppen

  • Länger / s / und / / Frikative mit höheren Spitzenfrequenzen

  • Mehr Licht "l" allophones

Smyths Arbeit zeigt auch, dass viele dieser Beurteilungen auch von Annahmen der Zuhörer, den Arten von Sprachproben und das Geschlecht und die sexuelle Orientierung der Zuhörer selbst.Sexuelle Orientierung und Sprache ist ein fortwährendes Forschungsthema, um zu bestimmen, ob populär-kulturelle Stereotypen auf irgendetwas Greifbarem basieren und ob die Wahrnehmung von sexueller Orientierung durch Menschen ( gaydar ) von Homosexuellen behauptet wird, sie seien (Seine Arbeit hat gezeigt, dass das Gaydar auf der Grundlage von Sprache normalerweise nicht zuverlässig ist.) Diese Fragen beziehen sich auf das Gebiet der

Soziolinguistik , das Studium der Beziehung zwischen Sprache und Gesellschaft. Studien haben zum Beispiel gezeigt, dass junge (heterosexuelle) Männer ihre Grundfrequenz senken, wenn ein junger weiblicher Fragesteller statt eines Mannes in den Raum kommt. Diese Männer machen sich vermutlich durch eine niedrigere Stimme attraktiv. Wenn die früheren Studienergebnisse zutreffend sind, könnte eine Forschung annehmen, dass Frauen unter denselben experimentellen Bedingungen die Atmung ihrer Stimme erhöhen würden, eine Eigenschaft, von der bekannt ist, dass sie die Wahrnehmung einer attraktiveren weiblichen Sprache erhöht. Herausfinden des Fremdakzent-Syndroms (FAS)

Fremd-Akzent-Syndrom (FAS)

ist eine Sprachmotorik, bei der Erwachsene mit fremd klingender Sprache als Ergebnis von Misimiming und prosodischen Anomalien aufgrund von Gehirnstörungen auftreten. Es fasziniert weiterhin die Öffentlichkeit und Wissenschaftler gleichermaßen. Die Studie von Individuen, die diese Störung haben, kann möglicherweise ein besseres Bild davon geben, welche Gehirnsysteme an der Erzeugung und dem Verständnis von Akzent beteiligt sind. Bisher waren die meisten FAS-Fälle Muttersprachler, obwohl zunehmend auch andere europäische Sprachen erfasst werden. Nun wurden mehrere nicht-indoeuropäische (hebräische, japanische und arabische) Fälle registriert. Forscher interessieren sich dafür, welche Sprachenarten betroffen sind, und Forscher stellen in Frage, inwieweit stress- oder silbenbasierte prosodische Faktoren (üblicherweise als

Pairwise Variability Index, ( PVI ) quantifiziert werden. ) spielt eine Rolle bei der Frage, ob solche Patienten als fremd wahrgenommen werden und ob es FAS-Subtypen mit hohem PVI und niedrigem PVI gibt. Ein weiteres Rätsel im FAS-Bild ist, wie Fälle, die aus offenherzigen fokalen Läsionen (wie von Schlaganfall oder Tumor) resultieren, mit denen weniger spezifischer oder unbekannter Ätiologien (wie Migräne, Allergie oder möglicherweise psychogene Ursachen) in Zusammenhang gebracht werden können. Ein Individuum mit einer Läsion in einer gut etablierten Hirnregion, von der bekannt ist, dass sie der Sprachfunktion entspricht (wie die perisylvianische Sprachzone) kann angenommen werden, dass sie eine plausible Ursache für FAS hat. Die Situation für Personen ohne bekannte physiologische Ursache ist weniger klar.

Bei vielen Patienten, die wegen mutmaßlicher FAS an die Universität von Texas in Dallas überwiesen wurden, wurde eine

Konversionsstörung diagnostiziert. Dies ist eine Bedingung, bei der Patienten neurologische Symptome erfahren, die eine medizinische Bewertung nicht erklären kann. Konversionsstörung ist nicht malingering (Fälschungserkrankung) und kann Sprache beeinflussen, aber das ist nicht dasselbe wie die FAS. Um FAS bestmöglich zu bewerten, sollten Fachleute eng in einem Team zusammenarbeiten, das idealerweise einen Psychologen und Psychiater umfasst.Einschließlich phonetischer Tests, um beabsichtigte, unbeabsichtigte oder nachgeahmte Akzentmodifikationen auszuschließen, ist ebenfalls wichtig. Die Genetik der Sprache entdecken

Phonetiker haben sich mehr und mehr für das schnelllebige und spannende Feld der Genetik interessiert, um die Grundlage für Sprache und Sprache zu finden. Ein Tumult begann in den 1980er Jahren mit der Entdeckung einer Familie in West London, die eine Reihe familiärer Sprach- und Sprachprobleme hatte. Zwischen den verschiedenen Mitgliedern der Familie (mit dem Namen KE) waren neun Geschwister. Vier dieser Geschwister hatten ausgesprochene Verständigungsprobleme. Sätze wie "Der Junge wird vom Tiger gejagt" bedeuten "Der Junge jagt den Tiger". "Sie haben auch am Anfang von Wörtern Klänge fallen lassen, wie zum Beispiel" Kunst "zu sagen, wenn sie" Tart "sagen wollten. "Aus diesem Verhalten wurde deutlich, dass sich etwas Familienbezogenes auf Sprache und Sprache auswirkte.

In der Mitte der 1990er Jahre begann eine Gruppe von Genetikern der Oxford University, nach dem geschädigten Gen in dieser Familie zu suchen. Sie fanden heraus, dass diese Störung auftrat, wenn nur ein Gen von einer Generation zur nächsten weitergegeben wurde (

autosomal dominant ) und nicht geschlechtsgebunden war. Weitere Untersuchungen pinnten das Gen an einen Bereich auf Chromosom 7, der als Speech and Language Disorder 1 (SPCH1) bezeichnet wurde. Die Genetiker fuhren fort, den genauen Ort des Bruchs des Chromosoms 7 im Falle eines anderen Kindes mit einer genetischen Sprach- und Sprachstörung zu lokalisieren. Es stellte sich heraus, dass es sich auf erstaunliche Weise auf die KE-Fälle bezog: Beide kodierten etwas namens Forkhead Box Protein (FOXP2) , ein Transkriptionsprotein, das andere für neurologische, Darm- und Lungensysteme benötigte Faktoren kodiert. FOXP2 ist assoziiert mit vokalem Lernen bei jungen Singvögeln, Echoortung bei Fledermäusen und möglicherweise auch bei anderen Vokallern, wie Walen und Elefanten. Mäuse mit in ihre DNA gespleißten Human-FOXP2-Genen sendeten ein niedriges Funky Squeak und wuchsen in ihren Gehirnen in Regionen, die mit Lernen zu tun haben, unterschiedliche neuronale Muster.

Wie alle aufregenden wissenschaftlichen Geschichten ist die Geschichte von FOXP2 nicht unumstritten. Viele populäre Berichte über diese Entdeckungen machen vereinfachende Behauptungen und übersehen die multifaktorielle genetische Grundlage für Sprache und Sprache. Zum Beispiel war die Abstammung des menschlichen Kehlkopfes zweifellos wichtig, um Sprache im Vergleich zum Vokaltrakt von Schimpansen physisch möglich zu machen. Dieser genetische Prozess scheint jedoch nicht an FOXP2 gebunden zu sein, was darauf hindeutet, dass andere Genloci möglicherweise beteiligt sind. In der Tat tauchen bereits andere Gene auf. FOXP2 schaltet ein Gen namens Contactin-assoziiertes Protein-ähnliches 2 (CNTNAP2) aus. Dieses Gen wurde sowohl bei spezifischen Sprachstörungen (SLI) als auch bei Autismus assoziiert. Nervenzellen im sich entwickelnden Gehirn, insbesondere in mit der Sprache verbundenen Schaltkreisen, setzen CNTNAP2 ein, das das Protein kodiert.

Passende Dialekte für Spaß und Gewinn

Viele Menschen ändern ihren gesprochenen Akzent im Laufe eines Tages, um dem Akzent der Menschen zu entsprechen, mit denen sie sprechen.Sie können dies als Akzent-Schwamm bezeichnen, obwohl es technisch eher als

Dialekt-Matching oder Register-Matching bezeichnet wird. Dialektabgleich ist für Menschen ganz natürlich. In der Tat hat es sich zu einem der heißesten Bereiche bei der Computer-Spracherkennung entwickelt, um die Möglichkeit zu bieten, eine Anrufanforderung mit einer im Dialekt übereinstimmenden Online-Antwort abzugleichen. Da die Leute die Gruppenmitgliedschaft zu schätzen scheinen, soll der Computer Ihren Dialekt schnell erkennen und Sie mit einem Telefonpartner oder einer Computerstimme, die zu Ihnen passt, vergleichen.

Forscher entwerfen Computersysteme mit Geräten zur Erkennung von Telefoneinheiten und Anpassungsmodulen für Telefoneinheiten. Telefonsysteme, die solche Technologien verwenden, können den Akzent der anrufenden Person bestimmen, die Merkmale dieses Akzentes extrahieren und das synthetisierte Stimmen, das auf den Anrufer antwortet, modifizieren, indem sie am besten dem Akzent dieser Person entsprechen. Wenn es richtig gemacht wird, kann es zu einer besseren Verständlichkeit und vielleicht zu einem besseren subjektiven Gefühl im Gespräch führen. Auf der anderen Seite, wenn es nicht gut gemacht wird, fühlen sich die Leute nachgeahmt oder verspottet. Sie können sich vorstellen, wie diese Art von Dingen in computergestützten Dating-Systemen verwendet werden kann.

Das Dialekt-Matching ist sogar für Orca-Wale, Tümmler und Speerspitzen auch natürlich. Orcas und Delphine verwenden koordiniertes Quietschen und Pfeifen, um zu entscheiden, was sie jagen und mit dem sie reisen werden. Die Untersuchung von Speerspitzen hat gezeigt, dass die Weibchen ihren Ruf erfüllen, andere Mitglieder ihres Quartiers zu rekrutieren, wenn sie eine reiche Nahrungsquelle finden und gemeinsam ihre Nahrung vor anderen Fledermäusen verteidigen. Laut Biologen handelt es sich bei allen Tierstimmen um Fälle von Signalisierung für die Gruppenmitgliedschaft.