Zwei Menschen mit Handys und Sprechblasen

KI lernt Sprachregeln beim Lesen

Modelle der Künstlichen Intelligenz sind in der Lage die Regeln menschlicher Sprache selbst herzuleiten. Sie benötigen dafür keine weiteren expliziten Informationen über Grammatik oder gar Wortklassen. Forscher der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) haben dies nun in einem Experiment nachgewiesen. Sie stützen damit eine Theorie kognitiver Linguistik. Demnach sind ein Verständnis für syntaktische Konstruktionen nicht etwa angeboren sondern werden beim Sprachgebrauch erlernt.
Die Ergebnisse der Studie sind im Sammelband
„Recent Advances in Deep Learning Applications: New Techniques and Practical Examples“ (Uche Onyekpe & Vasile Palade, Springer) veröffentlicht worden.

Erlangen/Germany, 11. November 2025. – Dinge die man beinahe täglich benötigt und einmal kultiviert wurden, manifestieren sich im Menschen und werden zu seiner Persönlichkeit. Der oder die eine oder andere beherrscht das Kopfrechnen, ein anderer ist stark im schreiben, so manche in beidem Top, manch anderer weder das eine noch das andere. Schreiben und Lesen ist ein zentrales Thema.

Zur nächsten Stufe gehört, das man zeitgleich die Regeln der Grammatik, vielleicht auch Syntax und Semantik, und weitere Regeln kennt und zum Einsatz bringt. Andere lesen den Text ein zweites mal. Je mehr Facetten einer Sache ich beherrsche, desto professioneller. Es finden alle Perspektiven einer Sache Berücksichtigung.
Im Verlauf der Evolution, des Wachstums lernt man diese Dinge nicht zeitgleich, das Gehirn lernt Struktur für Struktur in jeweiligen Zeitphasen und führt damit bis hin zur Reifung eines Menschen. Irgendwann, je nach Ausbildung beherrscht man in einer Sache alle Perspektiven und gilt daher als Professionell (Vgl. Wer wenig an Merkfähigkeit verliert, gewinnt auch viel an Wissen, 2022). Kommunikation benötigt die ganze Philosophie des Lebens.

Jeder evolutionäre Strang, jedes Thema, jede Epoche hat für sich ein zentrales Thema das ausgebildet wird, spätestens durch Ereignisse und Umstände. Wenn diese Themen wie bei einer Pflanze eine Art Endreife erlangt haben, dann beginnt die grosse Vernetzung. Eine Pflanze bildet wie ein Mensch wehenartig und abwechselnd Kern und Blätter nacheinander aus, auch zur Berücksichtigung ihrer Ressourcen. Beim Menschen ist das ähnlich der Fall. Rumpf und Extremitäten wechseln im Wachstum je nach dem wohin die Energie sich konzentriert. Ist eine Endreife erreicht, beginnt der Lebenszyklus. In dem abwechselnd expandiert, nach aussen gewachsen, nach innen gestärkt wird.

Man könnte bei diesem Ansatz vielleicht von Intelligenz sprechen. Jeder Mensch verläuft diese Phasen im grossen Massstab wie im kleinen. Das bedeutet, die menschliche Evolution durchläuft diesen Prozess genauso wie jeder individuelle Mensch der heranwächst. Die Globalisierung ist ein solcher Schritt, der zeigt das sich Menschen in ihren Nationen, ihren Volkswirtschaften ausgebildet, kultiviert und sozialisiert haben und mit ihnen wächst nun das Bedürfnis sich global zu vernetzen. Im Punkt dieser Entwicklung steht also, das Menschen das Bedürfnis haben sich in die Tiefe oder mehr in die Breite zu entwickeln, sich in Form als Experten zu vertiefen oder in die Breite etwas zu managen. Im besten Fall vielleicht beides.

Nun scheint sich erwiesen zu haben, das Sprachmodelle der Künstlichen Intelligenz dies gleichtun. KI-Modelle sind in der Lage, Regeln der menschlichen Sprache herzuleiten, ohne dass sie mit expliziten Informationen über Grammatik und Wortklassen versorgt werden. Das haben Forscher der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) in einem Experiment nachgewiesen. Damit stützen sie die Theorie der kognitiven Linguistik, nach der – im Gegensatz zur Theorie der Universalgrammatik – das Verständnis für syntaktische Konstruktionen nicht angeboren ist, sondern beim Sprachgebrauch erlernt wird. Die Ergebnisse der Studie sind im renommierten Sammelband „Recent Advances in Deep Learning Applications: New Techniques and Practical Examples“ (Uche Onyekpe & Vasile Palade, Springer) veröffentlicht worden.

Die Frage, wie wir Sprache erlernen, wird in der Wissenschaft kontrovers diskutiert. „Es gibt zwei Hauptströmungen, die völlig gegensätzliche Antworten liefern“, sagt Dr. Patrick Krauss, Kognitions- und Neurowissenschaftler am Lehrstuhl für Mustererkennung der FAU. Die Universalgrammatik, deren bekanntester Vertreter der amerikanische Sprachwissenschaftler Noam Chomsky ist, geht davon aus, dass grammatische Prinzipien angeboren sind und Kinder ihre Muttersprache auf Basis dieser Prinzipien entwickeln. Im Gegensatz zu diesem generischen Ansatz erklären kognitive Sprachmodelle, dass sich die Struktur der Sprache erst im Zuge ihres Gebrauchs herausbildet.

Aufgabe: Welches Wort folgt als nächstes?

Gemeinsam mit Dr. Achim Schilling, Gastwissenschaftler am Uniklinikum Erlangen und Gruppenleiter an der Universität Heidelberg, hat Krauss untersucht, ob grammatische Strukturen spontan aus der Nutzung von Sprache hergeleitet werden können. Die Wissenschaftler haben ihr Experiment allerdings nicht mit Testpersonen durchgeführt, sondern mit künstlicher Intelligenz. Sie haben ein sogenanntes rekurrentes neuronales Netz mit dem Roman „Gut gegen Nordwind“ des österreichischen Schriftstellers Daniel Glattauer trainiert. Die Aufgabe: Nach der Eingabe von jeweils neun Wörtern sollte das folgende zehnte Wort im Text vorhergesagt werden.

„Die Vorhersage des nächstes Wortes, Ereignisses oder Bildes ist ein Grundprinzip der Funktionsweise des menschlichen Gehirns. Daher wird es häufig auch als Vorhersagemaschine bezeichnet“, erklärt Krauss. „Rekurrente Sprachmodelle arbeiten auf ähnliche Weise: Sie übernehmen Informationen aus früheren Eingaben, um die Ausgabeergebnisse zu verbessern.“ Entscheidend für das Experiment war, dass das neuronale Netz mit keinerlei Informationen zu Syntax, Grammatik oder Wortarten versorgt wurde.

Das Ergebnis überraschte selbst die Wissenschaftler: „Die KI hat in einem bemerkenswerten Anteil der Fälle richtig gelegen“, sagt Patrick Krauss. „Das ist beeindruckend, denn man muss bedenken, dass es hier wirklich um das exakte Wort ging, nicht um eines mit ähnlicher Bedeutung.“ Vergleichbare Ergebnisse lieferte ein zweites neuronales Netz, das mit dem englischsprachigen Roman „Per Anhalter durch die Galaxis“ von Douglas Adams trainiert wurde. Damit die KI die Sätze nicht einfach auswendig lernen und vervollständigen konnte, bekamen die Modelle für ihre Testaufgabe nur Textpassagen, die sie im Training nicht gelesen hatten.

Spontanes Lernen von Wortklassen und Syntax

Um herauszufinden, wie die KI zu ihren Ergebnissen kommt, analysierten die Forscher die einzelnen Verarbeitungsschritte. „Rekurrente neuronale Netze sind in sogenannten bidirektionalen Long-Short-Term-Memory-Schichten organisiert“, erklärt Krauss. „Diese Schichten funktionieren wie ein Gedächtnis und geben uns einen Einblick in die verschiedenen Zwischenstände des Verarbeitungsprozesses.“ Dabei zeigte sich Erstaunliches: Die Sprachmodelle begannen Schicht für Schicht, die Eingabesequenzen, also die neun aufeinanderfolgenden Wörter, um spezielle Wortklassen zu gruppieren. Am Ende konnten sie mit einer hohen Wahrscheinlichkeit vorhersagen, ob als zehntes Wort beispielsweise ein Verb, ein Nomen oder ein Adjektiv folgt – obwohl sie keinerlei Informationen zur Klassifikation von Sprache besaßen.

„Unsere Ergebnisse belegen, dass abstrakte linguistische Kategorien wie Wortarten und Syntax- oder Grammatikregeln spontan in der neuronalen Verarbeitung sprachlicher Eingaben entstehen können“, sagt Patrick Krauss. „Dieser Befund stellt die Annahme infrage, dass die Fähigkeit, Wörter anhand ihrer grammatischen Funktion zu erkennen und zu kategorisieren, angeboren und im menschlichen Gehirn fest verdrahtet ist.“ Sprache sei vielmehr ein komplexes adaptives System, das sowohl von biologischen als auch von Umweltfaktoren geprägt wird. Die Studie, so Krauss weiter, liefere nicht nur neue Erkenntnisse über die Informationsverarbeitung im Gehirn. Sie könne auch zur Verbesserung von Sprachmodellen, maschineller Übersetzung und KI-Systemen allgemein beitragen.

Wer wenig an Merkfähigkeit verliert, gewinnt auch viel an Wissen, 2022
http://de.gate-communications.com/wer-wenig-an-merkfaehigkeit-verliert-gewinnt-auch-viel-an-wissen/

Bildquelle
Gerd Altmann Pixabay


Beitrag veröffentlicht

in

von

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert