Wie können wir große Sprachmodelle optimal nutzen, um eine intelligentere und integrativere Gesellschaft zu schaffen

Wie können wir große Sprachmodelle optimal nutzen, um eine intelligentere und integrativere Gesellschaft zu schaffen?


Unter Federführung der Copenhagen Business School und des Max-Planck-Instituts für Bildungsforschung (MPIB) in Berlin befassen sich Forschende mit dem Einsatz großer Sprachmodelle, LLM genannt, die vorwiegend Digital, durch das Internet in Erscheinung treten. Die als kollektive Intelligenz entwickelten Sprachmodelle sollen Chancen und Risiken aufzeigen, die sich zwischen den Modellen und menschlicher Fähigkeiten wie kollektiv zu beraten, Entscheidungen zu treffen und Probleme zu lösen ergeben. Dazu ist ein Artikel im Journal 
Nature Human Behaviour erschienen.

Berlin, 20. September 2024. Das richtige Thema am richtigen Ort zum richtigen Zeitpunkt war immer schon ein Magnet. Ob Mensch, Sache oder Natur, herausragende Besonderheiten, Alleinstellungsmerkmale ziehen Menschen an und werden auf diese Weise in unserer modernen, modischen Zeit zur kollektiven Intelligenz. Mit wachsender Ordnung oder erwünschtem Chaos hat jeder Gegenstand, Sache, alles Materielle im Zuge des Leben wollens eine wachsende Eigenmächtigkeit. Auch dann, wenn Menschen körperliche ausgewachsen sind und damit eine körperliche und geistige Grundreife erreicht haben, sind die Dinge nicht vorbei. Das Wachstum wird an anderer Stelle fortgesetzt.
Dem steht das kollektiv mit seiner Macht gegenüber. Auch diese benötigt eine gewisse Reife. Manche Menschen finden früher in ihre Ordnung, andere Später. Allen ist gemeinsam, das Wissen auch aus einem begünstigten zusammenführen von Informationen zum richtigen Zeitpunkt am richtigen Ort dazu beiträgt wie sich das Individuum und auch das Kollektive entwickeln wird und kann.
Diese kollektive Intelligenz ist der Motor aller Arten von Gruppen, von Teams oder Communitys wie sie über das Internet möglich wurden beschreiben die verantwortlichen Autoren. In der Fachzeitschrift Nature ist dazu nun ein Artikel über den Einsatz großer Sprachmodelle erschienen. Der Artikel erklärt, wie LLMs die kollektive Intelligenz verbessern können und erörtert ihre möglichen Auswirkungen auf Teams und die Gesellschaft.

Der Einsatz großer Sprachendmodelle, die als LLM bezeichnet werden und Systeme der künstlichen Intelligenz sind, analysieren und generieren unter Mitwirkung großer Datensätze und Deep-Learning-Techniken Texte. Künstlich erzeugte Texte haben damit einen erheblichen Einfluss auf die Entwicklung von Gesellschaften. Das System LLM hat das Ziel, so die Forschenden der Copenhagen Business School und des Max-Planck-Instituts für Bildungsforschung (MPIB) in Berlin, diese kollektive Intelligenz verbessern zu wollen.
„Da große Sprachmodelle zunehmend die Informations- und Entscheidungslandschaft prägen, ist es wichtig, ein Gleichgewicht zwischen der Nutzung ihres Potenzials und der Absicherung gegen Risiken zu finden. Unser Artikel zeigt, wie die menschliche kollektive Intelligenz durch LLMs bereichert werden kann, aber auch die möglichen negativen Folgen“, sagt Ralph Hertwig, Koautor des Artikels.
Potenziale sind bsw. das Abbauen von Barrieren durch das Angebot von Übersetzungsdiensten oder Schreibhilfen. Menschen mit unterschiedlichem Hintergrund sollen gleichberechtigt an Diskussionen teilzunehmen können. Man ist sich natürlich auch über die Nachteile bewusst. „Da LLMs aus online verfügbaren Informationen lernen, besteht die Gefahr, dass die Standpunkte von Minderheiten in den von LLMs generierten Antworten nicht repräsentiert sind. Das kann ein falsches Gefühl der Übereinstimmung erzeugen und einige Perspektiven ausgrenzen“, betont Jason Burton, Hauptautor der Studie.
„Der Wert dieses Artikels liegt darin, dass er aufzeigt, warum wir proaktiv darüber nachdenken müssen, wie LLMs die Online-Informationsumgebung und damit auch unsere kollektive Intelligenz verändern – im Guten wie im Schlechten“, fasst Mitautor Joshua Becker zusammen.
Die AutorInnen fordern mehr Transparenz bei der Erstellung von LLMs, einschließlich der Offenlegung der Quellen von Trainingsdaten, und schlagen vor, dass LLM-EntwicklerInnen einer externen Prüfung und Überwachung unterzogen werden sollten. Dies würde ein besseres Verständnis dafür ermöglichen, wie LLMs tatsächlich entwickelt werden und negative Entwicklungen eindämmen.



Originalpublikation:

Burton, J. W., Lopez-Lopez, E., Hechtlinger, S., Rahwan, Z., Aeschbach, S., Bakker, M. A., Becker, J. A., Berditchevskaia, A., Berger, J., Brinkmann, L., Flek, L., Herzog, S. M., Huang, S. S., Kapoor, S., Narayanan, A., Nussberger, A.-M., Yasseri, T., Nickl, P., Almaatouq, A., Hahn, U., Kurvers, R. H., Leavy, S., Rahwan, I., Siddarth, D., Siu, A., Woolley, A. W., Wulff, D. U., & Hertwig, R. (2024). How large language models can reshape collective intelligence. Nature Human Behaviour. Advance online publication. https://www.nature.com/articles/s41562-024-01959-9

Weitere Informationen:

https://www.mpib-berlin.mpg.de/pressemeldungen/llm-und-kollektive-intelligenz


Beitrag veröffentlicht

in

von

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert