Wer kennt die Zukunft? Prognosen mit KI
München [ENA] Ende Juli befaßten sich zwei Online-Konferenzen mit zukunftsorientierten Aspekten beim Einsatz von KI. Die BLM (Bayerische Landeszentrale für neue Medien) stellte den Forschungsbericht "Algorithmen und Künstliche Intelligenz im Alltag von Jugendlichen" vor, der MÜNCHNER KREIS untersuchte die Generative KI in Konsum- und Wahlforschung und fragte, ob dies "Der Anfang vom Ende der Prognosen?" sei.
Was machen junge Menschen eigentlich mit KI und welche KI-Tools nutzen sie? Dazu sollte die von der BLM (Bayerische Landeszentrale für neue Medien) beim Kommunikationswissenschaftlichen Institut der hiesigen Universität in Auftrag gegebene Studie Auskunft geben (BLM-Schriftenreihe, Band 111). * * * *
Im Fokus standen dabei nicht nur die dialogfähigen großen Sprachmodelle, sondern auch Empfehlungsalgorithmen auf den sozialen Netzwerken und deren Hardware-Inkarnationen als Sprachassistenten (Alexa, Siri u.ä.). Wichtig ist eine solche Studie schon deshalb, weil es sich dabei um die erste mit KI aufwachsende Generation handelt. Die Ergebnisse lesen sich nicht eben spektakulär.
Man findet erwartbare Unterschiede nach Geschlecht und Bildungsgrad: "Es zeigt sich, dass männliche Jugendliche eine signifikant positivere Einstellung gegenüber Algorithmen aufweisen als weibliche Jugendliche. Auch nach den drei unterschiedenen Bildungsgruppen zeigen sich Unterschiede: demnach haben Jugendliche mit niedrigerer formaler Bildung eine signifikant positivere Einstellung zu Algorithmen als Jugendliche mit mittlerer sowie höherer Bildung."
Die seinerzeit (vorschnell) ausgerufene Generation der "digitalen Eingeborenen" zeigt keineswegs einen hervorstechenden Kenntnisstand oder Nutzungsgrad. Immerhin dürften die Kenntnisse ausgedehnter sein als in jener von der Bertelsmann-Stiftung in Auftrag gegebenen Studie vom Mai 2018, in der die meisten Erwachsenen nichts mit dem Thema anzufangen wußten. Die in der BLM-Studie zitierten Interviews und Gruppengespräche offenbaren allerdings ganz unabhängig vom Thema ein eher dürftiges Äußerungsniveau.
Daß die Schulen - wie die Eltern übrigens auch - bei einer derart neuen Technik und bei dem notorischen Digitalisierungsrückstand des Bildungssystems oft überfordert sind, den Schülern die nötigen Kenntnisse mitzugeben, kann nicht überraschen. Methodisch ist der didaktische Auftrag klar: die bisher schon angestrebte Medienkompetenz um eine Algorithmen-Kompetenz zu ergänzen.
Der Anfang vom Ende der Prognosen?
Daß Parteien Wahlforschung und das Marketing Konsumforschung betreiben, um die Durchsetzung ihrer Ziele zu optimieren, ist man seit langem gewohnt. Daß hier KI mittelfristig Werkzeuge und Prozeduren ändern wird, untersuchte die Konferenz des MÜNCHNER KREISES in Zusammenarbeit mit der CSU-nahen Hanns-Seidel-Stiftung in München. Überblicke über die traditionellen Formen von Wahl- und Konsumforschung lieferten die Kontrastfolie, vor der Dr. Carolin Kaiser vom Nürnberg Institut für Marktentscheidungen, NIM, den disruptiven Ansatz einer KI-gestützten Prognostik entwickelte.
Nimmt man diese disruptive Energie ernst, wäre mittelfristig das Ende klassischer Meinungsumfragen zu erwarten. Anders gesagt: was ist, wenn Gen-KI anstelle von Menschen Umfragen beantwortet? Ausgangspunkt ist die (unterstellte) Fähigkeit der KI, nicht nur menschliche Dialoge, sondern auch menschliche Einstellungen und Haltungen zu simulieren. * *
Wenn in anderen Bereichen, etwa dem Verkehr, Infrastrukturen, Bauwerken oder von ganzen Städten digitale Zwillinge eingesetzt werden, sieht man in der Prognostik die Chance, durch KI demographische Zwillinge herzustellen, die man dann zu Gruppen, Milieus, Generationen o. ä. zusammenfassen und zu beliebigen Fragen Stellung nehmen lassen kann. Der einzelne Mensch figuriert als "Persona", gewissermaßen als soziologisch fixierbarer und verrechenbarer Datensatz. Kalibriert wird eine solche, synthetische Population mit einer Befragung der entsprechenden Population echter Menschen.
Machbarkeitsstudie in den USA
Im vorliegenden Falle hat das NIM in den USA - gewiß wegen der dort besseren Datenlage und der weltanschaulichen Kongruenz von GPT und Gesellschaft - Einstellungen zum Thema Softdrinks abgefragt. Das Ergebnis zur Frage der Kaufentscheidung zeigt in den meisten Parametern brauchbare Übereinstimmungen, doch der Faktor Gesundheit wird von der KI krass überbewertet, also ein viel größeres Gesundheitsbewußtsein unterstellt, als tatsächlich vorhanden ist.
Hier macht sich zweifellos eine tendenziöse Ignoranz gegenüber der Wirklichkeit bemerkbar, neudeutsch gern "bias" genannt, also eine weltanschauliche Verzerrung menschlicher Verhältnisse oder menschlichen Verhaltens aufgrund bestimmter, zeitgeisttypischer und meist moralisch unterlegter Vorgaben. Anders gesagt: die "Bias"-Korrektur ist in der Regel der Bias, für dessen Korrektur sie sich hält.
In GPT-Dialogen fällt solche Normierung oder Zensur dem Fachkundigen unschwer auf und kann mit Achselzucken übergangen werden. In der Marktforschung wäre ein solcher Fehlgriff aber eine starke Einschränkung der Nutzbarkeit. Wenn im Falle einer Wahlprognose GPT Biden 60 % Stimmenanteil zuspricht, die Kontrollgruppe aber nur 46,5, wird klar, welchen Sprengstoff eine Umfrage mit einer synthetischen Population birgt und wie sich der Mangel an Objektivität bei den großen Sprachmodellen auswirkt.
Noch deutlicher sieht man die Nivellierung im demographischen Zwilling bei der Standardabweichung, d.h. beim Ausmaß der Ausschläge bei den Antworten. GPT unterstellt eine sehr viel größere Homogenität der Urteile, will also die große Divergenz in echten menschlichen Gesellschaften nicht wahrhaben. Beim heutigen Stand der Intransparenz der großen Sprachmodelle und ihrer moralisch-kommunikativen Formatierung wäre ihre Verwendung zu prognostischen Zwecken (und gar noch zur Fundierung politischer Entscheidungen) grob fahrlässig. Hier stellt sich unverhohlen wieder die klassische Machtfrage: wer erhält die Deutungshoheit über die Wirklichkeit?