keine Angst….KI macht nur das, was menschliche Intelligenz eingibt. Ja, eben!!!!

KI darf nicht nur weiß und westlich sein

Von   Florian Lauck-Wunderlich   |  Project Delivery Leader   |  Pegasystems
22. September 2021

Wer glaubt, Künstliche Intelligenz sei aus sich selbst heraus perfekt, muss umdenken. Der menschliche Faktor spielt immer noch eine wichtige, aber bislang zu wenig reflektierte Rolle.
Künstliche Intelligenz ist menschlich geprägt. Eine aktuelle Studie der Universität von Columbia zeigt den großen – und gleichzeitig subtilen – Einfluss natürlicher Intelligenz auf die Ergebnisse von KI-gestützten Analysen und Prognosen. Danach beeinflussen die Auswahl der Trainingsdaten (Samples) und die Biografien der entwickelnden IT-Ingenieure die Ergebnisse von Machine Learning und deren Nutzung in KI-gestützten Systemen.

Die Untersuchung zeigt die Brisanz des aktuell heiß diskutierten Themas „Ingroup Bias“ oder „WEIRD Samples“. Es beschreibt den Einfluss persönlicher, gruppenspezifischer Erfahrungen und Einstellungen auf die Ergebnisse von ML und KI. „WEIRD“ steht dabei für „Western, Educated, Industrialized, Rich, Democratic“ und die Tatsache, dass Programmierer und IT-Ingenieure überwiegend aus vergleichsweise wohlhabenden westlichen Industriestaaten mit demokratischen Ordnungen und ausdifferenzierten Bildungssystemen stammen. Und die transportieren ihre dort erworbenen Vorstellungen und Prädispositionen unbewusst auch in die Algorithmen ihrer KI-Modelle, die in den entsprechend disponierten Peer Groups entwickelt werden.

Um Missverständnissen vorzubeugen: Prägungen und die daraus resultierenden Voreingenommenheiten sind völlig normal und selbstverständlicher Teil jeder Persönlichkeit. Es kommt jedoch darauf an, wie man damit umgeht, wie bewusst man sie sich macht und welche Konsequenzen man daraus zieht. Negativ werden sie dann, wenn sie Denken und Handeln unreflektiert bestimmen und zu Diskriminierungen (Bias) von Menschen mit anderer Biografie führen. Die beste Prophylaxe dagegen ist Diversifizierung. Sie verhindert die unbewusste algorithmische Diskriminierung durch eine KI-Community, die vornehmlich aus weißen, männlichen Software-Entwicklern aus westlichen Staaten besteht. Eine repräsentative Mischung von Herkunft, Hautfarbe, Geschlecht, Religion und sozialem Umfeld gehört deshalb zu den Vorgaben bei den Auswahlkritierien für die Zusammensetzung von ML- und KI-Teams.

Die zweite Lehre, die aus den Ergebnissen der Studie gezogen werden muss, ist die Schärfung des generellen Bewusstseins für die Bedeutung des menschlichen Einflusses in der KI-Entwicklung. Er ist keine methodische Verunreinigung oder ein zu eliminierender Störfaktor sondern elementarer Teil des Entwicklungsprozesses. Er muss einkalkuliert, kontrolliert, gesteuert und sinnvoll genutzt werden. Wir müssen uns klar darüber werden, wie schwerwiegend die Folgen andernfalls sein könnten, beispielsweise bei der Gesichtserkennung in komplexen algorithmischen Entscheidungssystemen.

Wichtige gesellschaftliche Aufgaben wie Gesundheitssysteme, Arbeitsmärkte oder Strafverfolgung werden in Zukunft nicht ohne KI-Unterstützung zu bewältigen sein. Dafür werden auf Dauer nur Bias-resistente Systeme akzeptiert. Diversifizierte Teams und deren diskriminierungsfreie Algorithmen sind daher ein dringend benötigtes Gut.

auf die Frage:“Ist KI gefährlich?“ antwortet ChatGBT:                                                                                                      “

Fazit:

„KI an sich ist nicht per se gefährlich, aber der Umgang mit ihr und die Art und Weise, wie sie implementiert und kontrolliert wird, sind entscheidend. Mit verantwortungsbewusster Entwicklung, transparenter Regulierung und ethischen Standards können viele der potenziellen Gefahren vermieden oder abgemildert werden. Es ist wichtig, dass Gesellschaften, Regierungen und Wissenschaftler zusammenarbeiten, um die positiven Aspekte der KI zu maximieren und die Risiken zu minimieren.“

Ach sooooo.                                                                                                                                                                                          (der pingelige Deutschlehrer in mir weist auf die Doppelmopplung von „„an sich“ und „per se“ hin- und fragt außerdem nach dem Unterschied zwischen Atombombe und KI oder Einhandmesser auf dem Weihnachtsmarkt und KI.)