Die Angst vor der Künstlichen Intelligenz

Beim World Usability Day ging es dieses Jahr um Menschenzentrierte KI

Auch in diesem Jahr haben wir wieder mit einem Vortrag zum „World Usability Day“ beigetragen, der diesmal unter dem Motto „Menschenzentrierte KI“ stand.

Der WUD findet seit 2005 weltweit jährlich am 12. November statt, um Gebrauchstauglichkeit, Usability Engineering und benutzerzentriertes Design zu fördern und Interessierten einen Einblick in wichtige Usability-Themen zu gewähren.

Hype-Thema KI

Künstliche Intelligenz ist das Hype-Thema der letzten Jahre und die Faszination darüber schlägt sich seit Jahrzehnten in unserer Kultur nieder und ist bis heute ungebrochen. Die Aussicht auf endlose Möglichkeiten undeinen großen Nutzen für die Gesellschaft, wie etwa der Einsatz für Medizin oder Pflege, stehen aber im Kontrast zu der damit verbundenen Verantwortung und den Risiken, welche sich aus der Automatisierung von Prozessen ergeben.
In unserem Beitrag „Die Angst vor der Künstlichen Intelligenz“ ging es um eben dieses Spannungsfeld. In unserem Alltag werden uns bereits in vielen Bereichen Entscheidungen durch künstliche Intelligenz abgenommen. So wählen zum Beispiel in den sozialen Medien Algorithmen die Werbeschaltungen anhand unseres Verhaltens und unserer Präferenzen zielgerichtet aus, Autokorrekturen übernehmen die Rechtschreibung und über Mustererkennung werden uns in Suchmaschinen die richtigen Bilder herausgesucht.

Rechtliche Fragen und Ethik

Doch neben aller Zukunftsgläubigkeit und dem Versprechen der Vereinfachung unseres Lebens steht auch die Sorge um rechtliche Folgen und ethische Fragestellungen, welche mit einer „Kontrollübernahme“ einhergehen. Wer ist in letzter Instanz verantwortlich, wenn ein autonom steuerndes Fahrzeug einen Menschen überfährt? Oder wenn Algorithmen Kopien verfälschen und die Originale vernichten? Oder wenn eine KI konsequent Bewerbungen von Frauen herausfiltert? Wann werden bei Bewerbungsgesprächen mittels künstlicher Intelligenz die Emotionen analysiert und „Lügner“ herausgefiltert? Wo ist die Grenze, an der wir nicht mehr bereit sind, unsere Geschicke fremdsteuern zu lassen?
Führt man diesen Gedankengang weiter fort, entsteht schnell der Eindruckeiner selbstständig handelnden, unkontrollierbaren KI. Doch welche Entscheidungen eine Software trifft, hängt von dem Datensatz ab, der ihm zugrunde liegt. Machine Learning funktioniert nur so gut, wie die „Lehrmaterialien“, mit denen die Maschine tatsächlich geschult wird. Eine KI, welcher nur Bilder von Hundebabys zur Verfügung gestellt wurden, wird in allem Welpen erkennen. Aber bedeutet dies, dass wir die menschlichen Fehler einfach an KI-Systeme weitergeben?

Wir haben es in letzter Zeit gelernt: Durch Algorithmen bekommen wir unsere Auswahlen und Entscheidungen ein ums andere Mal bestätigt, wer z.B. einmal ein Video über „Chemtrails“ angesehen hat, wird danach immer häufiger über ähnliche Themen stolpern, es bilden sich Filterblasen, welche durch die zu starke Personalisierung der Vorschläge im Internet entstehen und eine kontinuierliche Feedbackschleife bilden. Radikale und oftmals schlichtweg falsche Informationen werden nicht ausreichend gekennzeichnet oder entfernt. Dies könnte zu einer extremen Verschiebung unserer Wahrnehmung von Realität beitragen.
Das Vertrauen, welches wir also in Algorithmen, Machine Learning und Künstliche Intelligenz haben, variiert mit der Thematik und dem Einsatzgebiet.

Die wichtigen Fragen, welche sich stellen sind sowohl ethischer als auch rechtlicher Natur:
Was wollen wir als Gesellschaft Künstlicher Intelligenz überlassen und zu welchen Bedingungen? In welchen Bereichen dürfen Algorithmen für uns entscheiden? Wer haftet für algorithmische Fehlentscheidungen?

Wir sollten KI als Werkzeug betrachten, das uns zur Verfügung steht, die Handlungs- und Entscheidungsautonomie sollte aber weiterhin beim Menschen liegen. Und der Einsatz künstlicher Intelligenz sollte ethischen Grundsätzen folgen, welche zum jetzigen Zeitpunkt gesellschaftlich nicht genügend diskutiert und noch lange nicht gesetzlich verankert sind.

23.11.2020