Augmented Intelligence unterstützt den Menschen, aber ersetzt ihn nicht

min Lesezeit

IT-Professorin Mascha Kurpicz-Briki mit dem Spezialgebiet Künstliche Intelligenz und maschinelles Lernen erläutert im Gespräch, worin der Reiz und die Grenzen der Künstlichen Intelligenz liegen, und erklärt Grundtendenzen ihres Forschungsgegenstands.

Was sind Ihre wissenschaftlichen Schwerpunkte und Forschungsprojekte?

Prof. Dr. Mascha Kurpicz-Briki: Ich verfolge in meiner Forschung primär zwei Themen: Einerseits Fairness bei der Künstlichen Intelligenz (KI), vor allem in Bezug auf Textverarbeitung und insbesondere sogenannte Sprachmodelle, die häufig bei solcher Software zum Einsatz kommen. Systeme können Fehler machen. Erstens, weil sie falsch programmiert wurden, oder zweitens, weil sie auf einseitigem und veraltetem Datenmaterial basieren. Wegen Fehleranfälligkeiten der Systeme folgen mein Team und ich dem Ansatz, dass die Rolle der KI neu überdacht werden muss. Wir verwenden deshalb lieber den Begriff «Augmented Intelligence» statt KI. Der Computer soll dem Menschen als Werkzeug dienen, die menschliche Intelligenz erweitern, jedoch nicht ersetzen.

Könnten Sie das näher erläutern?

Will man die Sprache automatisch verarbeiten, müssen sich Wörter in Zahlen umwandeln und in sogenannten Wortvektoren codieren lassen, um computerlesbar zu werden. Damit lässt sich eine Bedeutung eines Wortes abstrakt darstellen. Dabei kommen neuronale Netze zur Anwendung. Das sind der Funktionsweise des menschlichen Gehirns nachempfundene Systeme, die für maschinelles Lernen und bei KI genutzt werden. Damit werden Datenquellen wie Bilder, Geräusche, Tabellen und Texte interpretiert, woraus sich Informationen oder Muster extrahieren lassen, um sie etwa für Vorhersagen auf unbekannte Daten anzuwenden. Neuronale Netzwerke können unterschiedlich komplex aufgebaut sein, weisen im Wesentlichen aber die Strukturen gerichteter Graphen auf. Das bei Wörtern zum Einsatz kommende Verfahren des sogenannten «Word Embedding» dient dazu, den Bezug zweier Wörter mit Hilfe mathematischer Operationen aufzuzeigen. Dabei geht es darum, ob sie eine ähnliche Bedeutung aufweisen oder nicht.

Wie meinen Sie das konkret?

Sind die Bezeichnungen «Hund» und «Katze» in einem mehrdimensionalen Vektorraum dargestellt, sollten sie näher zueinander positioniert sein als etwa zum Wort «Gewitter». Mit diesem Verfahren lassen sich grosse Textmengen in Wörterbuchvektoren umwandeln und direkt zueinander in Beziehung setzen.

Was hat man davon?

Man kann noch einen Schritt weiter gehen, indem man den Kontext eines Wortes mit einbezieht, so dass Texte effizient weiterverarbeitet werden. Anschliessend lassen sich beispielsweise in einer Chatbox-Anwendung automatische Antworten auf verschiedenste Fragen generieren und mit Hilfe der sogenannten Sentimentanalyse automatisch herausfinden, ob ein Begriff oder ein Ding von einem Dritten positiv oder negativ wahrgenommen wird.

«KI hat das Potenzial, unseren Arbeitsalltag markant zu verändern. Repetitive Aufgaben lassen sich damit wesentlich vereinfachen.»

Prof. Dr. Mascha Kurpicz-Briki, Dozentin für Data Engineering

Was sind die grundlegenden Probleme für den Einsatz von KI?

Häufig wird beim Einsatz von KI fälschlicherweise angenommen, dass der Mensch durch sie ersetzt wird. Dies sollte aber nur dann der Fall sein, wenn grosse Mengen von Daten automatisch verarbeitet und ausgewertet werden. Dies ist jedoch in den allermeisten Fällen nicht erstrebenswert, zumal die Kompetenz des Menschen im Gegensatz zur Maschine in seinem Urteilsvermögen liegt. Soll die Intelligenz eines Systems den Menschen in seiner täglichen Arbeit unterstützen, sprechen wir daher lieber von «Augmented Intelligence».

Ist denn KI überhaupt intelligent?

Der Begriff KI wird sehr weit verwendet. Ursprünglich war es das Ziel, Computerprogramme zu entwickeln, um den Menschen Aufgaben abzunehmen, die Intelligenz erfordern und nicht nur repetitiv sind. Im Gegensatz zu einem traditionellen Algorithmus, der eine bestimmte Reihe von Regeln abarbeitet, ist die Funktionsweise von KI tatsächlich anders. Sie basiert auf einer so grossen Datenmenge, dass sie Entscheide über neue, unbekannte Daten treffen kann.

Was ist KI, was kann sie und was nicht?

KI ist ein Teilgebiet der Informatik. Inspiriert von den menschlichen kognitiven Fähigkeiten, extrahiert sie Informationen aus Eingabedaten, die sie analysiert beziehungsweise klassifiziert. Diese Intelligenz kann auf programmierten Abläufen basieren oder durch maschinelles Lernen erzeugt werden. Wenn von KI gesprochen wird, ist meistens Letzteres gemeint. Aufgrund zunehmender Verfügbarkeit von grossen Datenmengen und immer besserer Rechenleistungen hat der Bereich des maschinellen Lernens in den vergangenen Jahren grosse Fortschritte gemacht. Ein intelligenter Algorithmus lernt durch Wiederholung, selbstständig eine Aufgabe zu erfüllen. Das bedeutet, dass der Lösungsweg nicht initial modelliert ist, wie es bei herkömmlichen Algorithmen der Fall ist. Die Maschine lernt selbstständig, die Struktur der Daten zu erkennen.

Könnten wir auf neuronale Netze zurückkommen?

Neuronale Netze stellen ein Untergebiet des maschinellen Lernens dar. Diese Algorithmen zum automatischen Lernen sind, wie gesagt, ursprünglich von der Struktur des menschlichen Gehirns inspiriert. Analog zu diesem bestehen neuronale Netze aus mehreren Reihen von Knoten, die mit gewichteten Verbindungen untereinander vernetzt sind. Je nach Komplexität kann ein solches neuronales Netz unterschiedlich gross sein. Grundvoraussetzung für eine KI-Anwendung ist es, genügend Daten zur Verfügung zu haben. Sie wird trainiert, indem immer wieder andere Beispiele von Daten zur Verfügung gestellt werden. Durch diese Wiederholung lernt das neuronale Netz diese jedes Mal exakter einzuordnen, wobei es sich stetig verbessert. Das in den Lerndurchläufen erzeugte Modell wird dann auch auf Daten angewandt, welche die KI im Training noch nicht kennengelernt hat.

Was sind die Anwendungsgebiete des maschinellen Lernverfahrens?

Mit Hilfe industrieller Bildverarbeitungsalgorithmen können in Echtzeit optische Darstellungen erkannt und kategorisiert werden. Maschinelles Sehen kommt einerseits in der medizinischen Diagnostik zur Anwendung oder bei der Gesichtserkennung von Kamerabildern. Andererseits kann eine solche Technologie aber auch für die Übersetzung von handschriftlichen Zeichen in Druckschrift genutzt werden. Auch im Bereich des autonomen Fahrens ist eine automatische Bilderkennung sehr wichtig. Ausserdem wird Machine Learning bei der Interpretation von menschlicher Sprache angewendet. Beispielsweise ist dies bei Sprachassistenzsystemen für verbale Sprache der Fall. Geschriebener Text kann semantisch analysiert werden, was kontextbezogene Übersetzungsanwendungen ermöglicht oder Chatbots, die selbstständig Antworten generieren. Auch Muster in Ereignisfolgen lassen sich erkennen, die durch ihre grosse Menge an Datenpunkten, Variablen und Abhängigkeiten für einen Menschen nicht wahrnehmbar wären. So kann eine KI Fehlermuster der Fahrzeugelektronik aus Daten erlernen und diese Anomalien mit dem Verhalten im Betrieb abgleichen. Bildmuster können auch als Informationsbasis für Optimierungen genutzt werden, in denen Prozessmodelle durch die Lernverfahren maschinell erzeugt werden, um eine optimierte Steuerung zu ermöglichen.

«Beim Thema Fairness untersuchen wir, wie gesellschaftliche Stereotypen in mathematischen Modellen zum Zug kommen und was man dagegen tun kann.»

Prof. Dr. Mascha Kurpicz-Briki, Dozentin für Data Engineering

Ist KI in der Lage, unser Leben zu verändern?

KI hat das Potenzial, unseren Arbeitsalltag markant zu verändern. Repetitive Aufgaben lassen sich damit wesentlich vereinfachen. Andererseits kann ihr Einsatz unser Leben auch negativ prägen. Zahlreiche Beispiele haben bewiesen, dass KI diskriminieren kann wie etwa bei der automatischen Vorselektion von Bewerbungen. Dabei stammte in vielen Fällen das Datenmaterial aus alten Beständen, die eher Männer berücksichtigten, so dass Frauen häufig vollautomatisch sangund klanglos aus den Traktanden fielen.

Damit kommen wir auf Ihren Forschungsbereich zu sprechen.

Ich verfolge in meiner Forschung primär zwei Hauptforschungsthemen: Es geht einerseits um Fairness. Konkret bedeutet das, dass Daten und Sprachmodelle, die häufig in Software-Anwendungen im Einsatz sind, ausgewogen und nicht diskriminierend sein sollen. Andererseits geht es im Bereich der klinischen Psychologie/Psychiatrie darum, neuartige Möglichkeiten bei der Diagnose von Burn-out-Patientinnen und -Patienten auf der sprachlichen Basis von Textanalysen zu finden.

Ist Fairness ein KI-Problem?

Das liegt an historischen Fakten, wie etwa, dass früher bei vielen pharmazeutischen Tests häufig Männer gegenüber Frauen vorgezogen wurden. Es lag an der Menstruation, dass Männer einfacher zu handeln waren. War das Medikament auf dem Markt, bewirkte es bei Frauen häufig nichts oder, im schlimmsten Fall, es wirkte tödlich. Ein ebenfalls für Furore sorgendes Google-Gesichtsprogramm erkannte einen schwarzen Mann nicht als Menschen, sondern als Gorilla, da es ihn mangels Datensatz keiner Ethnie zuordnen konnte. Als Apple eine eigene Kreditkarte lancierte, hatte ein Algorithmus über Bezugslimiten zu entscheiden, war aber falsch programmiert. Wie Apple-Mitgründer Steve Wozniak über Twitter berichtete, habe er eine zehnmal höhere Kreditlimite bekommen als seine Frau, obwohl sie keine getrennten Konten führten.

Erforschen Sie solche Fehlannahmen im KI-Bereich?

Beim Thema Fairness untersuchen wir, wie gesellschaftliche Stereotypen in solchen mathematischen Modellen zum Zug kommen und was man dagegen tun kann. Dabei liess sich etwa zeigen, dass Wörter wie «Frau», «Tochter» oder «Mutter» in Sprachmodellen einen näheren Bezug haben zu «Familienwörtern» als zu «Karrierewörtern», was durchaus direkte Auswirkungen auf Stellenbewerbungen haben kann. Wohingegen männliche Wörter eher einen Bezug zu Karrierebegriffen aufweisen. In einem meiner Forschungsfelder versuche ich aufzuzeigen, wie man Gesellschaftsstereotypen in Textsystemen messen kann. Dabei spielt der Begriff des Bias eine grosse Rolle. Ein Bias respektive eine Verzerrung entsteht durch eine einseitige oder veraltete Datenerhebung, die zu fehlerhaften Ergebnissen einer Untersuchung führen kann. Studien haben gezeigt, dass Sprachmodelle mit Wortvektoren, bei denen inhaltlich ähnliche Wörter nahe beieinander sind, die auf grosse Textsammlungen trainiert wurden, Stereotype der Gesellschaft enthalten – einerseits auf Englisch, aber auch in anderen europäischen Sprachen wie Deutsch und Französisch. Solche Sprachmodelle werden oft zur automatischen Verarbeitung von Texten verwendet oder als Grundlage zur Entwicklung von KISoftware. Wenn aber KI über Menschen entscheidet, die Stereotype der Gesellschaft enthält oder gar verstärkt, kann es bei ihrem Einsatz zu einer starken und systematischen Diskriminierung kommen.

Wie helfen Sie sich aus dieser Patsche?

Letztendlich erinnern Deep Learning und KI an die Erziehung eines Kindes: Was es nicht weiss, das muss man ihm beibringen. Dies ist jedoch bei KI nicht immer möglich. Die Daten, mit denen KI trainiert werden, sind dabei selbst mit Vorurteilen behaftet. Deshalb ist eine Lösung sehr  herausfordernd, einerseits aufgrund der schwierigen Definition von Fairness und andererseits aufgrund der technischen Umsetzung, die noch in der Forschung steckt. Daher ist es wichtig, sich dieser Problematik bewusst zu sein, und die richtigen Fragen zu stellen. Dies sowohl bei der Wahl der Trainingsdaten als auch beim Einsatz der Software. Die Zusammenarbeit von Mensch und Maschine muss neu definiert werden. KI soll eine Entscheidungshilfe sein, nicht aber Menschen ersetzen. Bei der Produktion schriftlicher Informationen ermöglicht KI unfassbare Chancen. Ohne menschliche Reflexion birgt sie jedoch auch die Gefahr, Stereotype zu reproduzieren und – was die Auswahl von Begrifflichkeiten zum Beispiel in Bezug auf Geschlecht und Ethnizität angeht – diskriminierend zu wirken.

«Wenn KI die Stereotype der Gesellschaft enthält oder gar verstärkt, kann es bei ihrem Einsatz zu einer starken und systematischen Diskriminierung kommen.»

Prof. Dr. Mascha Kurpicz-Briki, Dozentin für Data Engineering

Zum Schluss: Was können KI und maschinelles Lernen im Bereich ERP-Software im besten Fall bewirken?

Die neuen Technologien können eingesetzt werden, um etwa Informationen effizient zusammenzutragen und das Wichtigste zu extrahieren. Das erlaubt es, mehr Energie in interessantere Aufgaben zu investieren und weniger Zeit mit repetitiven Aufgaben zu verbringen. Sie ermöglichen es, Muster zu erkennen, die man mit verteilten Daten auf Anhieb gar nicht wahrnehmen könnte. Als Einsatzbereiche kann ich mir die automatisierte Überweisung und Buchhaltung in Echtzeit ebenso vorstellen wie dazugehörige Prognosen aus bisherigen Daten zu erstellen, Anwenderinnen und Anwender mit Chatbots zu unterstützen, das Einlesen von Rechnungen zu automatisieren und Dokumente zu erkennen und zu klassifizieren.

Gibt es Beispiele von Diskriminierungen in diesem Anwendungsbereich?

Im HR-Bereich, insbesondere wenn Bewerbungen automatisiert vorselektioniert werden, besteht diese Gefahr. Weil viele Trainingsdaten vor allem Beispiele von Männern enthielten, konnte, vereinfacht gesagt, leicht gezeigt werden, dass etwa bei einem bekannten Tech-Unternehmen Frauen
von der KI aussortiert wurden und deshalb wenig bis keine Chancen auf so ausgeschriebene Stellen hatten.

Sind das die Herausforderungen maschineller Intelligenz? Was sind ihre Grenzen?

Auch wenn dank solcher Beispiele immer mehr Bewusstsein für die Problematik entsteht, ist unsere Gesellschaft an einem Punkt angelangt, an dem wir festlegen müssen, was wir in der digitalisierten Welt als akzeptabel einstufen. Dazu gehört auch die Frage, welche Entscheide durch eine KI getroffen werden sollen. Kritisch ist auch die Datenaufbereitung. Oft wird der Aufwand, der dafür nötig ist, unterschätzt. Zu den gesellschaftlichen Herausforderungen zählt zudem die Akzeptanz von neuen Werkzeugen und Technologien.

Was muss getan werden, um die digitale Transformation in eine der grössten Chancen zu verwandeln?

Risiken wie Diskriminierungsgefahr ernst nehmen und dabei trotzdem technische Innovation zulassen und fördern. Wie Mensch und Maschine Hand in Hand arbeiten und die gegenseitigen Synergien nutzen können, muss unter Einbezug der Personen definiert werden. Zuerst gilt es, das Vertrauen in solche Technologien zu stärken. Denn es ist kontraproduktiv, dass häufig noch immer viele KIEntscheide aus der «Blackbox» stammen, die nur einen Entscheid mitteilt, aber nicht den Weg aufzeigt, wie es dazu gekommen ist.

Prof. Dr. Mascha Kurpicz-Briki

Mascha Kurpicz-Briki ist Dozentin für Data Engineering am Institute for Data Applications and Security IDAS der Berner Fachhochschule. Sie leitet stellvertretend die Applied Machine Intelligence Research Group und ist die Schwerpunktverantwortliche für Augmented Intelligence beim  Wissenschaftsmagazin «SocietyByte». Nach dem Studium in Computerwissenschaften in Bern und Neuchâtel machte sie einen Abstecher in die Privatwirtschaft, um schliesslich an die Berner Fachhochschule zurückzukehren, wo sie sich primär der Forschung widmet. Dabei beschäftigt
sie sich primär mit den Themen Fairness und Digitalisierung von sozialen und gesellschaftlichen Herausforderungen im IT-Umfeld. Zentral für ihre Arbeit sind die Computerlinguistik, insbesondere im Bereich des Natural Language Processing, und das Machine Learning. In ihren Projekten untersucht sie, wie etwa Stellenanzeigen sprachlich in Echtzeit zu optimieren oder ein anstehendes Burn-out frühzeitig mit Hilfe innovativer Technologien zu erkennen wären, ohne dabei diskriminierende Muster anzuwenden. Die Grundlagen zur Erkennung der neuen Methoden werden durch
automatische Textanalyse geschaffen.