Rechner zum Reden bringen – Plädoyer für ein neues Verhältnis zwischen Wissensarbeiter und kognitiven Computern

Home / Blog / Künstliche Intelligenz & Bots / Rechner zum Reden bringen – Plädoyer für ein neues Verhältnis zwischen Wissensarbeiter und kognitiven Computern

Ein System/360 zur elektronischen Datenverarbeitung im VW-Werk Wolfsburg (1973)

Stefan Holtel ist bei brightONE der Querdenker für Wissensarbeit, zertifizierter Trainer für LEGO Serious Play, ausgebildeter Theaterpädagoge und Improvisationsschauspieler. Derzeit bewertet er die Konsequenzen von Cognitive Computing für die Wissensarbeit in Contactcentern. Früher wurde er belächelt. Heute gilt er als Vordenker für alle Facetten der Wissensarbeit. Dabei stellte er nur eine einfache Frage: Wie wollen wir eigentlich mit Maschinen leben, die besser denken können als wir?

Interview: Kai Nörtemann

Kai Nörtemann: Stefan, woran erkennt man gute Interaktion mit einem kognitiven Computer?

Stefan Holtel: Es gibt einen einfachen Anhaltspunkt. Frage einfach, ob ein Wissensarbeiter sich von seiner Software «verstanden» fühlt. Das ist ein ziemlich zuverlässiger Indikator. Eine Maschine ist nämlich dann dialogfähig, wenn sie z. B. auf Sprache oder Gesten natürlich reagieren kann. Das kennen wir beispielsweise aus Minority Report. Also immer dann, wenn die Maschine nicht im Takt interner Regeln und im eigenen Tempo arbeitet, sondern im Gleichklang mit den Denk- und Aktivitätsrhythmen eines Menschen tickt. Dann tritt der Wissenarbeiter in einen wertschöpfenden, kognitiven Dialog mit seiner Denkmaschine, und es entsteht auf wundersame Weise eine Symbiose zwischen wissendem Mensch und Wissensmaschine.

Was müssen Software-Entwickler und -Designer tun, um den Umgang der Menschen mit Computern zu verbessern?

Sie sollten ihre Software für die intuitive Interaktion mit Menschen planen.

Ich dachte immer, das täten sie bereits.

Leider nicht. Die meisten Programme, die Wissensarbeiter heute benutzen, ignorieren den menschlichen Maßstab: Google Search, Amazon, Microsoft Office. Du erkennst das an aufgeblähten, technischen Dimensionen: Algorithmen sind undurchsichtig und geheimnisvoll, die Funktionen erschlagen den Benutzer. Menschen entwickeln sich nämlich kognitiv nicht so schnell weiter wie die Denkwerkzeuge, die sie bedienen müssen. Der nächsten Version einer Software sitzt nicht die nächste Version eines Menschen gegenüber. Menschen verharren lange in ihren Denkstrukturen. Und sie begehen andauernd Denkfehler (z. B. Paradox of Choice, Confirmation Bias, Social Proof Bias). Das ist urmenschlich. Auf diese Weise verbreitet sich Software, deren Fähigkeit stetig zunimmt.  Und sie raunt uns permanent zu: «Vertraue mir lieber, mein Freund, ich behalte ohnehin Recht und Du wirst es ohnehin nicht verstehen.» Wer rechnet denn heute noch die Resultate einer Tabellenkalkulation nach? Und das hat Folgen.

Welche?

Die Software-Industrie der vergangenen Jahrzehnte war einseitig auf Effizienzsteigerung der Technik ausgerichtet. Das zwang die Benutzer in einen Zustand kontinuierlicher Anpassung. Heute leiden z. B. die meisten unter der antiquierten Idee von Dateien und Verzeichnissen. Viele Benutzer finden Information nicht wieder, die einmal digital abgelegt worden ist. Aber Paradigmen, die dieses Problem beheben könnten, könne sich trotzdem nicht durchsetzen (z. B. Arbeitssphären oder Noguchi File System). Wir befinden uns oft in sogenannten Pfadabhängigkeiten: eine technische Möglichkeit wandelt sich irgendwann um in ein Faktum, das wider besseres Wissen unabänderlich geworden ist (siehe z. B. Dateien und Verzeichnisse unter Sharepoint).

Warum wird Software Deiner Meinung nach heute an den Menschen vorbei entwickelt?

Weil das Entwickeln von Software von zwei erdrückenden Paradigmen dominiert wird: dem Glauben an technische Allmacht (eine Idee des Laplaceschen Dämons, oder “Weltformel”) und dem Zwang zur Spezialisierung. Früher war das anders. Über Jahrhunderte entwickelten sich Wissensdisziplinen in einem gemächlichen, kontinuierlichen Tempo. Es gab noch sog. Universalgelehrte (z. B. Leonardo da Vinci, Johann Wolfgang von Goethe, George Spencer-Brown). Die waren bewandert in einem breiten Themenspektrum. Die Wissensgebiete waren für einen fähigen Denker überschaubar und die Arbeit abwechslungsreich. Die Industrialisierung änderte das radikal. Maschinen ersetzten Manufakturen. Arbeit wurde tayloristisch organisiert. Statt Meisterschaft in einem Wissensgebiet zu erlangen, herrschte nun der Zwang, Kosten zu reduzieren und Profit zu maximieren. Spätestens mit der Erfindung des Computers übertrugen sich diese Leitlinien der Organisation manueller Arbeit auf die Organisation von Denkarbeit. Und niemand machte sich Gedanken über die Konsequenzen dieses Modernismus. Heute wissen wir: es gibt kein effizienteres Mittel als Spezialisieren und Ökonomisieren, um das Gefühl von sinnvoller und bereichernder Wissensarbeit zu ersticken.

Einige Unternehmen versuchen heute, sogenannte «kognitive Computer» zu entwickeln. Die punkten mit spektakulären Fähigkeiten und simulieren angeblich sogar menschliches Denken.

Eine Entwicklung mit Chancen und Risiken. Weil das, was die Entwickler kognitiver Software heute über Wissensarbeitern abwerfen, viel verspricht, aber in der Praxis noch ziemlich rudimentär daherschlurft. Du hast sicher von den Pannen gelesen, die sich bei der Entwicklung von IBM Watson ereignet haben: Es konnte Slang-Sprache nicht korrekt interpretieren, weil sie so vieldeutig war. Die meisten Programmierer hängen dem Glauben an, bei Software gehe es vor allem um technische Machbarkeit. In Wirklichkeit aber geht es um den gelingenden Mensch-Maschine-Dialog. Also im Kern um das, was sich an der dünnen Schnittstelle zwischen Mensch und Maschine tatsächlich abspielt. Das ist, ich gebe es zu, komplizierter zu planen als 10.000 Zeilen Code. Was auch der Grund ist, weshalb es so selten versucht wird.

Die Kollegenschelte für diese These würde vermutlich heftig ausfallen.

Als junger Programmierer war ich fasziniert von der Grandezza großer Software-Architekturen.  Mein Held war Konrad Zuse, dem Erfinder des modernen Computers, und Alan Turing, dem Theoretiker der Ära moderner Computer. Dann aber stieg ich ein in das IT-Consulting, machte Erfahrungen in großen Software-Projekten in Versicherung, Industrie, Ministerien und Behörden. Und stellte mir eine ganz einfache Frage: Was macht Software eigentlich mit den Menschen, die später mit ihr arbeiten müssen?

Wie lautete Deine Antwort?

Ich hatte keine. Und wie sich herausstellte, meine Fachkollegen auch nicht. Es dachte einfach niemand über die Konsequenzen seiner Arbeit nach.

Warum ist Dein Thema heute en vogue?

Weil Wissensarbeit heutzutage immer mehr davon bestimmt wird, dass Menschen ihre Werkzeuge auch wirklich beherrschen lernen. Sie müssen Fertigkeiten entwickeln, die früher nicht gebraucht wurden. Kognitive Computer fordern sprachliches Ausdrucksvermögen, Statistikkenntnisse und Mustererkennung. Eine weitere Ursache ist natürlich die historische Komponente.

Welche meinst Du?

Algorithmen sind heute technisch perfekt. Sie automatisieren sehr gut eine Vielzahl repetitiver Arbeiten. Produktivitätssprünge sind dort nicht mehr zu erwarten. Die schlummern stattdessen in nicht automatisierbaren Wissensarbeiten. Da fragt man sich irgendwann ganz automatisch: Kann das jetzt einfach so weitergehen mit der heutigen Art der Interaktion zwischen Mensch und Computer? Und sieht so der Arbeitsplatz aus, an dem zukünftige Wissensarbeiter bald den Großteil ihres Arbeitslebens verbringen sollten?

Die Verfechter von Cognitive Computing versprechen einfache Werkzeuge, deren Bedienung intuitiv von der Hand gehen und die unsere Denkleistung dramatisch steigern wird.

Es scheint, als würden wir alle Fehler der Vergangenheit wiederholen. IBM etwa hält sich merklich zurück bei Fragen nach den moralischen und ethischen Konsequenzen beim Einsatz von Watson in der Krebstherapie. Man verweist auf Allgemeinplätze oder fühlt sich nicht zuständig. Es ist nämlich so: das Cognitive Computing Consortium definiert zwar die technischen Fähigkeiten einer Software-Plattform, aber nicht die Frage der Art einer «guten Interaktion» mit kognitiven Computern.

Was lernen wir daraus?

Dass es wohl unmöglich scheint, eine Periode des Wahnsinns in der User-Experience für Cognitive Computing einfach zu überspringen.

Mal angenommen, ich säße als Vorstandsvorsitzender eines Unternehmens vor Dir, dessen Geschäftsmodell von neuester Computertechnik abhängt. Was würdest Du mir raten?

Ich würde mit Dir zwei Dinge aus meiner Erfahrung mit Anforderungsanalyse teilen. Die erste ist eine mittlerweile vielfach belegte Erkenntnis: Erst entwickeln wir unsere Software, dann entwickelt sie uns. Das ist vielfach mit den Theorien zu technisch-sozialen Systemen beschrieben worden. Zweitens: Mehr Fokus auf die Interaktion zwischen Mensch und Maschine, bspw. in Enterprise-2.0-Projekten. Das führt zwangsläufig zu mehr Reflexion über den Nutzen und die Grenzen des Softwareeinsatzes. Mehr Nachdenken über eine gute User-Experience führt zu mehr Verständnis. Darum solltest Du Dich kümmern.

Funktioniert das wirklich so einfach?

Es lässt sich nachweisen. Gut eingeführte Enterprise-2.0-Projekte stehen und fallen damit, dass die organisationale und psychosoziale Dynamik von Software von der ersten Sekunde an bedacht wird. Betreuung in der Einführungsphase sind das A und O des Erfolgs.

Das ist aber kein Allheilmittel. Oft wird Software trotz intensiver Betreuung abgelehnt, weil Menschen sich an die Software anpassen sollen, und nicht umgekehrt. Was also tun?

Wahrscheinlich müssen wir Softwareentwicklung ganz neu denken. Warum fragen wir nicht zum frühestmöglichen Zeitpunkt die möglichen Benutzer einer neuen Software? Aus unseren Seminaren bei brightONE mit der Methode LEGO Serious Play wissen wir: jeder ist willens, fähig und in der Lage, seine Bedürfnisse und Wünsche sehr gut zu formulieren. Man muss ihm nur den geeigneten Ausdrucksrahmen dafür aufspannen. Mehrheitlich werden die  betroffenen Menschen heute aber entweder gar nicht oder viel zu spät gefragt.

Zurück zur kognitiven Schnittstelle: Lässt sich einfache Interaktion zwischen Mensch und Maschine tatsächlich so einfach schaffen: Man baut sprachliche Fähigkeiten ein, und der Rest ergibt sich von selbst?

Natürlich nicht. Kognitive Arbeit ist ein komplexer und sich selbst verstärkender Prozess. Ein fähiger Wissensarbeiter fordert die Maschine heraus, die reagiert auf seine Eingaben, was wiederum zu steigender Leistung eines symbiotischen Mensch-Maschine-Systems führt, und so weiter.

Das Entwickeln guter Dialoge in Software ist teuer und langwierig. Microsoft Windows ist über 30 Jahre alt und die Benutzer sind heute oft noch genauso frustriert über schlechte Dialoge …

Ja, UX-Tests sind wirklich sehr, sehr teuer. Aber mit Verlaub: im Vergleich zu den Konsequenzen dürftig implementierter Software sind sie ein Klacks. Aus Studien wissen wir, dass die Folgekosten schlecht geplanter Software-Projekte ein Vielfaches des ursprünglichen Budgets auffressen. Warum also immer wieder in dieselbe Falle tappen?

Vielen Dank für das aufschlussreiche Gespräch!

Weiterführender Link: BITKOM-Leitfaden  “Kognitive Maschinen – Meilenstein in der Wissensarbeit”, erschienen zur CEBIT 2015 unter Mitarbeit von Stefan Holtel.

Bildnachweis: „Bundesarchiv B 145 Bild-F038812-0014, Wolfsburg, VW Autowerk“ von Bundesarchiv, B 145 Bild-F038812-0014 / Schaack, Lothar / CC-BY-SA. Lizenziert unter CC BY-SA 3.0 de über Wikimedia Commons.

Leave a Reply

Your email address will not be published.

15 + eins =