Mittwoch, 22. Februar 2017

Cognitive Computing: Wie intelligent sind Maschinen?

Aktuell diskutiert das EU-Parlament, ob Roboter in Zukunft als „elektronische Personen“ zählen sollen. „Personen“, die Rechte und Pflichten haben und die unter Umständen sogar Haftung übernehmen, wenn sie einen Fehler machen [1]. Der Vorschlag soll eine Rechtsgrundlage schaffen für eine Zukunft, in der selbstfahrende Autos eigenständig Entscheidungen treffen und in der Maschinen womöglich ein Bewusstsein entwickeln – vielleicht ohne, dass wir es merken.

Aber was heißt das: eigenständige Entscheidungen? Und was macht ein Bewusstsein aus?
Besonders relevant sind diese Fragen für Technologien, die man unter dem Schlagwort „Cognitive Computing“ zusammenfasst: Systeme, die ohne feste Regeln auskommen und von Fall zu Fall Entscheidungen treffen, die sie auf Grund von gegebenen Trainingsbeispielen gelernt haben.

Wenn Computer lernen, denken und Entscheidungen treffen


Das wohl bekannteste Beispiel ist die Künstliche Intelligenz „Watson“ von IBM. Watson sorgte 2011 für Aufsehen, als er die menschlichen Champions in der Quizshow „Jeopardy“ besiegte. Bei Jeopardy geht es darum, die richtige Frage zu einer vorgegebenen Antwort zu finden. Watson musste also die oft doppeldeutig formulierten Antworten verstehen, verfügbare Informationen dazu innenhalb kürzester Zeit suchen und verrechnen, und dann in natürlicher Sprache die passende Frage von sich geben. Um den Gegenkandidaten nicht durch Falschantworten Punkte zu bescheren, musste Watson außerdem bewerten, wie sicher er sich mit seinem Ergebnis war und ggf. lieber schweigen. Um die richtige Frage zu finden, überprüft Watson eine große Menge von möglichen Alternativen, sammelt Evidenz für jede davon und entscheidet sich dann für die Lösung, für die die Konfidenz am höchsten ist. Die eine oder andere Falschantwort hat Watson natürlich trotzdem geliefert. Bei einem Spiel ist das nicht schlimm und insgesamt war seine Leistung hervorragend.

Aber Watson soll nicht nur spielen. Die Technologien, die IBM unter diesem Namen vermarktet, sollen Aktienkurse vorhersagen und Krebstherapien finden. Wie sieht es da mit der Verantwortung aus? Können Algorithmen an etwas „Schuld“ sein? Wenn das System einen Namen und einen Avatar hat wie Watson, fällt es uns vielleicht leichter, ihm auch eine Persönlichkeit zuzuschreiben und dieser „Person“ bei Bedarf die Schuld zu geben. Aber Watson ist keine Person, ebenso wenig wie GoogleDeepMind oder andere Künstliche Intelligenzen. Sie sind eigentlich nicht einmal etwas besonders Neues.

Sprachverarbeitung und Maschinelles Lernen als Grundlage


Die zugrundeliegenden Komponenten, etwa Natural Language Processing oder Maschinelles Lernen, sind seit Jahren bekannt. Kombiniert sind solche Technologien in der Tat dazu fähig, Beeindruckendes zu leisten. In komplexen Entscheidungssituationen, in denen es keine eindeutige Lösung gibt, können sie viel mehr Wissen einbeziehen als ein noch so gebildeter Mensch. Letztlich sind und bleiben sie jedoch Algorithmen. Auch wir bei Semalytix arbeiten damit und stellen sie unseren Kunden zur Verfügung. Aber wir glauben nicht, dass Cognitive-Computing-Technologien dem Menschen Entscheidungen abnehmen können. Sie sollen Entscheidern einen Überblick verschaffen, ihnen mögliche Alternativen zeigen und so die bestmögliche Wahl ermöglichen.

Bei einer Krebstherapie etwa spielen sehr viele Variablen auf komplexe Weise zusammen: Gene, Umwelt, soziales Umfeld, Vorerkrankungen, andere Medikamente, und vieles mehr. Ein Computer kann diese Einflussfaktoren berücksichtigen, intelligent verknüpfen und darauf aufbauend Empfehlungen geben. Trotzdem bleibt es der Arzt, der mit dem Patienten über die verschiedenen Möglichkeiten diskutiert und schließlich über die Therapie entscheidet.

Den Menschen unterstützen


Cognitive Computing ist ein hilfreiches Werkzeug. Wir sollten die Technologien weiterentwickeln und nutzbringend einsetzen – aber wir dürfen uns nicht aus der Verantwortung stehlen. Das EU-Parlament schlägt vor, „zumindest für die ausgeklügeltsten autonomen Roboter“ zukünftig einen eigenen Rechtsstatus zu schaffen: als „elektronische Person“, die für die „von ihr verursachten Schäden verantwortlich wäre“ (Punkt 59f). Fürs erste aber räumt es ein, „dass zumindest im derzeitigen Stadium die Verantwortung bei einem Menschen und nicht bei einem Roboter liegen muss“ (Punkt 56).

Natürlich müssen wir langfristig über Rechte, Pflichten und Verantwortung diskutieren, für intelligente Algorithmen wahrscheinlich sogar eher als für selbstfahrende Autos. Erstmal aber sollten wir nicht vergessen: Beim Cognitive Computing geht es nicht nur darum, dass Computer „kognitiv“ werden. Es geht vor allem darum, wie diese „kognitiven Computer“ den Menschen bestmöglich unterstützen können, damit er sich das viele Wissen aus unvorstellbaren Mengen an Daten zu Nutze machen und so seine eigenen kognitiven Fähigkeiten erweitern kann.

[1] http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0005+0+DOC+XML+V0//DE