Zur neuen Künstlichen Intelligenz
von Ramón Reichert
7.8.2019

Die Auswirkungen des ›New Artificial Movements‹ auf Lebensstil, Konsum und Zukunftsperspektiven

[aus: »Pop. Kultur und Kritik«, Heft 13, Herbst 2018, S. 58-63]

In ihrem vielbeachteten Vortrag mit dem Titel »Dark Days: AI and the Rise of Fascism« warnte Kate Crawford, Forscherin bei Microsoft Research, 2017 vor den Auswirkungen der gegenwärtigen Forschung zur ›Artificial Intelligence‹ (AI). Crawford sondiert die Chancen und Risiken der neuen Form Künstlicher Intelligenz und zeichnet ein düsteres Bild der künftigen Kontrollgesellschaft: »Just as we are reaching a crucial inflection point in the deployment of AI into everyday life, we are seeing the rise of white nationalism and right-wing authoritarianism in Europe, the US and beyond. How do we protect our communities – and particularly already vulnerable and marginalized groups – from the potential uses of these systems for surveillance, harassment, detainment or deportation?«

Die Wiederentdeckung der Künstlichen Intelligenz ist heute in aller Munde. Unser Alltagsleben wird zusehends geprägt von sensortechnischer Verdatung und netzwerktechnischer Intelligenz: Immer mehr Produkte, mehr Maschinen und mehr Personen sind heute mit Sensoren ausgestattet, die regelmäßig Daten an die Cloud senden und eine digitale Kontrollintelligenz schaffen, die uns mit neuen Formen von Beobachtungs- und Steuerungswissen konfrontiert. Die Konvergenz von mobilen Medien, Sensornetzwerken, GPS-gestützten Lokationsdaten, automatischen Identifikationsverfahren, digitalen Datenvisualisierungen und Social-Web-Anwendungen hat dazu geführt, dass wir uns andauernd mit den Daten unserer eigenen soziotechnischen Lebensvermessung auseinandersetzen müssen. 

Das Internet der Dinge, intelligente Sensornetzwerke und maschinenbasiertes Lernen üben einen großen Einfluss auf die digitale Gesellschaft, ihre Kultur und ihre soziale Praxis aus. Im engeren Sinn hat die Neuroinformatik eine große Bedeutung für die technische Informationsverarbeitung und die Künstliche Intelligenz. Sie beeinflusst weite Bereiche der sensorischen und kognitiven Datenmodellierung und -verarbeitung, u.a. in den Bereichen der Sensortechnik (Sehen), der Semantik und Linguistik (Sprache), der Robotik (Manipulation von Bewegung und Verhalten) und der Kognitionswissenschaften (Lernen). Die digitale Gesellschaft ist heute zusehends mit ›smarten‹ Bildungs- und Technikumgebungen konfrontiert, die ihrerseits wiederum Wirkungen auf individuelles Verhalten und soziale Prozesse ausüben. Welche Probleme ergeben sich für die digitale Kultur und die digitale Gesellschaft, wenn die neuronale Informationsverarbeitung multi-agentielle Systeme mit Entscheidungsfähigkeiten und Handlungsmacht ausstattet?

Meines Erachtens zeigt sich ein Widerspruch zur Ideologie des ›Smarten‹, die gerne als Synonym der ›New Artificial Intelligence‹ angesehen wird. Auf den ersten Blick erscheint die ›smarte‹ Intelligenz einfach, lösungsorientiert und bedienerfreundlich. Eine tiefergehende Reflexion zeigt jedoch, dass die Debatten um den heutigen Stellenwert der Künstlichen Intelligenz stark vom Denken der Anpassung, der Entwicklung und der Veränderlichkeit geprägt sind. In diesem Sinne verlangt eine fluide und temporäre Intelligenz, die wir kollektiv teilen und kollaborativ verarbeiten, ein anpassungsfähiges Selbst, das normativ adressiert in der Lage sein soll, sich selbst andauernd als transparent und optimierbar gegenüber technischen Assistenzsystemen anzusehen. In Anbetracht dieser Sichtweise führt die Gleichsetzung der ›Artificial Intelligence‹ mit dem ›Smart Living‹ vollkommen in die Irre. Im Diskurs der angepassten Intelligenz geht es weniger um ›smarte‹ Lösungsansätze als um die ewigen Feedbackschleifen eines hypersensibilisierten Selbst.

Die Konzeption neuronaler Netze als Gegenstand der Neuroinformatik und Forschungsbereich der Künstlichen Intelligenz modelliert sowohl humane als auch nicht-humane Informationsverarbeitung als unendlichen Progress von Genese, Evolution und Anpassung: das Leben als unendliches Möbius-Band. Von entscheidender Bedeutung ist hier, dass Intelligenz immer als ein Vermögen der Steigerung angesehen wird. Diese Steigerung wird als endloser Prozess verstanden, ihr Ende ist mit dem Stillstand des Lebens assoziiert. In der neuronalen Gesellschaftsordnung befinden wir uns in einem permanenten Leistungsvergleich mit anderen, es wird von uns erwartet, dass wir uns beständig weiterentwickeln, Milestones abarbeiten und unsere Skills in Bewertungs- und Empfehlungsrastern prüfen. Wir erfahren unser Leben als künstliche Game-Intelligenz und springen teleologisch von einem Level zum nächsten Level, um es zu verbessern.

Das Betriebssystem Samantha im Science-Fiction-Filmdrama »Her« (2013, Regie: Spike Jonze) veranschaulicht sämtliche Bausteine des ›New Artificial Movement‹. Die Anwendungen der Künstlichen Intelligenz schaffen alternative Lebensstilangebote, die Menschen nicht mehr leisten können. Probleme tauchen in »Her« und in verwandten Debatten immer dann auf, wenn die Künstliche Intelligenz die Grenzen zwischen Maschine und Humanem verwischt oder überschreitet. Eine weitere Thematik, die in den öffentlichen Debatten um das ›New Artificial Movement‹ eine Rolle spielt, ist jene der Transformationen des Anwendersubjekts. Kurz gefasst: Inwiefern verändern wir uns und unsere Gewohnheiten, wenn wir künftig in ›Environments‹ Künstlicher Intelligenz leben werden? Technikoptimistische Diskurse umschreiben die Integration der Künstlichen Intelligenz in den menschlichen Alltag mit der Denkfigur der Entlastung. Diese klassische Rhetorik der Technikphilosophie geht von den emanzipatorischen Möglichkeiten des Technischen aus und sieht in ihnen vor allem das Potenzial, die Freiheit im Menschen zu fördern. Andere sehen hingegen in der Entlastung eine Art der Bevormundung, die den Menschen von bestimmten Entscheidungen und Handlungsdimensionen suspendiert. 

Die Frage ist nun, ob im Diskurs der Künstlichen Intelligenz eine individuelle Exit-Strategie vorgesehen ist oder nicht. Wenn selbstdenkende Systeme für die Öffentlichkeit geschaffen werden, ohne dem Einzelnen Wahlmöglichkeiten einzuräumen, können künstliche Assistenzsysteme als normativ und autoritär wahrgenommen werden. Oft finden sich Anwender künstlicher Intelligenzsysteme in der ›heavy rotation‹ eines unaufhörlichen Feedback-Systems, das zunächst als Vervollkommnung der eigenen Lebensführung verkauft wird. Hier spricht man etwa vom persönlichen Nutzen, der im Technikgebrauch entsteht. Die Kritik an sich selbst optimierenden Assistenzsystemen (Tracking- und Monitoring-Devices) räumt aber ein, dass die technischen Parameter immer auch für eine stillschweigend eingeschriebene Sozialstruktur stehen: z.B. für die Leistungsgesellschaft und ihre Fitness-Imperative. Für die Entwickler von biometrischen Gadgets und neuronalen Netzwerken spielen solche Überlegungen keine große Rolle: Künstliche Neuronale Netze (KNN) simulieren nur das Leben selbst, und das Leben verkörpert selbst einen unbedingten Optimierungswillen. In diesem Sinne wird Optimierung naturalisiert und AI und KNN stehen exemplarisch für das umweltbedingte Sich-Verbessern der eigenen Lebensführung, die mit Begriffen wie ›Koevolution‹, ›offenen Lernprozessen‹ und ›Bio-Reflexion‹ umschrieben wird. 

Der anhaltende Aufschwung der ›life sciences‹, allen voran ›neurobiology‹ und ›brain research‹, hat dazu geführt, dass Teilgebiete der Informatik wie etwa die Neuroinformatik und die Künstliche Intelligenz heute maßgeblich am Aufbau auto-optimierender Infrastrukturen beteiligt sind. Im Unterschied zur Pionierphase der AI nach 1945 ist das ›New Artificial Movement‹ von einer kommerziell-industriellen Ausrichtung geprägt, die massive Auswirkungen auf Lebensstil, Konsum und Zukunftsperspektiven besitzt. Die ›New AI‹ ist heute nicht mehr in universitären Forschungseinrichtungen verortet, sondern geht aus privatwirtschaftlichen Initiativen hervor. Dort befinden sich die maßgeblichen Forschungseinrichtungen, die hochdotiert sind. Die Technologiekonzerne Google, Facebook, Amazon, IBM und Microsoft haben 2016 eine »Partnership on AI« gegründet, sie verfügen über leistungsstarke Forschungsabteilungen im Bereich der Künstlichen Intelligenz und haben bereits eine Vielzahl an Produkten und Projekten entwickelt (vgl. die Anwendungen Google Assistant, Amazon Alexa, Apple Siri u.v.a.m.). 

Seit ihren Anfängen wurde die ›Artificial Intelligence‹ als ein Versuch angesehen, den Reichtum des menschlichen Geistes auf eine symbolische Maschine der Datenverarbeitung zu reduzieren. McCulloch und Pitts haben bereits 1943 in ihrem Aufsatz »A Logical Calculus of the Ideas Immanent in Nervous Activity« im »Bulletin of Mathematical Biophysics« darauf hingewiesen, dass die Vernetzung von Neuronen zur räumlichen Mustererkennung eingesetzt werden kann und hatten damit das Nachbilden biologischer neuronaler Netze im Blick. Diese Sichtweise dominierte die Pionierphase der ›Artificial Intelligence‹. Im Unterschied zu den Anfängen der AI und zur konventionellen Computertechnik universeller Rechner speichern neuronale Netze kein fertiges Programm: Netzparameter müssen adaptiv gelernt werden. Man erwartet von den Arbeiten zur ›Artificial Intelligence‹, dass sie bei den herausfordernden Anwendungen der prognostischen Modellierung von Wissen, der klassifizierenden Mustererkennung und des fehlertoleranten Lernens bessere Ergebnisse als konkurrierende Modelle der ›Computer Science‹ und der ›Computational Neuroscience‹ liefern. Heute werden neuronale Netze zur optischen (›Image Classification‹) und akustischen (›Speech Recognition‹) Mustererkennung und in der Robotik eingesetzt. Im militärischen Bereich verwendet man neuronale Netze bei der automatischen Bildauswertung zur Zielerkennung. 

Die neue Bewegung der ›Artificial Intelligence‹ hat sich von der kognitivistischen Perspektive abgelöst. Zur Erforschung Künstlicher Intelligenz bauen Forscher heute Roboter, die in komplexen lernenden Systemen ein selbstregulierendes und lernendes Verhalten zeigen sollen. Mit Hilfe von ›(complete) autonomous agents‹ untersucht die ›New Artificial Intelligence‹ bestimmte Problemstellungen und Basiskonzepte (›Self-Sufficiency‹, ›Autonomy and Situatedness‹, ›Embodiment‹, ›Adaptivity‹ und ›Ecological Niches and Universality‹), die weite Bereiche der Human- und Sozialwissenschaften miteinbeziehen. Zur Herstellung von prognostischem Wissen über künftige Verhaltensmuster von Online-Nutzern werden heute Verfahren der neuen AI wie etwa das ›machine learning‹ eingesetzt. Die Erhebung der individuellen Sensordaten mittels der Lokalisierungstechnologien ermöglicht es Unternehmern, Stadtplanern und Architekten, gegenwärtige und künftige Nutzungspraktiken zu vermessen. Lernende Algorithmen und Vorhersagemodelle gestalten nicht nur neue epistemische Rahmenbedingungen für eine digitale Biopolitik, sondern schaffen auch Handlungsräume für politische und wirtschaftliche Prozesse und Entscheidungen.

Das Regime der heutigen Kontrollgesellschaft ist nicht vertikal, sondern horizontal: ›Peer-to-Peer‹, in Echtzeit, dezentral und abhängig von permanentem Feedback. In der Ära der ›New Artificial Intelligence‹ hat sich der Stellenwert von Sozialen Netzwerken radikal geändert, denn sie gelten als gigantische Datensammler für die Beobachtungsanordnungen sozialstatistischen Wissens und als Leitbild normalisierender Praktiken. Im Anschluss an den eingangs erwähnten Vortrag von Kate Crawford kann der Aufstieg der Künstlichen Intelligenz auch als Paradigmenwechsel angesehen werden: Was bedeutet die Subjektivierung in einer neuronalen Gesellschaft? Wie können wir mit technischen Assistenzsystemen zusammenleben, die zusehends kognitive Aufgaben für uns erledigen? Auf welche Weise thematisiert die AI Bedürfnisse nach emotionaler Intelligenz und wie kann die AI uns helfen, unsere eigenen Identitätsentwürfe (besser) zu verstehen?