KoolKill

Künstliche Intelligenz: Gemeinwohl und Nachhaltigkeit statt nur Profit

Künstliche Intelligenz: Gemeinwohl und Nachhaltigkeit statt nur Profit

Annika Kettenburg studierte Umwelt- und Nachhaltigkeitswissenschaften in Lüneburg, Thailand und Lund (Schweden). In ihrer Masterarbeit, auf der dieser Artikel basiert, untersuchte sie die Potentiale und Grenzen von Künstlicher Intelligenz für Nachhaltigkeit sowie die vorherrschenden Motive im politischen Diskurs um KI.

Künstliche Intelligenz und Nachhaltigkeit: Eine kritische Analyse

Wohin wir blicken: Die hohen gesellschaftlichen Erwartungen an Künstliche Intelligenz (KI) bleiben omnipräsent. Man schreibt KI Chancen und Risiken riesigen Ausmaßes zu oder stilisiert KI gar als „game changer for climate change and the environment“.

Jedoch ist Maschinelles Lernen (ML) – der Kerninhalt des Oberbegriffs KI – nur für wenige Bereiche sehr gut geeignet und, wie jede Technologie, keine Lösung für soziale und ökologische Probleme.

Um dies zu erläutern, unterscheide ich zwei Ebenen, die im öffentlichen Diskurs zu KI und Nachhaltigkeit häufig nicht stark genug getrennt werden: Da ist die Sphäre der technischen Möglichkeiten, in der KI-Anwendungen für gesellschaftliche Probleme erdacht oder ihre Kosten und Nutzen für Nachhaltigkeit abgewogen werden. Auf dieser Ebene, im Elfenbeinturm der abstrakten Ideen, spielt sich nahezu die gesamte Debatte ab.

Ausgeblendet wird dabei die zweite Ebene: ihr realweltlicher Schauplatz. Hier verlieren logische Argumente über den gemeinwohlfördernden Einsatz von KI an Bedeutung gegenüber ganz anderen Logiken – zum Beispiel dem Streben, mit KI den eigenen Einfluss zu vergrößern.

KI im Elfenbeinturm: Theoretische Limitationen und Chancen für Nachhaltigkeit

Maschinelle Lernverfahren generalisieren Daten in Modellen und extrapolieren Werte auf Basis der abgeleiteten Funktionen, meist im Rahmen von Regressions- oder Clusteranalysen. Besonders durch den Einsatz neuronaler Netze erfuhren diese bewährten statistischen Verfahren in den letzten Jahren eine große Steigerung ihrer Performanz.

Immer noch aktuell bleibt zugleich die Mahnung zur Vorsicht im Umgang mit solchen Analysen: Daten sind immer von Menschen erzeugt, somit Konstrukte und nie ein objektives Abbild der Realität. Die Repräsentativität von Daten wird stets vorausgesetzt, jedoch faktisch nie erreicht. Fehler sind und bleiben inhärente Bestandteile von ML-Modellen. Die Intransparenz neuronaler Netze verbirgt Fehler und bietet Einfallstore für die gezielte Manipulation.

Wie wünschenswert ist Maschinelles Lernen, und wie mächtig?

Umso komplexer die zu modellierenden Zusammenhänge und umso folgenreicher die Anwendung dieser Modelle, desto wichtiger wird die ethische Abwägung des Einsatzes von ML. So ist es zwar möglich, ML zur Vorhersage von sozialem Verhalten für automatisierte Entscheidungsverfahren zu verwenden, etwa für das Kredit-Scoring, Berechnungen der Rückfallwahrscheinlichkeit oder für die Verteilung von Sozialhilfe. Doch während man einen technischen Prozess durch Daten annäherungsweise abbilden kann, ist dagegen die soziale Wirklichkeit nur subjektiv selektiv modellierbar. Zugleich wären Fehlentscheidungen des Modells hier weitaus folgenreicher für die Betroffenen. Darum fokussiert sich dieser Artikel auf die ökologische Komponente der Nachhaltigkeit.

Wie mächtig ist ML? Begriffe wie Künstliche Intelligenz oder Maschinelles Lernen suggerieren, dass die Technologie selbst zum Akteur wird. Doch Daten und ML-Modelle sind Produkte menschlichen Handelns: Daten werden gesammelt und gelabelt, ML-Methoden ausgewählt, Hyperparameter bestimmt, damit herumexperimentiert, erreichte Treffgenauigkeiten als ausreichend akzeptiert und dann das Modell in konkrete Anwendungen eingebettet. Diese menschliche Kontrolle entzaubert KI.

Wie kann ML zu Nachhaltigkeit beitragen? Die Nachhaltigkeitspotentiale von ML kann man grob in zwei Klassen einteilen: zum einen die Generierung empirischen Wissens über Umweltprozesse, gegebenfalls angewandt in Frühwarnsystemen; zum anderen die Steigerung von technischer Effizienz durch genauere Abstimmung von Angebot und Nachfrage.

Generierung empirischen Wissens

Mit Hilfe von ML kann beispielsweise besser vorhergesagt werden, an welchen Standorten und zu welchen Zeitpunkten Dürre droht, Starkregen zunimmt, Gewässer eutrophieren oder die Biodiversität besonders stark abnimmt.

Doch was bewirkt es, das Insektensterben genauer zu kartieren, wenn dort dann kein Lebensraum geschaffen wird? Die Hauptgründe für den Artenrückgang, also intensive Landwirtschaft und Zersiedlung, sind gesellschaftliche Prioritäten. Diese ändern sich nicht automatisch durch mehr Wissen um den damit einhergehenden Biodiversitätsverlust. Umweltwissenschaftler*innen rennen mit ihrer Forschung gegen Wände, und das schon seit Jahrzehnten.

Selbst Frühwarnsysteme vor Naturkatastrophen sind nur so effektiv wie das Krisenmanagement, in das sie eingebettet sind. So sind beispielsweise Warnungen vor Hurrikans in allen Karibikstaaten verfügbar, dennoch unterscheiden sich ihre Opferzahlen erheblich – wie Telepolis bei Hurrikane Matthew titelte: „542 Tote in Haiti, 21 Tote in den USA, 0 Tote in Kuba“. Was zählt, sind die Taten vor und nach einer Katastrophenwarnung, die sofortige Evakuierung und langfristige Prävention, sprich das soziale und politische Krisenmanagementsystem.

Grundlagenforschung ist und bleibt elementar, um unseren Planeten besser zu verstehen und gefährliche Entwicklungen zu antizipieren. Ohne hochkomplexe Klimamodelle – die durch Maschinelle Lernverfahren weiter verbessert werden können – gäbe es Klimawandelbekämpfung und -anpassung in ihrem heutigen Ausmaß wohl nicht. Wie beim Artensterben oder bei Naturkatastrophen ist es hier jedoch eine gesellschaftliche und politische Aufgabe, diesen Umweltveränderungen die entsprechende Relevanz beizumessen sowie Erkenntnisse in politische Strategien und praktische Routinen zu übersetzen.

Blick in das Death Valley
Das 

Steigerung technischer Effizienz

ML-Verfahren können die Genauigkeit von Vorhersagen verbessern. Diese Stärke wird für technische Innovationen genutzt, die mit höherer Treffsicherheit Angebot und Nachfrage zusammenführen.

Einige Beispiele: Durch die Vorhersage der Stromverfügbarkeit in Abhängigkeit von Wetterdaten kann in einem Smart Grid Energie zu den richtigen Zeiten gespeichert beziehungsweise besonders stark verbraucht werden. In der Landwirtschaft können lokale Analysen der Boden- und Pflanzenparameter Entscheidungen über den Dünge- oder Pflanzenschutzbedarf unterstützen. Fahrpläne und Routen im öffentlichen Nahverkehr können auf Basis von Auslastungsdaten besser geplant werden. Durch eine gleichmäßigere Fahrweise können Fahrzeugassistenten etwas Sprit sparen und Staus vermeiden.

Doch Fahrzeugassistenten reduzieren nicht per se das Verkehrsaufkommen, noch motivieren sie uns dazu, Fahrzeuge zu teilen oder gar auf das Fahrrad umzusteigen. Womöglich führen sie dazu, dass Mobilität noch günstiger und bequemer wird, so dass wir häufiger fahren – der bekannte Rebound-Effekt, der Effizienzsteigerungen durch Konsumzunahme energetisch zunichtemacht.

Die häufig geforderten Agrar-, Energie- und Verkehrswenden benötigen primär ganz andere Erfolgszutaten als die marginalen Wissens- und Effizienzzuwächse, die KI ermöglicht. Es bedarf neuer gesellschaftlicher Institutionen, die uns Güter wie Lebensmittel, Energie und Mobilität auf andere Weise bereitstellen. Zum Beispiel ein Verkehrssystem, das viel stärker auf öffentliche, geteilte Fahrten setzt, auf der letzten Meile vielleicht auch selbstfahrend; ein Energiesystem, das auf erneuerbare Quellen umstellt, dabei Nutzer einbindet und Akzeptanz schafft; ein Ernährungssystem, das regionalen und saisonalen Waren den Vorrang einräumt, kleine, nachhaltig wirtschaftende Landwirtschaftsbetriebe unterstützt und Lebensmittelverschwendung eindämmt.

ML kann hier durchaus Beiträge leisten, indem man durch die Vorhersage und Synchronisierung von Angebot und Nachfrage Öko-Effizienz steigert – vorausgesetzt der Effizienzzuwachs ist größer als der materielle Fußabdruck von ML, also der Ressourcenbedarf für Training und Nutzung von ML-Verfahren. Diese Beiträge von KI sind jedoch nichts als Gedankenspielereien, wenn die nötigen Umstrukturierungen nicht gesellschaftlich gewünscht und politisch in Gesamtstrategien eingebettet werden.

KI in der echten Welt: Spielball im fossilen Status quo gesellschaftlicher Machtstrukturen

Eine effektive Bekämpfung der Klimakrise, des Biodiversitätsverlusts und globaler sozialer Ungleichheit – kurz: die „Große Transformation“ – verlangt nach solchen tiefgreifenden Umstrukturierungen. Technologien können als Werkzeuge nur dazu beitragen, wenn ihr gemeinwohlorientierter Einsatz politisch durchgesetzt wird. Doch die politische Kehrtwende erscheint utopisch – unsere gesellschaftlichen Strukturen und Prozesse spiegeln das Primat des globalen Wettbewerbs um Wirtschaftsmacht wider, während unsere Infrastruktur uns in Abhängigkeit von fossilen Ressourcen hält.

Zugleich ist Technik kein neutraler Faktor, der für Gutes und Schlechtes jederzeit gleichermaßen dient – abstrakt gesehen schon, aber realweltlich nicht. Technologien sind Produkte menschlicher Vorstellungen und Interessen, und solange wir in den beschriebenen Strukturen leben, werden sie zum Großteil erdacht und eingesetzt, um diese dominanten Strukturen zu reproduzieren.

Wofür die ausgereiftesten KI-Systeme heutzutage vornehmlich entwickelt werden

In diesem großen Bild des fossilen Status quo ist darum viel mehr zu fragen, wie mächtige Akteure KI für ihre Zwecke instrumentalisieren, um die sie begünstigenden Machtverhältnisse aufrechtzuerhalten. Warum werden Smart-Grid-Systeme, Precision Farming oder Fahrzeugassistenten entwickelt? Weil diese Technologien Kosten sparen oder neue Absatzmärkte erschließen, weil sie die Bilanz des nächsten Quartalsberichts aufpolieren und nicht, weil sie dem Gemeinwohl nützen. Das betriebswirtschaftliche Kalkül treibt die heutige KI-Entwicklung fern der nachhaltigen Nische an.

Momentan entscheidet eine Handvoll Unternehmen darüber, welche der vielen KI-Entwicklungen weiter verfolgt wird und wer die Ressourcen erlangt, neue Anwendungen zu erdenken. Auch Regierungen streben durch eine gezielte Forschungs- und Wirtschaftsförderung primär an, ihre nationale Produktivkraft zu steigern oder sich geopolitisch zu behaupten.

So verwundert es nicht, dass die ausgereiftesten KI-Systeme heutzutage vornehmlich für Konsumsteigerung und Kundenbindung entwickelt werden, etwa in Form von Empfehlungssystemen und Sprachassistenten, zur Erschließung neuer Absatzmärkte in der Autoindustrie, zur Automatisierung in Fabriken, für den Hochfrequenzhandel im Aktienmarkt, für die Gesichtserkennung zur staatlichen Überwachung oder gar für eine effektivere Kriegsführung durch autonome Waffensysteme.

Häufig heißt es in solchen Zusammenhängen, die Technologie rase dem Gesetzgeber davon – aber sind es nicht auch Unternehmen, die Technologien vorschnell implementieren, Gesetzeslücken gezielt ausnutzen und Gesetzgebungsprozesse beeinflussen? Sind es nicht auch Gesetzgeber selbst, die Lücken bewusst offenlassen oder die vorhandene Rechtsprechung nicht konsequent durchsetzen?

Es gilt jedoch, nicht nur die Praktiken von Unternehmenszentralen und Regierungen zu kritisieren, sondern zu fragen, welche Umstände ein solches Agieren fördern. Es sind geschichtlich eingebettete Logiken und Diskurse, Institutionen und Infrastrukturen, Regeln und Normen, Gesetze und Wirtschaftsordnungen, die unser Leben bedingen und formen. Sie gestalten unseren Möglichkeitsraum.

Überspitzt formuliert: Ohne sichere Radwege und ausgebauten ÖPNV – keine nachhaltige Mobilität; ohne Preise, die externe Kosten abbilden, – kein nachhaltiger Konsum; ohne finanzielle Grundsicherheit – wenig Gedanken an die sozial-ökologische Utopie oder Zeit für demokratische Einflussnahme; ohne Repräsentanz im Parlament – keine ausgeglichene Vertretung gesellschaftlicher Interessen; im globalen Wettbewerb um knappe Ressourcen, stets die verinnerlichte Selbstoptimierung und institutionalisierte Kostenminimierung; im Finanzmarkt des Überschusskapitals, nur die Jagd auf die höchsten Rendite bei der Wahl von KI als Investitionsobjekt. Strukturen sind größer als Individuen – und so kann man selbst Trump als Symptom seiner Gesellschaft sehen.

Fazit: Erwartungen an KI begrenzen und strukturelle Probleme angehen

In diesem großen Bild der ausbleibenden Nachhaltigkeitstransformation spielt Technik eine untergeordnete Rolle – und für KI bleibt nur eine wesentlich kleinere. Frühwarnsysteme und Energieeffizienzgewinne sind Bausteine einer Großen Transformation, aber nicht ihr Fundament.

Es gibt viele umweltrelevante Einsatzbereiche für ML – all jene, in denen sich ein Problem als quantitativ-statistische Frage beschreiben und durch Daten abbilden lässt. Solche Fragen sind thematisch weit gestreut und betreffen beispielsweise Klimaschutz, Energie, Transport, Landwirtschaft bis zu Naturschutz. Es ist nur nicht absehbar, dass ML-Analysen in diesen Bereichen als „game changer“ zum Wandel zur Nachhaltigkeit beitragen werden – denkbar sind schrittweise Verbesserungen, maximal Etappensiege.

Ich möchte die Beiträge von KI nicht per se schmälern, nur die Erwartungen in Bezug auf sozio-ökologische Probleme zurechtrücken. Es bleibt richtig und gut, die Nische zu stärken, nachhaltige KI-Anwendungen zu fördern und der öffentlichen Imagination Alternativen entgegenzusetzen. Fast allen Akteuren der Nische ist ihre Position schmerzlich bewusst. Denn ohne politisch durchgesetzte Änderungen unserer gesellschaftlichen Strukturen werden diese KI-Anwendungen ihr Potential nicht systematisch entfalten können. Ohne strukturelle Änderungen wird eine Elite weiter Technologien aus primär wirtschaftlichem Kalkül entwickeln und wir uns im Nachhinein fragen, ob und wie diese jetzt eigentlich zum Gemeinwohl beitragen.

Interview zu Technikängsten: Ein kritischer Blick kann zu mehr Sorgfalt führen

Interview zu Technikängsten: Ein kritischer Blick kann zu mehr Sorgfalt führen

Christian Vater war im Sonderforschungsbereich „Materiale Textkulturen“ der Deutschen Forschungsgemeinschaft tätig und arbeitete in verschiedenen Start-Ups als wissenschaftlicher Referent. Er ist Wissenschaftlicher Mitarbeiter am KIT – Institut für Technikzukünfte (itz) – Department für Geschichte, HEiKA-Projekt „Autonome Systeme im Spannungsfeld von Recht, Ethik, Technik und Kultur“. Eine kürzere Fassung des Interviews erschien zuerst beim Goethe-Institut unter der Lizenz CC BY-SA 3.0.

Für den Technikphilosophen Christian Vater stellt der Computer als Universalwerkzeug eine disruptive Technologie dar, die dementsprechende Reaktionen von Panik bis Euphorie auslöst. In Deutschland ließe sich dabei aber keine besonders starke Angstreaktion feststellen, vielmehr attestiert er den Deutschen einen aufgeklärteren Umgang mit gewissen Technologien, der besonders durch gesellschaftliche Akteure wie den Chaos Computer Club geschult wurde. Auch Hindernisse für deutsche Start-Ups sieht er eher in Infrastruktur und Finanzierung.

Porträt-Foto von Christian Vater
Der Technikphilosoph Christian Vater. Alle Rechte vorbehalten Ute von Figura, Heidelberg

Arne Cypionka: Wir wollen heute über Technikangst sprechen, auch darüber, ob es sich dabei um eine typisch „deutsche Angst“ handelt. Wie können wir uns diesem Begriff nähern? Lässt sich dieses Phänomen Ihrer Meinung nach über die gesamte Menschheitsgeschichte belegen oder kommt es zu Brüchen, beispielsweise durch bestimmte Technologien?

Christian Vater: Ich bin ja theoretischer Philosoph und kümmere mich um Wissenschaftstheorie und Wissenschaftsgeschichte. Da haben wir natürlich Schnittmengen mit der Technikgeschichte, aber gehen oft auch ein bisschen anders an die Sache heran. Zur Technikangst ist erst vor wenigen Monaten ein Beitrag von Martina Heßler und Bettina Hitzer in der Technikgeschichte erschienen, genau zum Thema Technikangst. Das Vorwort ist wundervoll lesbar und dort werden verschiedene Schwierigkeiten gesammelt, die man aus technikhistorischer Sicht hat, sich mit Fragen aus diesem Feld zu beschäftigen.

Angst ist als Kategorie nicht unbedingt Teil des Raums, den ich als theoretischer Philosoph untersuchen kann. Dementsprechend würde ich für meine eigene Arbeit eher den Begriff der Sorge vorziehen. Sorge ist ein Begriff, der irgendwo aus dem Grenzbereich der praktischen Philosophie, der politischen Philosophie und der Anthropologie kommt, den wir zum Beispiel in Harry Frankfurts „On Caring“ finden.

Sorge ist ein Modus des Umgangs mit der Welt ist und zum Umgang mit der Welt gehört auch ein Umgang mit den Werkzeugen und die Frage, wie ich mit der Welt umgehe, wenn ich Werkzeuge verwende. In die Klasse der Werkzeuge gehören natürlich auch Rechenmaschinen, Kommunikationsgerät, mediale Vervielfältigungsapparate und – natürlich – die universelle Rechenmaschine Computer, die alles gleichzeitig ist.

Dementsprechend kann man schwer in der Gegenwart über Sorge der Welt gegenüber oder anderen Menschen gegenüber nachdenken, ohne über Computer nachzudenken. Wenn man über Computer nachdenkt, ist es nicht mehr weit zu Spezialfragen wie der nach künstlicher Intelligenz.

Arne Cypionka: Könnte die universelle Rechenmaschine Computer also in besonderem Maße zu Technikangst führen?

Christian Vater: Seitdem wir Geschichte schreiben, finden wir Geschichten über neue Techniken und Technologien. Diese Geschichten sind immer sehr einschneidend und haben mit großen Hoffnungen, aber auch mit großen Ängsten zu tun. Sie können alle Formen annehmen, die wir an Literatur kennen. Es gibt großartige Versuche, Zäsuren zu markieren, entlang dessen, was wir aus heutiger Perspektive „Einführung disruptiver Technologien“ nennen.

Der Buchdruck wäre ein Kandidat für tiefgreifende Veränderungen durch disruptive Technologien, die Dampfmaschine ein anderer. Wenn ich mir die Geschichte dieser disruptiven Technologien anschaue, komme ich nicht umhin zu sagen: Ja, verkoppelte, verbundene Rechenmaschinen, die universell mit allen uns bekannten und verwendeten Medien umgehen können und die wir kooperativ nutzen – global – sind wohl eine disruptive Technologie.

Also erwarte ich zurzeit Mythenbildung und Angstgeschichten, sowohl was Erzählung über Ängste angeht, als auch was die Formulierung von Hoffnung angeht: „AI wird unseren Planeten erfolgreicher durch die Klimakatastrophe steuern können als jeder Mensch; künstliche Intelligenz wird selbstständig werden und uns alle vom Planeten tilgen.“

Wenn wir in das Regal mit Science-Fiction-Literatur schauen oder in die Cinethek, dann ist das alles schon da und auch nicht seit gestern, sondern mindestens seit der Romantik mit Frankenstein und auf jeden Fall in der Frühgeschichte des Kinos mit Metropolis. Hier kommt der Begriff der Sorge ins Spiel. Ich kann den Modus der Sorge verwenden, um mir die Technologie genau anzugucken, vielleicht in aufklärerischer Absicht, und versuchen, besser zu verstehen, wie diese Technologie auf Menschen wirkt.

Arne Cypionka: Nimmt die Computertechnologie aber nicht sogar unter diesen disruptiven Technologien eine Sonderstellung ein, wenn man an künstliche Intelligenz denkt – Maschinen, die sich potenziell selbst weiterentwickeln können?

Christian Vater: Sind Rechenmaschinen denkbar, die mehr sind als Werkzeuge des Menschen? Sind Rechenmaschinen denkbar, die durch einen Konstruktionstrick, durch einen Zufall wie einen Blitzschlag oder durch exponentielle Entwicklung nicht mehr unter unseren Maschinenbegriff fallen?

Meine Antwort darauf ist gleichzeitig spektakulär und auch nicht: Natürlich sind solche Maschinen denkbar.

Maschinen, die sich eigenständig rekonfigurieren können, umgeben uns bereits. Dieses Verfahren nennen wir maschinelles Lernen und es ist im Detail unspektakulär. Es ist gleichzeitig eine beeindruckende Technik, von der unsere Vorfahren vor 80 Jahren noch nicht geglaubt hätten, dass es so etwas gibt. Hat es dazu geführt, dass wir es plötzlich mit erwachten, intelligenten anthropomorphen Androiden zu tun haben? Nein!

Wir haben einfach Geräte, neben die wir keine Hilfskraft stellen müssen, die ständig alles umstöpselt und wir haben Geräte, die zum Beispiel Messreihen durchführen können, ohne dass ein Experte daneben steht und immer wieder am Rad dreht, weil die Geräte das Rad selbst drehen können. Unsere Technik ist adaptiv geworden. Nicht mehr, und nicht weniger.

Arne Cypionka: Dennoch entwickeln sich diese Maschinen zunehmend zu Blackboxen, bei denen nicht nur für den Laien nicht mehr nachvollziehbar ist, was im Inneren passiert. Stellt der Einsatz von solchen Technologien nicht potentiell eine Art gesellschaftlichen Kontrollverlust dar? Ich denke hier zum Beispiel an Predictive Policing, wo Algorithmen auf einer Datengrundlage zukünftige Verbrechen vorhersagen sollen und präventive Polizeieinsätze rechtfertigen.

Christian Vater: Predictive Policing ist mir als weiterer Versuch bekannt, Prognosewerkzeuge zu bauen, die stark datengestützt sind. Dahinter stecken zum einen Modelle, wie Verbrechen funktioniert, wie Menschen Verbrechen begehen; zum anderen demografische Annahmen, in welchem Viertel Personen wohnen, die bestimmte Verbrechen auf welche Art und Weise begehen.

Diese Annahmen sind immer mit der Suche nach Merkmalen verbunden, die den Konstrukteuren dieser Maschinen dabei helfen sollen, eben diese Annahmen zu treffen und zu begründen. Das heißt, hinter einem Apparat für Predictive Policing stecken sehr viele Annahmen, die man auflisten und Stück für Stück, zum Beispiel unter Zuhilfenahme soziologischer Werkzeuge, prüfen kann, wenn man sie transparent vorgelegt bekommt.

Das ist allerdings sehr viel Arbeit und die Frage ist, ob eine Behörde oder eine Firma, die Maschinen oder Apparate dieser Art entwickelt, Interesse daran hat, auch noch Arbeit in die Überprüfung der eigenen Grundannahmen zu stecken. Wenn nicht, wäre das eine Aufgabe für die interessierte akademische Öffentlichkeit.

Hierin besteht vielleicht eine Besonderheit in Deutschland. Im Gegensatz zu fast allen anderen Ländern der Welt haben wir die Möglichkeit, Vereine zu gründen. Das ist ein Artefakt unserer Institutionsgeschichte. Vereinsgründung ermöglicht es, eine Institution zu schaffen, die sich mit fast beliebigen Fragen beschäftigt. Eine dieser Fragen ist die nach dem Nutzen und dem Übel der Rechenmaschinen. Wir haben in Deutschland einen solchen Verein: den Chaos Computer Club. Dieser Verein wird inzwischen auch bei den Bundestagsanhörungen angehört.

Sie haben mich danach gefragt, ob ich bestimmte nationale Eigenarten sehe. Es fällt mir sehr schwer, sie im Großen zu sehen, denn unseren Ideenhorizont teilen wir mindestens mit der westlichen Welt. Wir alle haben Descartes gelesen und Hobbes und Kant. Wir zitieren Platon und Aristoteles und wir teilen Homer, Shakespeare und Goethe. Ob wir hier in Deutschland in einer anderen Welt leben, was zum Beispiel Ängste angeht, das halte ich für eine schwierige und voraussetzungsreiche Frage.

Was wir uns aber anschauen können ist, ob Deutschland als Staatswesen anders funktioniert. Ein Unterschied sind Vereine und wir haben einen auffällig aktiven und sehr ernst genommenen Verein, der sich mit diesen Fragen beschäftigt.

Arne Cypionka: Das heißt, durch Vereine wie den Chaos Computer Club gibt es in Deutschland, vielleicht stärker als in anderen Ländern, eine aufgeklärte Öffentlichkeit sowie eine stärkere Beteiligung der Bürgerinnen und Bürger in politischen Gremien bei Fragen der Informationstechnologie?

Christian Vater: Aber auch durch die Einrichtung von Hackerspaces, die ja nichts damit zu tun haben, dass man in das BTX-Netz einsteigt, um der Sparkasse Pfennigbeträge zu klauen, sondern die etwas damit zu tun haben, dass Spitzentechnologie der Gegenwart über private oder öffentliche Förderung oder Sponsoring beschafft wird und für alle interessierten Laien zur Verfügung steht, zum Beispiel mit Virtueller Realität, Drohnen oder mit 3D-Druck…

Arne Cypionka: Sehen Sie neben der aufklärerischen Arbeit des Chaos Computer Club noch andere Gründe für einen besonderen Umgang mit Technologie in Deutschland? Hat die oft unterstellte Ablehnung insbesondere digitaler Technologien vielleicht historische Ursprünge?

Christian Vater: Hier haben wir es vielleicht mit einem Zielkonflikt zu tun. Es gibt nur begrenzte Kapazitäten für Forschung und Entwicklung. In Deutschland lag der Schwerpunkt aus ganz verschiedenen Gründen nicht auf der Entwicklung von programmierbaren, elektrischen Rechenmaschinen. Vielleicht lag es daran, dass man der Meinung war, dass mit Kant die Logik zu Ende gedacht war und die Leibniz-Rechenmaschine das Maximum ist, was man im Prinzip aus den Versuchen herausholen kann, Logik zu mechanisierten.

Vielleicht lag es daran, dass man Ressourcen eher in die Atomforschung steckte, um die Unabhängigkeit der Energiegewinnung für die heimische Industrie und die heimischen Städte zu gewährleisten. Oder es lag daran, dass der Schwerpunkt im Maschinenbau lag, zum Beispiel in der Flugzeugforschung und in der Automobilentwicklung.

Diese beiden Beispiele sind übrigens auch hochkomplexe Technologien – vor denen wir auch in Deutschland nie Angst hatten.

Arne Cypionka: Als Garant für innovative Technologieentwicklung gelten heute Start-Up-Unternehmen. Sie selbst waren als wissenschaftlicher Referent zu künstlichen Intelligenzen in verschiedenen Start-Ups tätig. Was genau muss man sich darunter vorstellen?

Christian Vater: Spaß und Abenteuer. Und viel Arbeit, auch am Wochenende und an Feiertagen. Die Gelegenheit, sich als theoretischer Philosoph den Arbeitsalltag in einem entwicklungsgetriebenen Forschungsunternehmen anzuschauen, ist ein großes Privileg. Ich war auch eingestellt, um mit den einzelnen Entwicklungsteams mitzuarbeiten und sie zu begleiten, die konkreten Fortschritte zubeobachten um dann zu gucken, ob das konkret Gebaute, das Erhoffte und das, was andere publiziert haben, zusammenpasst.

Arne Cypionka: Im Vergleich mit dem Silicon Valley wirkt die deutsche Start-Up-Szene vorsichtiger und weniger chaotisch. Auch ein Mentalitätsunterschied zu den Vereinigten Staaten?

Christian Vater: Das sage ich nicht als Wissenschaftler, sondern als jemand, der da dringesteckt hat: Sie können über die Funktionsweisen der amerikanischen Startup-Szene sehr viel in der in der Autobiographie „Chaos Monkeys: Obscene Fortune and Random Failure in Silicon Valley“ des US-amerikanischen Start-Up-Gründers Antonio García Martínez nachlesen. Er war einer der ersten Leute, die im Silicon Valley dieses Spiel mitgespielt haben und seine Biografie ist lesenswert.

Ich kann Ihnen sagen, dass es so in Deutschland nicht funktioniert. Ich denke, es hat viel damit zu tun, dass bei uns die Finanzierungsstrukturen anders sind. Typischerweise ist es so, dass es in Deutschland nicht besonders viele Hedgefonds gibt, die sich auf Seed-Investment spezialisiert haben. Die wissen, wenn sie zehn kleine Start-Ups finanzieren und sie die Regeln der Finanzierung betrachten, dass nach drei Jahren eines dieser Start-Ups so viel Gewinn abwerfen wird, dass alle anderen Investitionen sich damit amortisieren.

Das haben wir in Deutschland nicht. Was wir in Deutschland haben, sind Sparkassen und Volksbanken, die typischerweise die ersten Investoren für ein neues Geschäft sind. Ich bin ein ganz großer Freund von Sparkassen und Volksbanken. Da sie aber mehr oder minder das Geld der Gemeinschaft verwalten, sind sie vorsichtige Geschäftspartner, die weniger leicht in Projekte investieren.

Das mag sich ändern, zum Beispiel dadurch, dass Universitäten diese Lücke identifiziert haben und jetzt selber Investment betreiben, das nennt sich Inkubator und ist so etwas wie eine universitätsinterne Förderung der ersten Phase, von der Idee zum Planen. Die Förderung ist da ganz niedrigschwellig: Sie brauchen einen Raum, sie brauchen eine Internetleitung, sie brauchen ein Postfach. Das zu bekommen ist erst mal gar nicht so einfach, wenn sie kein Geld haben.

Und es gibt zunehmend als Erweiterung der Hackerspaces, darüber haben wir vorhin schon geredet, so etwas wie spezielle Coworking-Spaces. Ein Beispiel dafür ist in Darmstadt entstanden, das Lab3 und der Hub31 drumherum, wundervoll. Da steht also das Equipment der Hackerspaces und daneben gibt es genau für diese erste Phase Büroräume. Und sie haben noch den Vorteil, dass sie mit diesen Geräten arbeiten können, zum Beispiel mit 3D-Druckern für Metall, was ihnen das Prototyping erheblich vereinfacht.

Das entsteht gerade, es gibt also Strukturunterschiede.

Arne Cypionka: Sie führen diese Unterschiede also eher auf Infrastruktur und Finanzierung zurück. Wäre es angemessener, von Skepsis gegenüber neuer Technologie statt von Technikangst zu sprechen und kann dieser kritische Blick unter Umständen vielleicht sogar als Vorteil betrachtet werden?

Christian Vater: Ich würde sagen ja und es wäre schön, wenn es ihn gäbe. Es ist aber auch wichtig festzuhalten, dass ein kritischer Blick kein destruktiver Blick und auch nicht pessimistisch sein muss. Er kann auch in Sorge zur Sorgfalt führen und muss nicht in Angst vor einer unbestimmten Zukunft münden.

Ein kritischer Blick ist auch nicht notwendig Auslöser der Maschinenstürmerei. Auslöser der Maschinenstürmerei sind meinen historischen Studien gemäß üblicherweise sozialökonomische Konflikte entlang von Veränderungen. Ich komme aus dem kleinen Städtchen Hannoversch Münden, wo Fulda und Werra zusammenfließen. Dieses Städtchen kontrollierte den Weserhandel über Jahrhunderte, die Flößer auf der Weser kamen aus Münden. Das erste Dampfschiff auf deutschem Boden, vielleicht sogar der Weltgeschichte, konstruiert von Denis Papin, ist bis nach Münden gefahren und wurde dort von den Flößern zerlegt – und zwar am Samstag, den 24. September 1707.

Bis heute haben wir im Rathaus ein großes Historiengemälde, was die glorreichen Flößer der Vergangenheit feiert. Aber da ging es nicht um die Angst vor einer Dampfmaschine. Da ging es um Durchfahrtsrechte und darum, dass die Flößer weiter flößen wollten.