Diese Website verwendet Cookies. Warum wir Cookies einsetzen und wie Sie diese deaktivieren können, erfahren Sie unter Datenschutz.
Zum Hauptinhalt springen

Hendrik Lange zu TOP 9

Sehr geehrte Damen und Herren,

es ist gut, auch im Parlament einmal über Themen reden zu können, die ein bisschen mehr Vorstellungskraft erfordern. Aber es verwirrt mich etwas, wenn die FDP in ihrem Antrag auf AD hier den Maschinenstürmer gibt und sich fragt, wie wir unser Schulsystem möglichst unverändert belassen können, während der Rest der Welt eine grundlegende Veränderung erfährt.

Statt jetzt Augenmerk darauf zu richten, wie wir künftig als Gesellschaft mit den immer komplexer und schneller werdenden Entwicklungen von Künstlicher Intelligenz umgehen, und wie wir diesen gesellschaftlichen Wandel als Politik gestalten wollen, geht es der FDP darum, Schüler:innen daran hindern, ChatGPT als Erleichterung ihres Schulalltages zu benutzen. Das Problem, wie man KI-generierte Texte identifizieren kann, lässt sich so einfach lösen, dass die FDP darauf auch selber hätte kommen können. OpenAI, das Unternehmen, in dem ChatGPT entwickelt wurde, bietet ein kostenloses Tool an, das genau das tut. Tipps, wie man auch ohne entsprechende Hilfetools diese Texte erkennen kann, gibt es in einschlägigen Publikationen zu Hauf. Länge der Texte, Keyword-Stuffing, falsch benutzte Konjunktionen, etc. Problem also gelöst? Vorerst ja.

Aber eigentlich wirft doch die Problembeschreibung die eigentliche Frage auf, was unterrichtet und abgeprüft wird, wenn eine KI diese Aufgabe heute täuschend echt erledigt. Welche Fähigkeiten und Fertigkeiten müssen beim Einsatz neuer Technologien noch erlernt oder neu erlernt werden? Was kann vielleicht auch wegfallen? Wie Kreativ erziehen wir unsere Kinder.
Und für uns alle heißt es, uns als mündige Bürger im Bereich der digitalen Bildung Informationen und Werkzeuge zum Umgang mit KI zu verschaffen.

Das bringt mich dazu über weitere gesellschaftliche Chancen und Risiken zu sprechen, die sich durch die anhaltenden Fortschritte ergeben. In seiner Position zu Künstlicher Intelligenz spricht sich der Ethikrat deutlich dafür aus, darauf zu achten, dass Künstliche Intelligenz der menschlichen Entfaltung dienen und sie nicht vermindern darf.

Dass KIs immer mehr Teil unseres Lebens werden, bezweifelt vermutlich niemand ernsthaft. Umso wichtiger ist es, sich jetzt (denn für „frühzeitig“ ist es mittlerweile einigermaßen zu spät) damit auseinanderzusetzen, wie wir diese Entwicklung in sinnvolle Bahnen lenken können. Denn hauptsächlich bedeutet das, wie gestalten wir unsere Gesellschaft, damit KIs nicht alles noch schlimmer machen. Lernende KIs können momentan nur Inhalte verarbeiten, die wir Menschen vorher erzeugt haben.

Das bedeutet, eine lernende KI greift auf eine reichhaltige Bibliothek voller Rassimus, Sexismus, Antisemitismus und jede Menge Ideologie der Ungleichheit zu und lernt daraus. Ein erster Versuch mit KI von Microsoft auf Twitter 2016 verwandelte den Chatbot „Tay“ innerhalb von wenigen Tagen von einer unschuldigen digitalen Entität in einen virtuellen AfD-Abgeordneten oder wie der SPIEGEL schrieb „Hitler-Bot“.
Gelernt hatte sie aus den Interaktionen mit menschlichen Usern auf Twitter, die sie mit jedem nur denkbaren menschenverachtenden Material fütterten. Bei anderen KIs ist es weniger offensichtlich aber dann umso schlimmer. Da, wo wir bereits Teile der Entscheidungsfindung an KIs ausgelagert haben. In den letzten Jahren hat in den USA ein algorithmengestütztes System für großes Aufsehen gesorgt. Das System sollte Entscheidungen im Rahmen von Strafverfahren über eine vorzeitige Haftentlastung unterstützen. Das sogenannte COMPAS („Correctional Offender Management Profiling for Alternative Sanctions“) System versprach eine Einschätzung der Sozialprognose, ob eine Strafrückfälligkeit bei vorzeitiger Entlassung zu erwarten ist. Das System schrieb Angeklagte, die zuvor bereits Straftäter waren, jedoch nach ihrer Entlassung nicht rückfällig wurden, ein hohes Rückfallrisiko zu – und zwar bei 45 Prozent der schwarzen und 23 Prozent der weißen Angeklagten.

 

Das Risiko, eine schlechte Sozialprognose ausgestellt zu bekommen, war demnach für schwarze Angeklagte doppelt so hoch wie für weiße Angeklagte. Nachweislich reproduziert das System (das in manchen US-Bundesstaaten immer noch in Betrieb ist, rassistische Entscheidungsmuster ihrer menschlichen Vorbilder (People-Analytics-Data).
Diese Einschätzung fand sich auch in den Ergebnissen der Enquete-Kommission des Bundestages wieder. Diese entwickelte in ihrem mehr als 800-seitigen Abschlussbericht das Leitbild der „Menschenzentrierten KI“. Darin werden Europäische Union, Bund und Länder aufgefordert, die Rahmenbedingungen zu schaffen, eine KI-Strategie diskriminierungsfrei, transparent und nachvollziehbar zur Lösung ökologischer Probleme zu entwickeln und umzusetzen. Die Rolle künstlicher Intelligenz soll es demnach sein, Voraussetzungen für verantwortliches Handeln des Menschen zu verbessern.
Dazu gehören auch Transparenz der Modelle und Wichtungen mit denen die KI trainiert wird. Und Open Source Systeme können diese Transparenz und Überprüfbarkeit auch besser gewährleisten als auf Vermarktung orientierte geschlossene Systeme.
Es bedarf aber auch einer strengen Kontrolle anhand ethischer Grundsätze. Diverse Staaten und Unternehmen befinden sich in einem Wettrennen darum, wer die schnellste und beste KI entwickeln kann.

Davon versprechen sie sich einen Anstieg von Produktivität, Wirtschaftswachstum und allgemeinem Wohlstand. Noch haben wir aber die Chance zu verhindern, dass es mit der KI eine Entwicklung wie mit dem Taylorismus gibt, der diese Optimierung von Produktionsprozessen komplett auf die Rücken der Beschäftigten abgeladen hatte. Dabei geht es nicht nur um die direkte Arbeit mit den KIs, sondern auch diejenigen, die innerhalb der so optimierten Prozesse arbeiten müssen. Und nicht zuletzt stellen wir als LINKE die Frage, wem gehören die mächtigen Maschinen, wem dienen sie und wozu? Und nicht zuletzt drängen sich jetzt schon Fragen des Urheberrechts auf, das zum Training von KI auch urheberrechtlich geschützte Werke verwendet werden.
In wenigen Jahren könnten Künstliche Intelligenzen ähnlich komplex und leistungsstark werden, wie das menschliche Gehirn. Moores Gesetz sieht bei Prozessoren eine Leistungsverdopplung alle 18 Monate. Grob hat diese Faustformel in den letzten 50 Jahren ihre Prognosen erfüllt. Bei Künstlichen Intelligenzen müssen wir allerdings davon ausgehen, dass es für eine Verdopplung der Leistungsfähigkeit weniger als 18 Monate benötigt. Wenn das so eintritt, erwartet zumindest der umstrittene Multimilliardär Elon Musk eine „Super KI“ für 2030. Ob der Mann recht hat oder nicht, der Tag rückt näher und irgendwie hat man nicht das Gefühl als sei unsere Gesellschaft nicht hinreichend darauf vorbereitet.

Nicht zuletzt wegen Typen wie Musk. Allerdings haben er, Apple Mitbegründer Steve Wozniak und diverse KI-Entwickler:innen in einem offenen Brief ein Entwicklungsmoratorium für Künstliche Intelligenzen gefordert. Den Wirtschaftsakteuren darunter mag man zurecht unterstellen, dass sie die Zeit nutzen möchten um ihren Entwicklungsrückstand auf Firmen wie OpenAI (die mit dem ChatGPT) aufzuholen, als politisch Verantwortliche haben wir aber allesamt hier den Auftrag, die Gesellschaft auf die kommenden Veränderungen vorzubereiten. Ohne Panik und Beißreflexe, aber mit Vernunft und Gestaltungswillen.
Nicht zuletzt das Beispiel von Marvin von Hagen, der wohl als erster Mensch öffentlich von einer KI diskreditiert und als gefährlich bedroht wurde; oder aber eine KI, die einen Menschen Manipuliert hat, damit er bei „Ich bin kein Roboter“ klickt (sie hat schlichtweg gelogen) lassen aufhorchen.

Der Autor Isaac Asimov hat bereits 1942 in seiner Kurzgeschichte „Runaround“ drei elementare Robotergesetze formuliert, die in die Programmierung jeglicher künstlichen Intelligenz einfließen müsste.

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Wir sollten alles daran setzten, dass sich die KIs auch daran halten müssen.