Digitalisierung und KI – wie behalten wir das im Griff?

Jede technische Neuerung bietet enorme Chancen und enorme Risiken. Gleichgültig, welche
Entwicklung die Menschen nach vorn gebracht hat. Es kam immer zu Missbräuchen und
Fehlern, die teuer waren und auch viele Menschenleben gekostet haben. Daran wird auch
die KI nichts ändern.
Kritische Stimmen müssen erlaubt sein. Eine Warnung kann auf Gefahren aufmerksam
machen. Nur Warnungen und kritische Stimmen sind nicht die Lösung möglicher Probleme
durch die KI.
Aus ethischer Sicht werden wir uns weltweit fragen müssen, welche ethischen Standards
lassen sich in Algorithmen erfassen und einbauen? Welche Handlungs- und
Entscheidungskontrollen müssen Menschen behalten, um in einer Güterabwägung zu
ethisch verantworteten Entwicklungen der KI beizutragen. Letztlich geht es ethisch betrachtet
bei der KI nur um zwei Dinge:

  1. Mit welchen Konsequenzen ist zu rechnen, die sich für Menschen, für die Umwelt
    ergeben, wenn wir mit den sogenannten ‚intelligenten‘ Automaten, Robotern,
    Computern umgehen.
  2. Welche Verantwortlichkeiten haben wir, wenn wir Roboter, Computer, Automaten
    einsetzen.

Die Angst vor künstlicher Intelligenz, Roboterisierung und Automatisierung sollte uns nicht
davon abhalten, schon beim Schreiben von Algorithmen, beim Programmieren ethische
Standards zu berücksichtigen. Denn eines ist sicher. Ein Roboter, ein Automat, die gesamte
KI tut nur das, was der Mensch programmiert und möglich gemacht hat. Insofern liegt die
Verantwortung immer beim Menschen. Ein Roboter, ein Algorithmus ist das Ergebnis
menschlicher Kreativität. Selbst wenn Computer heute schon selbständig Algorithmen
schreiben, sie tun es nur, weil Menschen es möglich gemacht haben, dazu passende
Programme entwickelt haben.
Eines bleibt ebenfalls wichtig. Computer können noch so schnell agieren, der menschlichen
Intelligenz sind sie nicht in allen Facetten überlegen. Was dem Computer gegeben ist, ist
eine klare Kosten-Nutzen-Analyse und Kalkulation. Menschliche Intelligenz ist mehr. Freude
empfinden, Ärger oder Begeisterung, das lässt sich (derzeit) nicht so programmieren, dass
es mit dem menschlichen Empfinden identisch ist. Menschen können ihre Gefühle
empfinden, und über sie nachdenken. Der Geistesblitz, über dessen Entstehen es keine
Untersuchung gibt, ist dem Computer nicht möglich. Er könnte es nur, wenn er darauf
programmiert wäre. Dann ist es aber kein Geistesblitz mehr. Menschen können über sich
nachdenken, ohne darauf programmiert worden zu sein. Und sie können über das
Nachdenken nachdenken. Das Bewusstsein: „Ich bin ein Computer“, fehlt dem Computer.
Das muss dem Computer einprogrammiert werden; dem Menschen nicht. Ein Computer mag
nach unseren Vorstellungen über so etwas wie Verstand verfügen, über Sinnlichkeit verfügt
er nicht. Die große Frage ist, ob sich solch ein Bewusstsein über Algorithmen überhaupt
programmieren lässt.
Hier kommt Ethik ins Spiel. Ethik will sicherstellen, dass das menschliche Zusammenleben
anhand von Normen, Regeln und Standards zur Lebensmehrung führt. Ethik will immer eine
sittliche Verbesserung des konkreten Menschen erreichen. Dazu gilt es, den Verstand, den
Charakter, die Tugenden und Emotionen eines Menschen zu betrachten. Dass ein Computer
Charakter besitzt, davon habe ich bis heute nichts gehört. Und auch von Tugenden eines
Computers ist mir nichts bekannt.
Informatik, als Wissenschaft von der systematischen Verarbeitung von Informationen,
besonders der automatischen Verarbeitung mit Hilfe von Digitalrechnern, schaute lange nicht
auf den Menschen. Informatik sorgt letztlich für eine systematische Verarbeitung von
Informationen. Immer mit der Aufgabe, Informationen in eine Rechenanlage zu
implementieren, um diese aufzubauen oder weiter zu entwickeln. Nicht wenige
Wissenschaftler sind sich heute einig und überzeugt davon, dass Mensch und Maschine eine
Beziehung eingehen, und diese Beziehung auch betrachtet und gestaltet werden muss.
Schon Nyrgaard meinte: „To program is to understand!“ Heute wissen wir um die
Auswirkungen von Maschinen auf Menschen. Wir können zunehmend wahrnehmen, welche
Auswirkungen und Bedeutungen Computer, Roboter, Automaten auf Menschen, auf das
soziale Miteinander, auf eine Gesellschaft, auf die Umwelt haben. Damit kann Informatik als
Wissenschaft nicht mehr isoliert betrachtet werden.
So bleibt die wichtige Aufgabe, wie muss Programmierung sein, damit sie ethischen
Standards genügt. SAP zum Beispiel (und viele andere mehr) hat einen Verhaltenskodex
entworfen, der ethische Standards im Umgang mit KI beinhaltet. Das ist die Zukunft der ITSpezialisten.
Neben allem technischen know-how auch ethisches know-how in Algorithmen
zu verarbeiten. Die IT-Industrie, die Wissenschaft und die Politik denken längst darüber
nach.
Dazu wird es notwendig sein:

  • Informatik neu zu definieren als eine Wissenschaft, die nicht nur
    wissenschaftstheoretische Bedeutung hat, sondern auch gesellschaftliche und
    philosophische Bedeutung. Bisher war der Mensch in seinem Menschsein
    Gegenstand der Philosophie. Es wird erforderlich sein, Menschsein noch mehr zum
    Gegenstand der Informatik werden zu lassen.
  • ethische Standards zu definieren. Eine Arbeit, die der UN in der Umsetzung derzeit
    noch schwer fällt, auch wenn wir definierte Standards im Code of Conduct oder der
    UN-Menschenrechtscharta haben.
  • ethische Standards in Konkurrenz zu ökonomischen, ökologischen, sozialen
    Standards in definierten Güterabwägungen abzubilden.
  • ethische Standards zu entwickeln, die Diskriminierungen verhindern. Schon heute
    sind Programme in der Lage, den Informationsfluss zu Personen oder Gesellschaften
    zu reglementieren.
  • Projekte zu definieren, in denen IT-Spezialisten mit Ethikexperten gemeinsam ein
    ethisches Profil für Algorithmen, Automaten, Roboter entwickeln.
  • Dilemmata-Lösungen für KI entwickeln, die technisch machbar sind, und ethisch
    vertretbar sind.
  • den Pluralismus zu erhalten. Die Digitalisierung sorgt dafür, dass Informationen
    immer gezielter und individueller an Nutzer herangetragen werden. Damit fällt die
    Meinungsbildung immer schwerer. Es gilt, ethische Standards zu entwickeln, die
    fundierte Meinungsbildung auch möglich machen.
  • sicher zu stellen, dass Menschen Verantwortung nicht an Maschinen delegieren
    können. Damit ist es notwendig, die absolute Autonomie von Robotern, Computer
    und Automaten zu verhindern.
  • den ‚gläsernen Menschen‘ zu verhindern. Datenschutzgesetze müssen sicherstellen,
    dass die Datenmenge über einen Menschen vom Einzelnen selbst bestimmbar bleibt.
  • die Umkehrbarkeit von Entscheidungen/Programmierungen sicher zu stellen.

Die Vorteile, die KI uns bieten wird und kann, sind gigantisch und heute noch nicht absehbar.
Die möglichen Gefahren sind auch zum großen Teil Spekulation; gleichwohl gilt es, das zu
identifizieren, was derzeit zu identifizieren ist, und vorsorglich damit umgehen. Seit Anfang
2017 gibt es bereits einen Resolutionsentwurf des EU-Parlaments, der sich zur
zivilrechtlichen Regelung im Bereich Robotik und KI befasst hat. Das EU-Parlament befasst
sich hier mit der Vorsorge. In der Empfehlung heißt es: „dass die KI die intellektuellen
Fähigkeiten des Menschen […] in einer Weise überflügeln könnte, die […]die Fähigkeit der
Menschheit, ihre eigene Schöpfung zu kontrollieren und folglich vielleicht auch die Fähigkeit,
Herr über ihr eigenes Schicksal zu bleiben und für das Überleben der Spezies Mensch Sorge
tragen zu können, ernsthaft gefährden könnte“. Diese ernsthafte Gefährdung sieht einen „Kill
Switch“ für Roboter vor. Kill Switch meint, es muss immer die Möglichkeit geben, einen
Roboter oder Computer auch abstellen zu können.
Auch der Physiker Stephan Hawkins hat gewarnt und gleichzeitig den IT-lern eine
Handlungsanweisung gegeben: „Der Erfolg bei der Schaffung einer effektiven KI könnte das
größte Ereignis in der Geschichte unserer Zivilisation sein. Oder das Schlimmste. Wir wissen
es einfach nicht. Also können wir nicht wissen, ob wir unendlich von der KI unterstützt oder
ignoriert, gefüttert oder möglicherweise zerstört werden. Wenn wir nicht lernen, uns auf
mögliche Gefahren vorzubereiten und sie zu vermeiden, könnte KI das schlimmste Ereignis
in der Geschichte unserer Zivilisation sein. Sie bringt Gefahren mit sich, wie mächtige
autonome Waffen oder neue Wege für die Wenigen, die Vielen zu unterdrücken.“
Noch eine Aufgabe haben wir. Es wird sehr darauf ankommen, digital fit zu sein. Wir werden
dafür Sorge tragen müssen, die Menschen in die Lage zu versetzen mit Computern
umzugehen. Es geht um die Urteilsfähigkeit. Wir werden aufhören müssen, Ahnungen und
Befürchtungen zu erzeugen und zu schüren. Es geht darum, Wissen und Können im
Umgang mit Computern so zu vermitteln, dass der User urteilsfähig bleibt.
Es wird also darauf ankommen, wie die künstliche Intelligenz werden wird, welche ethischen
Standards programmiert werden, und wie wir sicherstellen, dass diese ethischen Standards
auch überprüft werden. Dazu ist es erforderlich, die möglichen Gefahren zu ermitteln und
deren Abwehr soweit wie möglich zu organisieren. Das wird nicht einfach sein. Aber vielleicht
können uns Computer dabei helfen. Geben wir ihnen eine Chance.