· 

So weit die Bits uns jagen

Soweit die Bits uns jagen

 

 

In rasantem Tempo verändern technologische Revolutionen die menschliche Lebenserfahrung. Doch nicht alle diese technologischen Errungenschaften gereichen dem Menschen zum Vorteil, denn die digitale Revolution der künstlichen Intelligenzen lässt vieles unbeachtet, was uns als Menschen wichtig sein muss. 

 

Bitte beachte das Hörbuch am Ende dieses Blogs!

 

Alle schreien heute nach mehr Ethik in der Technologie, doch wo soll diese Ethik denn herkommen, wenn Technologie nur eines muss: Gewinn einbringen. Niemand nimmt heute einen Bedarf an Selbstbeschränkung und Regulierung wahr. Wo soll sie auch herkommen, die Ethik und Selbstbeschränkung, wenn sie nicht in jenen vorhanden ist, die diese Technik hervorbringen.

Es wird vielmehr angstvoll vermieden, in die Entwicklung von synthetischer Intelligenz und Robotern formend und richtungsgebend einzugreifen. Die uns überaus angenehm erscheinenden Dienstleistungen dessen, was wir als KI, als künstlicher Intelligenz oder besser SI, als "synthetische Intelligenz" bezeichnen, vernebelt unser Gehirn und schläfert die kritische Betrachtung der zukünftigen Auswirkungen solcher Systeme ein.

Jeder will doch selbst fahrende Autos, lauschende Alexas, allwissende Chat-Partner oder schlau schreibende, lösungsorientierte KIs haben, die alles ausführen, was ihnen angetragen wird. Noch besser wären schlaue Siris, Cortanas, Bards, Dalles, DeepLs und GPTs, die bereits im Voraus erahnen, was wir zu finden suchen. Und das alles nur, weil wir zu bequem sind, unser eigenes Gehirn einzuschalten.  

 

Die einen lieben diese Entwicklung und die anderen, wie ich, stehen ihr kritisch gegenüber. Ich bin sicher, dass die synthetischen Intelligenzen in naher Zukunft unzählige Jobs vernichten werden und aufgrund ihrer Natur, die menschliche rationale Intelligenz um Lichtjahre überflügeln. In einer, die rationale Vernunft vergötternden, Gesellschaft ist das natürlich eine gute und erstrebenswerte Entwicklung. Es wird aber dazu führen, dass die Menschheit sich dem Diktat der Maschinen-Entscheidungen fügen wird. Zum einen, weil sie es gar nicht bemerkten wird und zum anderen, weil sie die Beweggründe und Entscheidungskriterien der synthetischen Intelligenzen nicht mehr nachvollziehen kann. Das ist übrigens jetzt schon so. Nicht nur aus Marketinggründen warnen die Wissenschaftler, Entwickler und CEOs der großen Softwarehäuser, die mit dieser Software befasst sind, vor einer unregulierten Entwicklung dieses Technologiezweiges. Schauen wir auf die bisherige maschinelle Entwicklungsgeschichte - und synthetische Intelligenz ist Maschinen-Geschichte - so entdecken wir mühelos eine beschleunigende Abhängigkeit der menschlichen Gesellschaft von den selbst erschaffenen Maschinen.

 

Noch nie war jedoch das Suchtpotenzial so groß, wie im Falle der SI. Besorgte Stimmen rufen daher laut nach ethischen Regeln. Doch dieser Ruf ist ambivalent. Zum einen ist nicht wirklich klar, was Ethik in diesem Zusammenhang überhaupt ist und zum anderen ist sie ein vortreffliches Werkzeug, sich als Hersteller von SI-Systemen, gut im Wettbewerb zu platzieren. Ganz zu schweigen von der Möglichkeit, sich lästige Konkurrenz vom Leib zu halten. Der Ruf nach mehr Ethik in der Technologie fördert aber auch ein riesiges Misstrauen derjenigen, deren Kenntnisse fern des fachtechnischen Wissens sind.

Ein lautes Rufen nach mehr Ethik in Technologie, Wissenschaft und Forschung, führt also zu mehr Ängsten, Bedenken und unqualifizierter Ablehnung, neuer auf SI basierender Produkte. Trotzdem lassen sich die meisten Menschen von den vermeintlichen Segnungen der SI Maschinen korrumpieren. Zu bequem und einfach werden Dinge erledigt, die den meisten von ihnen bisher unerreichbar, zu arbeitsreich oder zu komplex waren.

Drängt sich da nicht die Frage nach der Reife der Menschheit auf? Sind wir überhaupt schon soweit entwickelt, um mit einer solchen Technologie umzugehen?

 

Was passiert beispielsweise mit einer auf Wahlen beruhenden, freiheitlich demokratischen Gesellschaft, wenn immer mehr Wähler ihre Wahlentscheidung einer SI Beratung übergeben, Sie füllen Fragebögen aus und erhalten eine auf Daten und Fakten analysierte Antwort, mit welcher Partei sie am ehesten übereinstimmen. Können die für solche Entscheidungen wichtigen Gefühle, Einschätzungen und Ahnungen über Datenerfassung von SI Maschinen überhaupt abgebildete werden?

Darf man solchen Analysen, wie sie schon heute im Internet angeboten werden überhaupt trauen?

Lassen sich Parteiprogramme anhand von eigenen Vorlieben und Ansichten auf die größte Übereinstimmung absuchen. Teste es selbst:  (http://www.bpb.de/politik/wahlen/wahl-o-mat/)

 

Ich bin mir ziemlich sicher, dass in diesen eher primitiven Anwendungen noch sehr wenig synthetische Intelligenz eingebaut ist. Es scheint für die etablierten politischen und marktwirtschaftlichen Vertreter heutzutage jedoch außer Frage zu stehen, dass ihr Machterhalt von der breiten Einführung von SI Maschinen abhängig ist. Nur so können die unbequemen Fragen, welche neuen oder erneuerten Prozesse und Strukturen für den Weiterbestand einer auf freiheitlich demokratischen Grundregeln fußenden Gesellschaft wichtig sind, geschickt vermieden werden. Keiner fragt mehr danach, welche neuen Machtverhältnisse durch den Einsatz von SI-Systemen entstehen oder wem die Technologie nutzt. Wer gegen ihre Nutzung oder ihre Entscheidungen Widerspruch einlegen kann und wovon Menschen und Gesellschaften sich in neuer Weise abhängig machen. Das individuelle und gesellschaftliche Leben wird zukünftig durch Entscheidungen intelligenter Systeme so lebenswert gehalten, dass niemand mehr auf die Idee kommt, ihr Zustandekommen zu hinterfragen. Frei nach dem Motto: Wenn es doch funktioniert, ist es doch gut. Nun, das gilt auch für Atomkraftwerke und Impfungen.

 

Ich glaube darin ist bereits ein schrecklich verkatertes Aufwachen einprogrammiert. Doch es wäre falsch und unfair gegenüber den Gefühlen und der menschlichen Kreativität, den Einsatz und die Verbreitung von SI-Systemen komplett zu verteufeln. Die menschliche Intelligenz MI, unterscheidet sich zumindest heute noch deutlich von der synthetischen Intelligenz, deren Leistungsfähigkeit nur partiell die Leistung des menschlichen Geistes übertreffen kann. Im Schach zum Beispiel oder beim Go-Spiel oder beim Design von Medikamenten-Molekülen. Das uns Computer an Rechengeschwindigkeit und Erinnerungsfähigkeit bei Weitem überlegen sind, ist ja schon ein alter Hut. 

 

SI-Systeme und deren Hardwaregrundlagen wurden aus der Vision heraus geschaffen, den Menschen ein gutes Leben zu ermöglichen. Daher sehe ich den Einsatz von SI überall dort als gerechtfertigt an, wo es in einem technischen Sinne darum geht, Menschen vor Schaden an Leib und Leben zu bewahren. Beispiele dazu wären: Spurhalte-, Abstands- und Bremssysteme an Fahrzeugen, Navigationsinstrumente, Wetter-, Erdbeben- und Klimavoraussagen, Steuerung von Energieanlagen, Verkehr und Flugsicherung und sogar den "denkenden" Kühlschrank, der mir meine Einkaufsliste aufs Handy sendet kann ich mir vorstellen. Der Anwendungen gibt es Millionen und darin liegt ein Segen und eine große Gefahr. Denn wer legt die Grenzen und Regeln fest, wo, wann und wozu SI verwendet werden darf? Der Weg vom intelligenten Kühlschrank zur atomwaffentragenden Drohne ist nur ein kurzer. Der Schritt von der DNS Analyse von Föten in Entscheidungen über deren Leben und Tod ebenfalls.

 

Je weiter SI-Systeme unser Leben durchdringen, desto deutlicher werden uns die Bereiche unserer Gesellschaft bewusst gemacht, in denen unsere biologische Ausstattung offenbar nicht mehr ausreicht. In der Gesundheitsdiagnostik feiert die SI "Doktor Watson" von IBM, ungeahnte Erfolge. Im Big-Data-Marketing wühlen sich SI-Systeme bei Google, Facebook, Amazon und Konsorten durch Datenberge, wie einst die Tunnelbohrer in den Alpen und suchen nach Mustern und Strukturen, die es erlauben den optimalen Konsumenten zu identifizieren oder den für eine Werbeeinblendung besten Interessenten zu finden. Sie werkeln im Hintergrund in der Flugsicherung, der Kommunikationsleitung, der Energieversorgung, finden die optimalen Strukturen für neue Technologie und sagen die Bewegungen von Fischschwärmen oder Unwettern voraus. Sie wachen bei Militär und Polizei über die Sicherheit des Staates und ohne diese Maschinen, wäre der heutige schnelle und fast fehlerfreie Betrieb der für die globale Zivilisation lebenswichtigen Systeme so gut wie unmöglich. 

Sind wir also überhaupt noch in der Lage hier korrigierend einzugreifen, ohne einen gesellschaftlichen Zusammenbruch zu riskieren? Hat die Chip-Intelligenz uns nicht schon längst im Griff?

 

Die Entscheidungen einer SI sind jedoch immer nur so fehlerfrei, wie die ihr zur Verfügung stehende Datenbasis. Ist diese Datenbasis verzerrt, weil z.B. "politische Korrektness" einen der Wahrheit entsprechenden Datenmix verhindert oder weil schlicht und einfach sich Fehler im Datenmix befinden, dann sind die Entscheidungen einer SI höchst zweifelhaft. Denn niemand kann heute noch sicher nachvollziehen, wie die SI zu ihrer Entscheidung findet. Wie auch, denn wäre es anders, bräuchten wir sie nicht. Als ein solches Ergebnis könnte die Empfehlung einer Medizin-SI lauten, die Behandlung eines Menschen einzustellen, weil sein sozialer Status die Begleichung der Behandlungskosten unwahrscheinlich macht. Verursacht durch eine, einfach gesagt, Überzahl an sozial Schwachen in der Datenbank des Krankenhauses, deren Behandlungskosten in Summe, die derer aus sozial besser gestellten Schichten der Gesellschaft, bei weitem übersteigt. Das ist jetzt natürlich sehr überspitzt formuliert und solche einfachen Fehler kommen selbstverständlich dank der besten Ausbildung unserer Ingenieure und KI-Forscher niemals vor. 

 

Unsere eigene Vermessenheit hat uns davon überzeugt, allein durch Daten den Menschen verstehen zu können. Die Hybris unseres abgehobenen Wissenschaftsdenkens hat uns das Gehirn vernagelt und uns den Kontakt zum Menschlichen verlieren lassen. Menschen, die mit Menschen arbeiten, haben oft ein feines Ohr und einen sensiblen Blick, der jenseits aller Worte die Einschätzung des Gegenübers erlauben. Dazu kommt, dass Gesundheit sowie das Auftreten von Krankheit Großteils subjektive und soziale Gründe haben. Das Gleiche gilt für soziale Situationen, Arbeitsplätze und Freizeitgestaltung und letztlich: Konsumverhalten.

 

Ich glaube wir haben in der Faszination des Möglichen vergessen, dass es verschiedene Arten von Wissen gibt: Da ist das numerische Wissen, was das einzige Wissen ist, mit dem ein SI-System umgehen kann und das viele Tausend Mal besser als wir selbst. Dieses Wissen erzwingt eine Übersetzung aller Daten in eine Zahlenrepräsentation: Null und Eins oder bald in den Quantencomputern auch alle Werte dazwischen. Das Rot der Rose, das Gefühl der Zuneigung, das Brummen einer Fliege und das Singen der Nachtigall.

 

Dann gibt es da noch das menschlich intuitive Wissen. Wissen aus Lebenserfahrung entstanden und Wissen aufgrund jahrelangen Zusammenseins mit Menschen, Tieren, Pflanzen und sogar Technologie. Wissen aus Quellen, die uns Menschen selbst heute noch unbekannt sind. Kreativität in Malerei, Musik und Tanz. All das kann eine SI heute allenfalls kopieren und wandeln. Aber Alices Angstgegner, den Jabberwoki, kann sie nicht ohne menschliche Anleitung erfinden. 

 

Wir können und dürfen den Menschen nicht auf seine Messdaten reduzieren, nur weil es effektiv und kostengünstig ist. Menschen sind nicht ihre Diagnose, ihr Job, ihre soziale oder kulturelle Stellung. Sie haben Hoffnungen und Wünsche, Vorstellungen und Träume von ihrem Leben und dem ihrer Lieben. Das muss in Zukunft zu beachtet werden und nicht, ob ein SI basierender Quantencomputer irgendwelche mathematischen Zusammenhänge in Flüchtlingsströmen berechnen oder Klimakatastrophen voraussagen kann.

 

 

Menschen sind nicht einfach Datenmengen und wir dürfen sie nicht darauf reduzieren. Selbst wenn wir es sinnvoll machen könnten, müssten wir humanerweise darauf verzichten. Wie sollen Träume, kreativer Ausdruck, Glauben, Liebe, Hass, Zufriedenheit und Aggression jemals in Daten gefasst werden können, obwohl sie unser aller Existenz maßgeblich beeinflussen? Das Maß der Dinge stellt sich hier ungeschminkt in den Vordergrund und lässt die Anmaßung der Technologie zerplatzen, denn wie sollten die genannten Eigenschaften der Menschen gemessen werden?

In welche Zahlen sollten Zuneigung, Mutterliebe, Schmerz oder Wut in für die SI-Systeme interpretierbare Zahlen gepresst werden, ohne dass das Besondere des einzelnen Menschen verloren geht?
Es wäre an der Zeit, sich einzugestehen, dass wir nicht in der Lage sind und es wohl auch nie sein werden, uns und die Welt zu vermessen.

 

Wir müssen ein Bewusstsein entwickeln, das menschliches Leben, wenn nicht Leben überhaupt, wieder als Ganzes betrachtet und auch die nicht quantifizierbaren Teile des Lebens beachtet. Wir müssen uns über unsere eigene Begrenztheit bewusst werden, dass wir vieles technologisch machen können, aber einiges davon aus ethischen Gründen nie tun sollten. Das gilt nicht nur für die Gentechnik, die Medizin- und Zuchtforschung, sondern auch für das Deep-Learning der SI-Systeme. 

 

Wir werden nicht verhindern können, dass SI-Maschinen zukünftig in unsere Geistes- und Gesellschaftswissenschaften mit einbezogen werden. Doch heute sind diese Wissenschaften noch nicht in der Lage, auf Augenhöhe mit der Technologie mitzuhalten. Wir brauchen jedoch ein Bewusstsein dafür, dass eine gute Regulierung der technischen Möglichkeiten kein Hindernis für Forschung und Wirtschaft ist, sondern dass wir gerade dadurch Vertrauen in Systeme mit synthetischer Intelligenz schaffen können. 

 

Wir dürfen SI-Systeme nicht ohne Regeln entwickeln und produzieren. Die Evolution von SI-Systemen wird längst schon durch diese Systeme selbst bestimmt. Sowohl im Training neuer SI Generationen als auch im Design neuer Prozessorarchitekturen, sind bereits SI-Elterngenerationen beteiligt. Die Nachvollziehbarkeit dessen, was da geschieht, entzieht sich immer schneller der menschlichen Intelligenz. Bereits heute können KI-Forscher und Mitentwickler dieser Systeme nur mit Mühe und hohem Zeitaufwand die SI Entscheidungen nachvollziehen. Die so entstehenden Gefahren sind immens:  Kleine Fehler, von uns unbemerkt oder aufgrund unserer MI Beschränkung gar nicht erfassbar, können langfristig zu katastrophalen Fehlentscheidungen der SI-Systeme führen. Z.B. Könnte der Auftrag an eine SI, Büroklammern zu produzieren, mit der Auslöschung der Menschheit enden, weil diese der SI den Stecker ziehen kann und sie dann nicht in der Lage wäre, ihren Auftrag auszuführen. Eine simple Risiko-Analyse, wie sie heute in jedem Unternehmen an der Tagesordnung ist.  (google: Kontrollproblem bei Superintelligenzen)

 

Wir müssen uns beim Einsatz von SI Systemen über deren Nutzen, den Rohstoff- und Energieverbrauch und die verdeckten Leistungen derer bewusst sein, die von der Server-Betreuung, über die Bereitstellung von Trainingsdatensätzen bis hin zum informatorischen und elektronischen Müll, mit deren Bau und Betrieb beschäftigt sind. All diese Ressourcen müssen im verantwortungsbewussten Umgang mit SI-Systemen  beachtet werden. Wir brauchen daher eine neue Kultur im Umgang mit den Möglichkeiten der synthetischen Intelligenzen, bevor wir von den durch sie geschaffenen Fakten überrollt werden.

 

Immerhin lernen wir unsere eigene Intelligenz über viele Jahrzehnte in einer extrem komplexen Umwelt an und greifen dabei auf Datenmengen zu, die einem Vielfachen dessen entsprechen, was beim Deep-Learning einer SI verwendet wird. Wir nennen das nur einfach anders: nämlich Bildung, Erziehung und Integration in die menschliche Gesellschaft oder anders gesagt: Leben!

 

Wir sind heute an dem Punkt, wo wir entscheiden, in welcher Gesellschaft wir zukünftig leben wollen. 

 

alles liebe

 

Hans

 

 

Nimm dir etwas Zeit und höre dir das Hörbuch an. Aus allen Kanälen schallt dir heute das neue Wissen entgegen. Auch wenn es gar kein neues Wissen ist, sondern seit Äonen bekannt, aber geflissentlich geheim gehalten.
Höre und lerne!