Ist künstliche Intelligenz gefährlich?

Von | 22. Dezember 2018

Quelle: NZZ, 20.12.2018

KI-Systeme sind wie unberechenbare Blackboxes

Stefan Betschon

Als amerikanische Computerwissenschafter in den 1950er Jahren begannen, jenes Forschungsgebiet zu definieren, für das sich dann der Name künstliche Intelligenz (KI) eingebürgert hat, dachten sie auch daran, es «complex information processing» zu nennen. Hätten sie doch diesen anderen Namen gewählt, hätten sie doch den Verweis auf die Intelligenz weggelassen! Es wäre viel weniger Unsinn geschrieben worden.

Verwirrte Systeme

Viele intelligente Menschen glauben, dass es genügt, sich selber zu hinterfragen, um zu verstehen, wie eine künstlich intelligente Maschine funktioniert. Und sie glauben, die ethischen Anforderungen, denen sie selber als Mensch genügen müssen, auch auf die Maschinen übertragen zu können. Doch von einem künstlich intelligenten Auto zu verlangen, dass es ethische Überlegungen anstellt, während es mit kaputten Bremsen auf eine Menschengruppe zurast, ist so, als wollte man eine Brücke zwingen, ethisch korrekt einzustürzen.

Es sei «gefährlich», definieren zu wollen, was mit Intelligenz genau gemeint sei, schrieb der britische Mathematiker Alan Turing 1950. Eine Maschine dürfe als intelligent gelten, wenn sie einem Menschen menschlich erscheine. Doch der Schein lässt sich nicht messen. Und was nicht gemessen werden kann, lässt sich nicht meistern. Die begriffliche Unschärfe erschwert das Nachdenken über KI. Im einfachsten Fall verursacht sie langweilige Diskurse über Maschinenethik, im schlimmsten Fall kann sie tödlich sein.

Weil es keine standardisierten Messverfahren gibt, um die Fähigkeiten von KI-Systemen zu bestimmen, ist es schwierig, Fortschritte in diesem Bereich nachzuvollziehen. Auch lassen sich so Wissenslücken, die – beispielsweise im Medizinalbereich – fatal sein können, nicht sichtbar machen. KI-Systeme präsentieren sich heute als Blackboxes, und selbst ihre Schöpfer könnten ihr Verhalten nicht immer mit Sicherheit voraussagen. Künstliche neuronale Netzwerke vollbringen etwa bei der Bildanalyse oder bei der Spracherkennung Wunderdinge. Doch manchmal genügen kleine, für Menschen nicht wahrnehmbare Änderungen des Eingangssignals, um das System vollständig zu verwirren.

Regeln für das Marketing

Das an der New York University angesiedelte AI Now Institute, das sich mit den sozialen Auswirkungen der KI beschäftigt, hat Anfang Dezember einen Bericht publiziert, der vor den Gefahren der KI warnt. Solche Berichte gibt es viele. Doch die jüngste Publikation des AI Now Institute fällt auf, weil sie nicht nur die KI reguliert sehen möchte, sondern auch die Art und Weise, wie über KI geredet wird. Der Hype um die KI führe dazu, dass sich zwischen Marketingversprechen und den tatsächlichen Fähigkeiten von KI-Software eine Lücke öffne. Solche Lücken seien gefährlich.

Die KI, die nun machtvoll aus den Labors in die Lebenswelt der Menschen drängt, ist eine überaus leistungsfähige Technologie. Es wäre wünschenswert, dass viele Menschen bei der Ausgestaltung dieser Software und der Rahmenbedingungen ihres Einsatzes mitreden. Doch damit ein solches Gespräch in Gang kommen kann, müssen alle dieselbe Sprache sprechen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.