Nida-Rümelin über künstliche Intelligenz und Ethik

| Redakteur: Franz Graser

Bundesverkehrsminister Alexander Dobrindt (CSU) im selbstfahrenden Auto: Professor Nida-Rümelin rät entschieden davon ab, komplexe Überlegungen an Algorithmen zu übergeben. Dies trifft auch auf das autonome Fahren zu.
Bundesverkehrsminister Alexander Dobrindt (CSU) im selbstfahrenden Auto: Professor Nida-Rümelin rät entschieden davon ab, komplexe Überlegungen an Algorithmen zu übergeben. Dies trifft auch auf das autonome Fahren zu. (Bild: AUDI AG)

Vielleicht hängt das auch gar nicht so viel mit Technikaffinität oder Technikkritik zusammen, sondern mit Venture Capital. Die Kapitalgeber in den USA sind risikofreudiger als in Europa. Und es hängt sicherlich auch sehr mit der konsumorientierten Praxis dieser Technologie-Konzerne zusammen. Apple ist das bekannteste Beispiel: Apple ist nicht das führende Technologieunternehmen, aber es ist führend in der Nutzerfreundlichkeit, und das hat Apple eine Spitzenstellung gerade im Smartphone-Bereich, aber auch bei den Laptops verschafft.

Und auch da gibt es in Deutschland sagen wir mal eine gewisse Zurückhaltung. Es gibt das traurige Beispiel der MP3-Technologie, die ein Fraunhofer-Institut in Deutschland entwickelt hat, für die sich aber hier in Deutschland nicht so viele Interessenten fanden, bis es dann international zu dem großen Renner wurde und sich zum Ende als eine große Technologie der Zukunft herausgestellt hat.

Fehlt uns sozusagen jemand wie die Unternehmerpersönlichkeit Max Grundig aus der Wirtschaftswunderzeit?

Ja, vielleicht. Das ist eine interessante Vermutung. Es könnte sein, dass uns diese schnelle Anpassung an Konsumenten-Interessen da fehlt. Dass wir zwar diese Ingenieurskompetenz haben, aber dass das schnelle und flexible Anpassen an Konsumentenbedürfnisse und -erwartungen in Deutschland jedenfalls hinter den USA hinterher hinkt.

Es gibt Technikbereiche wie die Gentechnik, wo man in Deutschland sehr vorsichtig und zum Teil ablehnend ist. Kann man es sich denn zu sagen leisten: „Nein stopp! Das wollen wir nicht machen.“ Und andere Länder und Regionen investieren und entwickeln und besetzen dann Märkte.

Ich wurde vor vielen Jahren sehr scharf kritisiert, bis hin zu Forderungen, ich müsse mein politisches Amt (damals Kulturstaatsminister im Kabinett Schröder) aufgeben, weil ich sehr forschungsfreundliche Positionen in der Human-Gentechnik eingenommen habe. Ich hatte damals gesagt, dass ich das generelle Misstrauen nicht für gerechtfertigt halte. Da tun sich in der Tat Möglichkeiten auf. Aber nicht alles, was möglich ist, wird auch gemacht. Wir haben natürlich die Möglichkeit, Menschen mit Pharmazeutika zu manipulieren. Das geschieht nicht. Es ist auch nicht so, dass die Arbeitnehmer an ihrem Arbeitsplatz Drogen verabreicht bekommen, damit sie effizienter arbeiten. Nochmal: Nicht alles, was technisch möglich ist, wird auch gemacht.

Und damit sollte man erst mal einen Vertrauensvorschuss geben. Das sehe ich also insofern ganz ähnlich. Ich empfand die Restriktionen in Deutschland als zu weitgehend. Großbritannien war da liberaler. Und damit hat sich jetzt auch in Großbritannien nicht die Inhumanität ausgebreitet, wie viele vermutet haben. Oder auch nicht in Singapur oder Israel, wo man auch viel forschungsfreundlicher im Bereich der Human-Gentechnologien war. Dennoch brauchen wir kritischen begleitenden Diskurs.

Bestes Beispiel dafür ist die Kernenergie. Da waren die Experten am Anfang kritisch und dann waren alle dafür und unterdessen gibt es die große Trendwende. Das heißt die Kernenergie wird nicht mehr als die große Zukunftshoffnung angesehen – weltweit nicht. Speziell in Europa nicht. Und ohne den kritischen Diskurs wäre es nie zu dieser Einsicht gekommen.

Zurück zur Digitalisierung: Es gibt heute die Möglichkeit, den Aufenthaltsort eines Menschen und das was er dort gerade eben tut zu erfassen. Die Datensammelwut scheint ja unbegrenzt.

Das ist ein Geschäftsmodell mit minimalen Belastungen für den Einzelnen geworden. Denn man bekommt das ja gar nicht mit, aber durch die großen Zahlen, die zum Beispiel über die Facebook-Kommunikationen zur Verfügung stehen, können ganz gezielt Werbemaßnahmen gemacht werden. Und obwohl das pro Kopf minimalste Beträge sind, sind das dann im Gesamten doch Milliardensummen. Das läuft Gefahr, dass die Selbstbestimmung über die Informationen, die über mich im Umlauf sind, das so genannte informationelle Selbstbestimmungsrecht, beschädigt wird. Das ist einer der kritischsten Aspekte dieser Entwicklung.

Kann die Politik auf nationaler Ebene hier etwas tun?

Die Antwort ist klarerweise ja. Sie kann, und das zeigt gerade die Bundesregierung, die jetzt gegen Facebook viel schärfer vorgeht als zuvor, was zum Beispiel die Löschungspraxis von rechtswidrigen Posts angeht. Es kann nicht sein, dass jeder nackte Busen gelöscht wird, was bei Facebook in der Prioritätenliste ganz oben steht, aber Hassbotschaften lange im Netz bleiben. Das kann der nationale Gesetzgeber regeln. Natürlich mit dem Nachteil, dass unter Umständen dieses Land für internationale Konzerne weniger interessant ist. Das ist dann eine Nebenfolge. Besser wäre es, man hätte hier internationale Institutionen, die die Dinge einheitlich im Weltmaßstab sieht.

Sie sagten auf dem ESE Kongress in Sindelfingen, dass Computer dem Menschen die Verantwortung nicht abnehmen können. Das mag ja für die heute verfügbaren Systeme gelten. Aber wie sieht das für künftige Systeme aus, die zum Beispiel auf neuronalen Netzen beruhen und ähnlichem

Das ist eine interessante Frage, die auch eine philosophische Tiefendimension hat. Also ich bleibe dabei – und war auch neulich eingeladen bei der Ethik-Kommission des Verkehrsministeriums im Zusammenhang mit dem autonomen Fahren. Ja, es ist zutreffend: die menschliche Verantwortung kann keine Maschine abnehmen – auch keine hochentwickelte Software, auch keine Roboter. Sie sind keine Verantwortungsträger.

Es sind und bleiben Maschinen – wie komplex sie auch immer sind. Sie haben keine Intentionen und keine Absichten. Sie haben keine personalen Merkmale, man kann sie nicht ins Gefängnis sperren und dergleichen. Ich weiß, dass es in der Rechtswissenschaft Tendenzen gibt, diese strenge Sichtweise abzumildern und zu sagen: „Doch, unter bestimmten Bedingungen können wir Roboter verantwortlich machen. Dann müssen die eben versichert werden.“ Ich warne vor solchen Spielereien. Es sind immer Menschen, die in letzter Instanz die Verantwortung tragen.

Hinzu kommt, dass sich sogar beweisen lässt, dass die Besonderheit menschlichen Denkens in toto nicht simulierbar ist durch Software. Weil eine Software – auch eine komplexe Software – immer von Algorithmen gesteuert ist und komplexere Denkvorgänge nicht algorithmisch sind. Das sind die metamathematischen Resultate von Kurt Gödel und Alonzo Church.

Ich selber habe ja nicht nur Philosophie, sondern auch Mathematik und Physik studiert. Aber es ist bewiesen, dass die metamathematischen Theoreme der Prädikatenlogik erster Stufe, das ist noch eine relativ elementare Logik, algorithmisch nicht bewiesen werden können. Das berühmte Unentscheidbarkeitsproblem. Dennoch kann ich den Studierenden im zweiten Semester beibringen, wie man Prädikatenlogik erster Stufe beweist, und zwar ohne ihnen einen Algorithmus zu präsentieren.

Lesen Sie auch:

Die moderne Mikroelektronik und Mikrosystemtechnik könnte schon bald Menschen zu Cyborgs machen: Was halten Sie davon? Was machen Augmented Reality und Augmented Body aus uns Menschen?

Ich halte das, was Transhumanisten gegenwärtig propagieren, nämlich die disruptive Ausweitung menschlicher Fähigkeiten durch technologische Ein- und Umbauten für utopische Fantastereien. Allerdings verschieben sich die wahrgenommenen Körpergrenzen durch menschliche Interventions-und Wahrnehmunsgsmöglichkeiten, dazu gehört schon das Autofahren, erst recht Prothesen, Eingriffe aus der Distanz, zum Beispiel über unterschiedliche Interfaces. Die Conditio Humana ändert sich dadurch nur graduell, nicht prinzipiell.

Dürfen wir Verantwortung an Maschinen delegieren?

Dürfen wir Verantwortung an Maschinen delegieren?

21.02.17 - Autonomes Fahren, Roboter in der Fabrik, Algorithmen in der Medizin: Der Philosoph Julian Nida-Rümelin über das Verhältnis von Technik und Ethik. lesen

Inhalt des Artikels:

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44541167 / 50 Jahre Elektronikpraxis)