Hooepage Cybersecuritv Cyberpace Menschen
Nachrichtendienste kybernetische Waffen Bildung
A I   oder K I Wirkungsweise Quo vadis Beispiele Politik Realisierungen Militär Unternehmen Finanz. Banken Forschung Geheimdienste Schwachstellen
Chancen und Risiken der künstliche Intelligenz

Autonom denkende Roboter – Wer haftet für ihre
Taten

Wie sich künstliche Intelligenz übertölpeln lässt" ?

 

 


 



 






 

 

 

 

 

 
 
N Z Z

Wie sich künstliche Intelligenz übertölpeln lässt



Wie sich künstliche Intelligenz übertölpeln lässt
Künstlich intelligente Systeme zeigen erstaunliche Leistungen, sie besitzen aber auch Schwächen, die sich gezielt ausnutzen lassen. Diese Systeme stellen für den Menschen eine Bedrohung dar.
Stefan Betschon
25.10.2017, 05:30 Uhr
Dies ist einer der besten Computerwitze, er ist insbesondere gut geeignet, den gegenwärtigen Stand bei der Erforschung der künstlichen Intelligenz kurz und knapp zu beschreiben – mehr noch: Es ist laut der britischen Tageszeitung «The Guardian» «the world's greatest universal joke», der Witz schlechthin, es ist – so die Wikipedia – ein Witz, der eine fast schon kultische Verehrung geniesst und in Literatur und Kunst und auch in der Populärkultur in unzähligen Anspielungen sich zeigt, es ist ein überaus lustiger Witz, der aber auch nachdenklich stimmt, denn er enthält eine abgrundtiefe Wahrheit, es ist – gleichzeitig – auch einer der kürzesten Witze. Er lautet: 42.

Wer zuletzt lacht
Überaus kluge Computerwissenschafter auf einem entfernten Planeten hätten einst, so berichtet Douglas Adams in seinem Science-Fiction-Bestseller «The Hitchhiker's Guide to the Galaxy» (1979), einen Computer daraufhin programmiert, die allerletzte, «ultimative» Frage zu beantworten und das Leben, das Universum und überhaupt alles zu erklären. Die Abarbeitung dieses Programms habe aber sehr viel Zeit in Anspruch genommen, erst nach 7,5 Millionen Jahren kamen die Berechnungen zu einem Ende.
Und die Antwort lautet – 42. 42? Was bedeutet das? Die Nachkommen der Programmierer wundern sich. Es stellt sich heraus, dass niemand weiss, was genau die Frage war, die der Computer bearbeiten sollte, sie war während der langen Wartezeit vergessen gegangen. Wenn die Antwort 42 ist, was ist dann die dazu passende «ultimative» Frage? Nachkommen der Programmierer beschliessen, ein Computerprogramm zu schreiben, das diese Frage beantwortet. Leider dauern die Berechnungen wiederum Äonen.

Die Transparenz der künstlichen Intelligenz - können künstliche Systeme nicht nur denken, sondern auch überdenken, sich hinterfragen? (Bild: Simon Tanner / NZZ)
Lange war die Erforschung der künstlichen Intelligenz (KI) erfolglos, doch dann, nach der Jahrtausendwende, häuften sich die Hinweise, dass neuronale Netzwerke sich unter praxisnahen Bedingungen bei Aufgaben im Bereich der Mustererkennung bewähren könnten. Seit ein paar Jahren überschlagen sich in diesem Teilbereich der KI, beim Machine-Learning, die Erfolgsmeldungen. Seit kurzem gibt es Software, die bei der Transkription von gesprochenen Äusserungen, beim Lesen von handschriftlichen Notizen oder bei der Erkennung von Bildinhalten den Menschen überlegen ist.
Bei neuronalen Netzwerken bilden Millionen von Neuronen und Abermillionen von Verknüpfungen eine überaus komplexe Apparatur, bei der im Verlauf eines langwierigen Trainingsprozesses Milliarden von Drehreglern und Stellschrauben so justiert werden, dass sich die gewünschte Zuordnung von Input und Output ergibt. Wie kann man beweisen, dass diese Apparatur zuverlässig funktioniert? Man kann es nicht. Bei der Bestimmung der Verlässlichkeit ist man auf Tests angewiesen.

Kann eine Gehirnwäsche Terroristen hervorbringen?
Urs Hafner

Es ist deshalb nachvollziehbar, wenn ein altgedienter Computerwissenschafter wie Ronny Ronen, der sich bei der Entwicklung von Mikroprozessoren hervorgetan hat, angesichts von neuronalen Netzen ein ungutes Gefühl hat. Laut Ronen ist die vorherrschende Einschätzung die, dass diese Technik «im Grossen und Ganzen ‹schwarze Magie›» ist. «Wir wissen, dass es funktioniert, aber wir verstehen nicht, warum.» Als Leiter des Intel Collaborative Research Institute for Computational Intelligence hat Ronen Forschungsarbeiten initiiert, die das Innenleben von neuronalen Netzwerken verständlich machen sollen.
«Verständliche KI» lautet das neue Leitbild, «explainable AI» oder auch nur XAI. Hinter diesem Banner versammeln sich immer mehr Wissenschafter. Die Forschungsabteilung der amerikanischen Armee, die Defense Advanced Research Projects Agency (Darpa), hat zu Beginn des Jahres ein Programm angekündigt, das universitäre Forschungsteams während fünf Jahren bei der Entwicklung von XAI unterstützen will.
Warum ist es überhaupt wichtig, in die Blackbox hineinzuschauen? Kann man nicht einfach zufrieden sein, dass diese künstlich intelligente Software meistens recht gut funktioniert und uns den Alltag erleichtert? Apps wie Alexa (Amazon), Assistant (Google), Cortana (Microsoft) oder Siri von Apple können gesprochene Befehle verstehen; Tag für Tag übersetzt Google Translate mehr als 200 Millionen Texte; Facebook ist seit Februar in der Lage, Gegenstände auf Fotos zu identifizieren. Diese Systeme sind nicht perfekt, aber gut genug für den Alltagsgebrauch. Warum sich sorgen, warum einen Blick in die Blackbox wagen?
Schaltzentrale Hirn
Das Gehirn lässt uns unsere Umwelt wahrnehmen und verstehen – und bestimmt unsere Entscheide und Gefühle. Für die Wissenschaft ist es die letzte grosse Blackbox des Menschen. Hier finden Sie alle Beiträge.
Zunehmend wird KI in Bereichen eingesetzt, in denen Fehler unverzeihlich sind. KI entscheidet über Milliardeninvestitionen, über Militäroperationen; KI ersetzt den Fahrer oder den Arzt. Bei all diesen Aufgaben reicht es nicht, wenn die Software oft recht gute Ergebnisse erzielt. Wenn es darum geht, einen Gehirntumor, eine Retinopathie, eine Herzrhythmusstörung oder eine Krebserkrankung zu diagnostizieren, erwartet man von der Software nicht nur eine hohe Verlässlichkeit, sondern auch die Fähigkeit, eine Diagnose zu begründen.
Es hat sich nun aber gezeigt, dass sich neuronale Netzwerke leicht übertölpeln lassen. Christian Szegedy von Google entdeckte 2014 einige – so der Titel seines vielzitierten Aufsatzes – «verblüffende Eigenschaften von neuronalen Netzwerken»: Es kann vorkommen, dass Fotos nicht mehr erkannt werden, nachdem sie nur sehr geringfügig und für das menschliche Auge nicht wahrnehmbar verändert worden sind. Andere Forscher täuschten neuronale Netze mit Mustern: Der Computer entdeckt nun in abstrakten Bildern konkrete Dinge, sieht einen Pandabären oder eine E-Gitarre, wo das menschliche Auge nur Farben und Formen erblickt. Diese Arbeiten zeigen, dass die Computer bei der Bildanalyse anders vorgehen als Menschen und sie die Bilder nur sehr oberflächlich analysieren. Die künstlich intelligente Software ist wie ein Idiot savant manchmal zu Spitzenleistungen fähig, manchmal abgrundtief dumm.
Bilder von handgeschriebenen Zahlen wurden geringfügig und für Menschen unbemerkbar so verändert, dass sie für die Maschinen einen anderen Wert darstellten. Nicht nur Bilder lassen sich manipulieren, sondern auch akustische Eingabesignale: Es ist gelungen, in ein Video gesprochene Befehle einzubetten, die das menschliche Ohr nicht wahrnehmen kann, die sich aber der automatischen Spracherkennung mitteilen konnten. Viele dieser Angriffe erzeugen bei unterschiedlichen neuronalen Netzwerken ähnliche Ergebnisse, viele lassen sich erfolgreich auch dann nutzen, wenn man die Innereien eines neuronalen Netzwerks nicht kennt.
Es wurden Verfahren vorgestellt, um automatisch Bilder zu generieren, an denen sich die neuronalen Netzwerke verschlucken; es ist aber auch möglich, die Bildanalyse durch kleine Eingriffe in die Realität in die Irre zu führen: Durch eine Veränderung des Lernprozesses konnte eine Software, die Verkehrszeichen zuverlässig erkennen konnte, dahin gebracht werden, dass sie diese Schilder nicht mehr wahrnimmt, sobald sie mit einem gelben Klebezettel versehen worden sind.
All diese neuen Forschungsarbeiten, die versuchen, über Hintertürchen und mit manipulierten Daten die Leistung von neuronalen Netzwerken zu schwächen, sind interessant, denn sie erlauben Rückschlüsse auf die innere Funktionsweise dieser Netzwerke. Zuerst aber zeigen sie vor allem dies: Wir wissen viel zu wenig über diese Software.
Überraschende Volte
Es werden jetzt innerhalb der Wissenschaft der künstlichen Intelligenz Methoden gesucht, die helfen können, die Innovationen der künstlichen Intelligenz den Erforschern der künstlichen Intelligenz verständlich zu machen. Für den neuen Forschungsansatz wurde schon die Bezeichnung «AI Neuroscience» vorgeschlagen; Demis Hassabis spricht lieber von «Virtual Brain Analytics». Hassabis ist einer der Jungstars der KI, der 41-jährige Wissenschafter leitet die erfolgreiche Firma Deepmind. Er fordert, dass sich die KI wieder der Neurowissenschaft annähert. «Wegen ihrer Komplexität bleiben die Produkte der KI-Forschung oft Blackboxes; wir verstehen nur schlecht die Art der Berechnungen, die sich ereignen, oder die Repräsentationen, die sich beim Erlernen von komplexen Aufgaben herausbilden.» Hassabis ruft die KI-Forscher auf, sich das Handwerkszeug der Neurowissenschafter zunutze zu machen.
Man fühlt sich an Douglas Adams und an «42» erinnert: In den 1950er Jahren sahen sich die Begründer der KI berufen, mit den Mitteln der Mathematik und der Informatik die Geheimnisse des menschlichen Gehirns aufzudecken. Im dreibändigen «Handbuch der künstlichen Intelligenz» (1981) wird gar der Anspruch formuliert, die «Natur des menschlichen Geistes» («mind») softwaretechnisch erklären zu können. Jetzt wünschen sich die Computerwissenschafter, dass ihnen die Gehirnforscher helfen, die Software zu verstehen.

Quiz
Kennen Sie Ihr Gehirn?
Es ist unser wichtigstes Organ. Als oberste Schaltzentrale reguliert es nicht nur die Körperfunktionen, sondern ermöglicht auch typisch menschliche Fähigkeiten wie geistig-abstraktes Denken und Selbsterkenntnis. 13 Fragen zum Gehirn.
Alan Niederer


https://www.nzz.ch/meinung/wie-sich-kuenstliche-intelligenz-uebertoelpeln-laesst-ld.1323885