Hooepage Cybersecuritv Cyberpace Menschen
Nachrichtendienste kybernetische Waffen Bildung
A I   oder K I Wirkungsweise Quo vadis Beispiele Politik Realisierungen Militär Unternehmen Finanz. Banken Forschung Geheimdienste Schwachstellen
Künstliche Intelligenz

Die höhere Qualität der Problemlösung

Künstliche Intelligenz im Visier russischer Forscher: „Neue, gemischte Welt“

Weltweit erster wandelbarer Computer in China entwickelt

Warum maschinelles lernen funktioniert, große Mathematiker wissen es einfach nicht

Warum sind neuronale Netze intelligenter als üblichen Computern


Wie werden Maschinen intelligenter, wie werden wir mit ihnen umgehen?


Tainted Data Can Teach Algorithms the Wrong Lessons
Verdorbene Daten können Algorithmen die falschen Lektionen lehren


Es heißt Künstliche Intelligenz – aber was ist Intelligenz?

Lernen in der "Superposition" lohnt sich für
KI-Systeme

 

 

 
 

W I R E D

Wie werden Maschinen intelligenter, wie werden wir mit ihnen umgehen?

Wie werden Maschinen intelligenter, wie werden wir mit ihnen umgehen?

Jahrtausende der Evolution haben uns schlecht bereit, die Blackbox der KI zu knacken und innen zu schauen.

 Radfahren in einem Hügelige, geschäftige Stadt wie San Francisco bietet ein kognitives wie ein körperliches Training. Ich überlebe im Verkehr, indem ich nicht nur meine Quadrizeps, sondern auch meine Geistestheorie, die Fähigkeit, mir die Gedanken und Absichten anderer vorzustellen: Wird der Typ, der einen Bird Scooter fährt, schwenken, um dieses Schlagloch zu vermeiden? Wird der USB-Treiber versuchen, dieses gelbe Licht zu fahren? Aber selbstfahrende Autos stolpern mich.

Letztes Jahr, als General Motors die Tests seiner autonomen Cruise-Fahrzeugeintensivierte, begann ich, die sportlichen weißen Schräghecks mit Dachsensoren einmal oder mehr jeden Tag zu treffen. Anfangs waren die Autos übervorsichtig und zuckend und verdienten wütende Honks von menschlichen Fahrern für unnötiges Bremsen und zögerliche Kurven. Mit der Zeit fühlte ich mich in der Lage, diese ängstlichen Roboter zu lesen und sogar auszubeuten. Wenn ich vom Radweg abkam, würden sie sich zurückhängen und mir zusätzlichen Spielraum geben. An Vier-Wege-Stopps neigten sie dazu, zu zansen, so dass ich vorwärts dart.

 Dann überraschten mich ein paar Cruise-Fahrzeuge eine Woche lang mit einem selbstbewussteren Fahren. Anstatt sanft hinter Fahrrädern zu warten, zogen sie vorbei. Meine Theorie des Robotergeistes wurde verdampft, ersetzt durch ein Gefühl des Unbehagens: Wenn KI fähiger und selbstbewusster wird, wie werden wir damit in Beziehung stehen?

Im Allgemeinen passen sich die Menschen gut an neue Technologien an. Wir steuern Hunks von beschleunigendem Metall und kommunizieren über winzige Icons mit Elan. Aber komplexere und dynamischere KI-Systeme wie Roboterautos werden uns auf neue Weise herausfordern. Jahrtausende der biologischen und kulturellen Evolution haben uns Gehirne und Gesellschaften gegeben, die darauf grundiert sind, die Verhaltensweisen, Eigenheiten und Übertretungen anderer Menschen zu lesen. Mit Denkmaschinen, sagt Iyad Rahwan, Direktor des Max-Planck-Instituts für menschliche Entwicklung in Berlin, "stolpern wir irgendwie im Dunkeln".

Unsere Tendenz ist, anzunehmen, vielleicht ohne es zu merken, dass KI-Systeme einen Geist haben, der etwas wie unsere ist. In den 1960er Jahren schuf MIT-Professor Joseph Weizenbaum den weltweit ersten Chatbot ELIZA und programmierte ihn, um einen Therapeuten zu parodieren, indem er auf typisierte Aussagen antwortete, indem er sie in Fragen umwarf. Zu Weizenbaums Schock spürten seine menschlichen Untertanen menschliche Intelligenz und Emotionen im Bot. "Was ich nicht erkannt hatte, ist, dass extrem kurze Expositionen gegenüber einem relativ einfachen Computerprogramm bei ganz normalen Menschen mächtiges Wahndenken hervorrufen könnten", schrieb er.

Die Gefahren, nicht klar über KI nachzudenken, sind seitdem gewachsen; bald werden sie bedeutsam werden. Die perky feminin-kodierenden Persönlichkeiten virtueller Assistenten wie AmazonsAlexa lenken uns davon ab, die Risiken zu berücksichtigen, die große Unternehmen in unseren intimen Räumen aufzeichnen können. Die Art und Weise, wie Fahrer, Radfahrer und Fußgänger Roboterfahrzeuge verstehen und darauf reagieren, ist eine Frage von Leben oder Tod.

Selbst wenn es mehr als eine Sekunde dauert, um die Entscheidungen eines KI-Systems zu verfassen, kann sein Verhalten unmöglich vollständig erklärt werden. Die maschinellen Lernalgorithmen hinter vielen aktuellen KI-Meilensteinen können nicht auf die gleiche Weise wie herkömmliche Software programmiert oder zurückentwickelt werden. Experten nennen diese Systeme BlackBoxes, weil selbst ihre Schöpfer nicht vollständig erklären können, wie sie funktionieren. Möglicherweise müssen Sie eines Tages eine lebensverändernde medizinische Entscheidung treffen, die auf dem Rat eines Arztes beruht, der wiederum auf dem Rat eines KI-Systems beruhte, das auf Methoden und Ressourcen aufbaute, die keine menschliche oder regulatorische Stelle überprüfen konnte. Künstliche Intelligenz ist fremde Intelligenz, die die Welt auf eine Weise wahrnehmen und verarbeitet, die sich grundlegend von der Art und Weise unterscheidet, wie wir es tun.

Keep Reading

 Das Neueste über künstliche Intelligenz, vom maschinellen Lernen bis zum Computer Vision und mehr

Eine Fehleinschätzung von KI-Systemen kann dazu führen, dass wir Menschen falsch einschätzen. Madeleine Clare Elish, Anthropologin bei Data & Society, einem Forschungsinstitut, hat Unfälle mit Automatisierung untersucht und sagt, dass moralische Schuld für Systemausfälle oft unfair auf Menschen landet, die sie nicht geschaffen haben. Nachdem 2018 ein selbstfahrendes Uber-Auto einen fußgängerbehinderten In-Mann in Arizona getötet hatte, richtete die Polizei die öffentliche Aufmerksamkeit auf den Sicherheitsfahrer, der in einem Video vom Auto abgelenkt zu sein schien. Bundesermittler fanden später heraus, dass Uber das Notbremssystem des Autos deaktiviert hatte und seine Algorithmen so programmiert hatte, dass sie nur auf Gehwegen nach Fußgängern suchten. Uber hat die Sicherheitsfunktionen erhöht und kann in Arizona nicht mehr testen, aber es wurde von der strafrechtlichen Verantwortlichkeit freigesprochen; der Sicherheitsfahrer kann noch mit Anklagen rechnen.

Die Menschen können es noch schwerer haben, die Funktionen und Schwächen anspruchsvollerer KI-Systeme klar zu erkennen, die sich ständig an ihre Umgebung und erfahrungen anpassen. "Was bedeutet es zu verstehen, was ein System tut, wenn es dynamisch ist und lernt und wir nicht auf unser Vorwissen zählen können?" Elish fragt. Wenn wir mit mehr KI-Systemen interagieren, wird uns vielleicht unsere eigene bemerkenswerte Lernfähigkeit helfen, eine Theorie des maschinellen Geistes zu entwickeln, um ihre Motivationen und ihr Verhalten zu intuitieren. Oder vielleicht liegt die Lösung in den Maschinen, nicht bei uns. Ingenieure zukünftiger KI-Systeme müssen möglicherweise so viel Zeit damit verbringen, zu testen, wie gut sie mit Menschen spielen, als um ihre elektronischen IQs hinzuzufügen.

 

https://www.wired.com/story/as-machines-get-smarter-how-will-we-relate-to-them/