Wie werden Maschinen intelligenter, wie werden wir
mit ihnen umgehen?
Jahrtausende der Evolution haben uns schlecht
bereit, die Blackbox der KI zu knacken und innen zu schauen.
Letztes Jahr, als General Motors die Tests seiner
autonomen Cruise-Fahrzeugeintensivierte, begann ich, die sportlichen
weißen Schräghecks mit Dachsensoren einmal oder mehr jeden Tag zu
treffen. Anfangs waren die Autos übervorsichtig und zuckend und
verdienten wütende Honks von menschlichen Fahrern für unnötiges Bremsen
und zögerliche Kurven. Mit der Zeit fühlte ich mich in der Lage, diese
ängstlichen Roboter zu lesen und sogar auszubeuten. Wenn ich vom Radweg
abkam, würden sie sich zurückhängen und mir zusätzlichen Spielraum
geben. An Vier-Wege-Stopps neigten sie dazu, zu zansen, so dass ich
vorwärts dart.
Im Allgemeinen passen sich die Menschen gut an neue
Technologien an. Wir steuern Hunks von beschleunigendem Metall und
kommunizieren über winzige Icons mit Elan. Aber komplexere und
dynamischere KI-Systeme wie Roboterautos werden uns auf neue Weise
herausfordern. Jahrtausende der biologischen und kulturellen Evolution
haben uns Gehirne und Gesellschaften gegeben, die darauf grundiert sind,
die Verhaltensweisen, Eigenheiten und Übertretungen anderer Menschen zu
lesen. Mit Denkmaschinen, sagt Iyad Rahwan, Direktor des
Max-Planck-Instituts für menschliche Entwicklung in Berlin, "stolpern
wir irgendwie im Dunkeln".
Unsere Tendenz ist, anzunehmen, vielleicht ohne es
zu merken, dass KI-Systeme einen Geist haben, der etwas wie unsere ist.
In den 1960er Jahren schuf MIT-Professor Joseph Weizenbaum den weltweit
ersten Chatbot ELIZA und programmierte ihn, um einen Therapeuten zu
parodieren, indem er auf typisierte Aussagen antwortete, indem er sie in
Fragen umwarf. Zu Weizenbaums Schock spürten seine menschlichen
Untertanen menschliche Intelligenz und Emotionen im Bot. "Was ich nicht
erkannt hatte, ist, dass extrem kurze Expositionen gegenüber einem
relativ einfachen Computerprogramm bei ganz normalen Menschen mächtiges
Wahndenken hervorrufen könnten", schrieb er.
Die Gefahren, nicht klar über KI nachzudenken, sind
seitdem gewachsen; bald werden sie bedeutsam werden. Die perky
feminin-kodierenden Persönlichkeiten virtueller Assistenten wie
AmazonsAlexa lenken uns davon ab, die Risiken zu berücksichtigen, die
große Unternehmen in unseren intimen Räumen aufzeichnen können. Die Art
und Weise, wie Fahrer, Radfahrer und Fußgänger Roboterfahrzeuge
verstehen und darauf reagieren, ist eine Frage von Leben oder Tod.
Selbst wenn es mehr als eine Sekunde dauert, um die
Entscheidungen eines KI-Systems zu verfassen, kann sein Verhalten
unmöglich vollständig erklärt werden. Die maschinellen Lernalgorithmen
hinter vielen aktuellen KI-Meilensteinen können nicht auf die gleiche
Weise wie herkömmliche Software programmiert oder zurückentwickelt
werden. Experten nennen diese Systeme BlackBoxes, weil selbst ihre
Schöpfer nicht vollständig erklären können, wie sie funktionieren.
Möglicherweise müssen Sie eines Tages eine lebensverändernde
medizinische Entscheidung treffen, die auf dem Rat eines Arztes beruht,
der wiederum auf dem Rat eines KI-Systems beruhte, das auf Methoden und
Ressourcen aufbaute, die keine menschliche oder regulatorische Stelle
überprüfen konnte. Künstliche Intelligenz ist fremde Intelligenz, die
die Welt auf eine Weise wahrnehmen und verarbeitet, die sich grundlegend
von der Art und Weise unterscheidet, wie wir es tun.
Keep Reading
Das Neueste
über künstliche Intelligenz, vom maschinellen Lernen bis zum Computer
Vision und mehr
Eine Fehleinschätzung von KI-Systemen kann dazu
führen, dass wir Menschen falsch einschätzen. Madeleine Clare Elish,
Anthropologin bei Data & Society, einem Forschungsinstitut, hat Unfälle
mit Automatisierung untersucht und sagt, dass moralische Schuld für
Systemausfälle oft unfair auf Menschen landet, die sie nicht geschaffen
haben. Nachdem 2018 ein selbstfahrendes Uber-Auto einen
fußgängerbehinderten In-Mann in Arizona getötet hatte, richtete die
Polizei die öffentliche Aufmerksamkeit auf den Sicherheitsfahrer, der in
einem Video vom Auto abgelenkt zu sein schien. Bundesermittler fanden
später heraus, dass Uber das Notbremssystem des Autos deaktiviert hatte
und seine Algorithmen so programmiert hatte, dass sie nur auf Gehwegen
nach Fußgängern suchten. Uber hat die Sicherheitsfunktionen erhöht und
kann in Arizona nicht mehr testen, aber es wurde von der
strafrechtlichen Verantwortlichkeit freigesprochen; der
Sicherheitsfahrer kann noch mit Anklagen rechnen.
Die Menschen können es noch schwerer haben, die
Funktionen und Schwächen anspruchsvollerer KI-Systeme klar zu erkennen,
die sich ständig an ihre Umgebung und erfahrungen anpassen. "Was
bedeutet es zu verstehen, was ein System tut, wenn es dynamisch ist und
lernt und wir nicht auf unser Vorwissen zählen können?" Elish fragt.
Wenn wir mit mehr KI-Systemen interagieren, wird uns vielleicht unsere
eigene bemerkenswerte Lernfähigkeit helfen, eine Theorie des
maschinellen Geistes zu entwickeln, um ihre Motivationen und ihr
Verhalten zu intuitieren. Oder vielleicht liegt die Lösung in den
Maschinen, nicht bei uns. Ingenieure zukünftiger KI-Systeme müssen
möglicherweise so viel Zeit damit verbringen, zu testen, wie gut sie mit
Menschen spielen, als um ihre elektronischen IQs hinzuzufügen.
https://www.wired.com/story/as-machines-get-smarter-how-will-we-relate-to-them/