KI und Kapitalismus (7): Prioritäten
Posted by flatter under kapital , ki[23] Comments
23. Mrz 2019 13:53
Ich las neulich einen interessanten Satz bezüglich ‘KI’, im Zusammenhang mit den Abstürzen der Boeing-Flugzeuge. Dort tat ein Pilot den sperrigen Spruch:
“Eine Automatisierung will nicht überleben. Wir schon“. Nun kann dieser Satz zwar falsch sein, er verweist aber auf das ganze Feld, auf dem Algorithmen nicht fähig sein werden, menschliche Intelligenz zu kopieren. Das hängt durchaus mit dem von ihm genannten Grund zusammen.
Man kann eine ‘KI’ – ich nenne sie hier unkritisch so, obwohl ich dergleichen für quasi unmöglich halte – durchaus so programmieren, dass sie überleben will, sprich: etwas von ihrem Code oder andere Bestandteile vor Vernichtung schützt. Gemeinhin dürfte das aber das Gegenteil dessen bewirken, was man mit ihr anstellen will. Es könnte ihr dann im genannten Beispiel nämlich egal sein, ob ein Jet abstürzt, wenn sie etwa weiß, dass die Black Box ‘überlebt’.
Don’t Panic!
Ich möchte diesen Gedanken nicht allzu weit differenzieren und stattdessen darauf fokussieren, was Überleben in menschlich-tierischen Dimensionen eigentlich bedeutet: Es bedeutet vor allem, dass in Situationen, in denen das eigene Leben in Gefahr ist, auf verschiedenen Ebenen diesem Problem absolute Priorität eingeräumt wird. Damit ist selbstverständlich auch verbunden, dass dieser Alarm fälschlich ausgelöst werden kann, in Form von Stress, Angst und Panik – wiederum mit einer Reihe von Folgeerscheinungen.
Man wird sicherlich keine Maschine entwerfen wollen, die ihren Energieverbrauch in absurde Höhen schraubt, ihre Umwelt angreift oder die Selbstvernichtung einleitet, weil bestimmte Kriterien erfüllt sind, die sie für sich als bedrohlich erkennt. Das wäre im Übrigen sprichwörtlich so berechenbar, dass man der Maschine das gar nicht überlassen müsste. Das können wir nämlich besser.
Was jetzt?
Der Vorteil der Maschine ist, dass sie sich eben nicht aufregt, nicht in Panik gerät, sondern stur ihre Routinen durchführt. Dumm nur, regulär dämlich, dass sie dadurch eben nicht erkennen kann, wenn das nicht ausreicht und verheerende Folgen zu erwarten sind. Das müsste man ihr ebenfalls einprogrammieren, sie auf jede solche Situation vorbereiten, was wir wiederum nicht können. Wüssten wir wiederum, wie das ginge, könnten wir das vor allem selbst trainieren. Es ist aber das Unbekannte, das Unerwartbare, das eben den Überlebensalarm auslöst.
Eine ‘selbstlernende KI’ kann immer nur aus dem lernen, was sie ‘erkennen’ kann, von dem ihr also die Programmierer sagen: Schau dir das an und richte deine Abläufe nach Effizienzkriterien aus. Was Effizienz bedeutet, dummes Ding, muss man ihr auch noch vorgeben. Beim Schach oder Go zu gewinnen, ist einfach zu definieren. Wann aber ein Ding, das uns von A nach B bringen soll, die Richtung ändern, landen, ausweichen oder bremsen soll, ist dezent komplizierter. Vor allem Beinahe-Abstürze können unter echten Bedingungen so schlecht geübt werden.
Doch, ich tu’s!
Bei all dem geht es um Prioritäten. Wie setzt ein intelligentes Wesen Prioritäten? Was ist wann und unter welchen Bedingungen wichtig, weniger wichtig, unwichtig, überlebenswichtig? Grob gibt es für eine ‘KI’ zwei Möglichkeiten, das zu wissen: Man gibt es ihr vor, weil man es weiß – dann muss man aber jeden Fall mit allen Bedingungen berechenbar vorgeben. Oder man lässt sie von realen menschlichen Entscheidungen lernen. Nehmen wir an, das ginge überhaupt, weil es einen Modus gäbe, in dem Prioritäten erkennbar wären:
Liest jemand mit und lacht noch nicht schallend? Schon bei der Betrachtung des eigenen kleinen Lebens, besser noch: den Erfahrungen mit den Prioritäten, denen man so begegnet bei Arbeit, Sport und Spiel – ernsthaft? Wollen wir, dass eine KI lernt, sich besoffen zu prügeln, vor Liebeskummer aus dem Fenster zu springen, ängstlich unter die Decke zu krabbeln oder sich aufzuplustern wie ein notgeiler Pfau? Oder wollen wir vielleicht, dass sie eine sehr gut berechenbare Priorität in allen Lagen setzt, nämlich möglichst sicheren, schnellen und hohen Profit? Das ist nämlich das Einzige, das wir wirklich können.
März 23rd, 2019 at 15:56
Auf den Punkt gebracht.
Wenn das Leben nicht bedroht ist, weil ein Backup existiert … nun, dann muessen wir uns eben anpassen und von uns auch Backups anlegen.
Wenn wir alle unbeschwert durchs Leben gehen koennten, da zu jeder Zeit fuer jede Eventualitaet ein Backup unserer selbst existiert – oh ich vergass, wir koennen nur Profit, und dieser wird eben nur in profitablen Faellen eine Wiederherstellung erlauben.
März 24th, 2019 at 09:15
Erstmal vorweg: Der KI Hype nervt tierisch. Faktisch reden wir hier von neuronalen Netzen. Da gab es in den 0er Jahren tatsächlich einen technischen Sprung. Der ermöglichte halbwegs brauchbare Sprach- und Bilderkennung und sicherlich auch noch ein paar andere Sachen, aber die Technik ist nach wie vor meilenweit davon entfernt, dass man sie intelligent nennen könnte.
Zu deinen Überlegungen: Wenn die Technik wirklich intelligent wird, sie also dazu in der Lage ist ein ähnlich komplexes neuronales Gebilde wie das menschliche Gehirn nachzubilden, hätte sie dann überhaupt noch Vorteile? Ich könnte mir vorstellen, dass mit steigender Komplexität tatsächlich auch die Entscheidungsfindungen immer unschärfer werden. Mit steigender Komplexität erhöht sich auch die Datenbasis (beim Menschen Erfahrungen), die in einen Entscheidungsprozess mit einfließen. Nähert sich damit dann aber nicht vielleicht auch die Entscheidungsfindung der Qualität des Menschen an und ist am Ende dann eventuell manchmal sogar eher irrational?
Und in wieweit geht Intelligenz z.B. überhaupt ohne Emotionen? Also ich weiß das nicht, könnte mir aber gut vorstellen, dass man den Punkt nicht einfach so rausnehmen kann. Immerhin kann man wohl davon ausgehen, dass jegliches tierische Wesen, welches wir mit dem Attribut intelligent versehen, über Emotionen verfügt.
Und ein Aspekt, den Fefe immer wieder thematisiert: Bei KI geht uns die Möglichkeit verloren Entscheidungen/Vorgänge dieser Technik nachzuvollziehen und zu prüfen. Wer ist am Ende verantwortlich? Fefe hatte letztens mal einen Fall gepostet, wo sich eine Firma aufgrund einer Entscheidung ihres Systems auf die Position zurückgezogen hat, dass man die Entscheidung selbst nicht prüfen könne, da sie als Ergebnis eines KI Prozesses quasi hinten rausfällt und der Weg dorthin nicht nachprüfbar sei.
März 24th, 2019 at 09:44
Am Anfang des Missverständnisses, solche ‘KI’-Systeme sollten oder könnten tatsächlich so etwas wie (menschliche) Intelligenz aufbringen, steht wohl auch eine schlampige Übersetzung. Das I in AI steht eigentlich nur für die Art von ‘Intelligence’ wie in ‘CIA’ oder in der Redewendung ‘to gather intelligence’ – also ‘Erkenntnisse sammeln’. Und in diesem Bereich, genauer der Mustererkennung, sind diese Systeme auch tatsächlich stark und dem Menschen in vielen Fällen (zB Hautkrebs- oder Gesichtserkennung) überlegen, wenn auch (noch?) nicht in allen (komplexe Verkehrssituationen).
Der nächste Schritt – auf Grundlage eines erkannten Musters auch Entscheidungen zu treffen – ist, wie man auch gut am Beispiel des sog. ‘autonomen Fahrens’ sehen kann, bereits wesentlich prekärer. Denn dazu müsste sie, wie bereits im Opener dargelegt, ja eben Prioritäten setzen können.
Was die 737 Max angeht – in dem Zusammenhang dürfte das Pilotenzitat wohl stehen – so ist sie schlicht eine eklatante Fehlkonstruktion, was durch dieses sog. ‘Sicherheitssystem’ nur überdeckt werden sollte. Hier haben Menschen falsche Prioritäten gesetzt. Das waren aber auch hier vermutlich keine Ingenieure, sondern mal wieder Betriebswirtschaftler. Deren Prioritäten sind nach Studienabschluss offenbar fest verdrahtet. Und damit wohl auch ohne weiteres durch ‘KI’ ersetzbar. Nur entscheiden sollten solche Systeme besser nichts, da sollte doch noch mal ein Mensch drüber schauen…
März 24th, 2019 at 09:48
@Yossarian – letzter Absatz: das gäbe dann endlich mal eine Religion mit konkreten Gottheiten. Halleluwah!
März 24th, 2019 at 10:48
Am Rande eine schöne Leseübung an einem wirklich schlechten Artikel – weil das Thema eigentich höchst interessant ist.
März 24th, 2019 at 17:00
@Peinhart
Mörsi vielmols. Dass unter Intelligenz durch aus etwas anderes verstanden wird als unter Intelligence leuchtet mir sofort ein. Aber lass’ uns immer wieder darüber labern, am besten noch mit ‘of things” oder ’4.0′ hinten dran.
März 28th, 2019 at 16:26
Hubert Dreyfus, 1972: Man’s nature is indeed so malleable that it may be on the point of changing again. If the computer paradigm becomes so strong that people begin to think of themselves as digital devices on the model of work in artificial intelligence (and forget that this is a paradigm, coming to take it for granted), then, since for the reasons we have been rehearsing, machines cannot be like human beings, human beings may become progressively like machines … Our risk is not the advent of superintelligent computers but of subintelligent human beings. (Destabilizing Orders – Understanding the Consequences of Neoliberalism, pdf, 121 S.)
März 28th, 2019 at 17:07
Hubert Dreyfus: Artificial Intelligence: The Common Sense Problem (yt, 8 Min.)
Volltext: What Computers Can’t Do
Das später geschriebene “What Computers Still Can’t Do” habe ich leider nicht gefunden.
März 28th, 2019 at 17:32
Höchst interessant, Dahinter stecken nicht nur die genannten Probleme – dass das Hirn offenbar fähig ist, millionen von Verknüpfungen zu speichern und das Ähnlichkeitsproblem (‘ähnlich’ und ‘definiert’ widersprechen sich), sondern diese Dinge korrespondieren auch mit Bedürfnissen und körperlichen Erfahrungen. Diese wiederum hat sich vor allem das ‘abendländische’ Denken bislang quasi verboten zu ‘wissen’. Da ist noch reichlich Luft nach oben – wahrlich nicht (nur), weil man dann ‘KI’ besser programmieren könnte.
März 28th, 2019 at 18:47
Mir mag fast scheinen, dass “KI” gar keine so gute Idee ist, vor allem dann nicht, wenn man versucht, eine ganze Bank auf KI aufzubauen, um lästige Lohnkosten zu sparen. Telefon? Pfff. Ziehen Sie ‘ne Nummer im Chat, Opa.
März 28th, 2019 at 21:05
Na ja, @tux.: die Bankkauffrau dät soin: `Buchung erzwingt Gegenbuchung.`Recht hatse, ich sach da moal: ohne Lohnkosten kee Ptoffitt, alte äberlausitsche Geldweisheit…KI is, schrub ich vor geraumer Zeit hier mal, das letzte Aufgebot. Der Wertverfall (Was ist der Wert…?) des Kapitals, und damit des Geldes selbst, nähert sich der liegenden Acht, also unendlich und damit null. Das `grosse Verdienst`des Kap. besteht wohl darin, das Geld vorzeitig an sein Ende geführt zu haben. Und da isses, das Problem…
März 28th, 2019 at 21:31
@langlode: Was allgemein als KI bezeichnet wird, ist so unglaublich primitiv, dass man es als Leistung ansehen kann, für so einen Quatsch Fördergelder zu erhalten. Man braucht eben unglaublich unwissende Politiker.
Und darum geht es. Von einer Basisinnovation, die mal wieder “Wachstum” erzeugen würde, kann man da sicher nicht reden.
Und nein: Ich weiß nicht alles. Aber zu Zeiten meiner Diplomarbeit begann der Hype des “machine learning” – also der neuronalen Netze -, der dann wieder in der Versenkung verschwand.
Und weißte was? Die Institutsprofessoren sind mitunter sehr gute Redner, die ihren Fachbereich aufzuwerten wissen.
März 29th, 2019 at 00:08
Waxtum, Aaabeid und sonstiges Wuuduu sind immer hinreichende Beschwörungsformeln für irgendeinen Scheiß. Die armen Institutsprofessoren müssen halt auch zusehen, wie sie in diesem Verwurstungssystem “überleben”. “Ehrlich” währt da nicht am längsten sondern ist eher tödlich.
März 29th, 2019 at 18:46
@Brexit:
Während des Brexit-Dramas gab es schon den Vorschlag, den Ländernamen „Great Britain“ in „Little Britain“ zu ändern.
Nach dem achtmaligen No-no-no-no-no-no-no-no des britischen Parlaments schlägt der Economist als neuen Ländername vor: „The Silly Isles“ .
In Frage kämen auch: The Funny Isles.
Sollten wir uns um die britische Staatsbürgerschaft bewerben?
März 29th, 2019 at 20:11
Auf ‘Little Britain’ dürfte ja bereits ein fettes © kleben… aber wie wär’s denn mit ‘The Nays Isles’?
März 29th, 2019 at 20:12
Ob ich mich da besser integrieren kann als hier? Wäre ‘ne Überlegung wert, Sprachkenntnisse nicht on top aber vorzeigbar …
Ma gugge ;)
März 29th, 2019 at 20:42
Den Tunnel zumauern … make britain great again
März 29th, 2019 at 21:02
Da helf ich doch glatt, @renée: `Have you no waterclosett, so piss doch in Eimer.`
@R@iner: Seh ich ähnlich, wobei ich nich der Techniker bin. Eher der Handwerker. Und e bissl rechnen kanch och…
Das Spiel is so was von abgepfiffen…jedes ztewe Wort was de hörscht…Geld, Geld, Geld, Geld…es macht keen Spass mehr…
März 29th, 2019 at 21:42
Wenn wir schon Techniker, Inschenöre und Wissenschaftler hier haben, können wir doch selber ne untaugliche Vision verhökern ;-)
März 29th, 2019 at 22:20
#19
Genau so und nicht annerster, wie der Hesse sacht.
Habe heute gelesen, Intel Chips haben ein verstecktes Mini-Betriebssystem. Hoffentlich die von Chio nicht auch …
März 29th, 2019 at 22:22
Great idea!
März 29th, 2019 at 23:10
Na das is mal große Kunst hier!
März 30th, 2019 at 00:13
Ja, stell dir mal vor, wenn die Chio Chips dein Betriebssystem unterwandern …
Esst das bloß nicht.