in dieser Ausgabe: die wahren Gefahren von A.I., das Problem mit The Last of Us & Co. und ein sehr guter Video-Essay über einen mittelmäßigen Film

Liebe Leser*innen,

A.I. ist derzeit ja eins der Reizthemen in den sozialen Medien, und auch dieser Newsletter kommt nicht daran vorbei. In dieser Ausgabe findet ihr einige Überlegungen und lesenswerte Texte zum Thema. Außerdem möchte ich zwei hübsche Essays mit euch teilen, die einen kritischeren Blick auf die Critical Darlings The Last of Us und Top Gun Maverick werfen.

was ich in letzter Zeit so gemacht habe

  • Der zweite Teil meines Gastauftritts im Tales of… Podcast ist raus.
  • Mein Improv-Team Twinkies, Ho Hos & Ding Dongs hatte kürzlich seine Debüt-Show. Es war gleichzeitig die Premiere unseres eigenen Longform-Formats »Judgment City«, nach einer Idee von your’s truly, das zu entwickeln und zu performen eine der befriedigenderen kreativen Erfahrungen meines Lebens war. Wen’s interessiert, hier ein paar Impressionen. Besucht unsere Website und folgt uns in den sozialen Medien, wir sagen bald neue Termine an!

Das Gefährliche ist nicht »rogue« A.I., sondern A.I., die genau so funktioniert wie gedacht

Letzte Woche habe ich ja schon kurz Ray Naylers The Mountain in the Sea empfohlen. Ein Grund, warum ich Naylers Roman für essenziell halte, ist dass er sehr treffend illustriert, was die wirklichen Gefahren von künstlicher Intelligenz sind. In einem Subplot geht es um die Crew eines industriellen Fischerschiffes — Sklaven, die entführt wurden und nun zur Arbeit auf dem Schiff gezwungen werden. Die Sklaven schaffen es, ihre Wärter zu überwältigen, und für einen Moment scheint es, als hätten sie ihre Freiheit zurück. Dem steht allerdings die A.I. des Schiffes im Wege: Sie behält den vorprogrammierten Kurs bei, versperrt den Weg in den Motorenraum des Schiffes, und hält automatisch Essensrationen zurück, bis die Crew wieder anfängt, zu fischen. Nicht, weil sie irgendeine Art von Bewusstsein entwickelt hätte und sich gegen die menschliche Besatzung auflehnen würde, sondern weil sie von dem Konzern, dem das Schiff gehört, genau so programmiert wurde. »Turns out, the guards were mostly there for show, and to make convincing us a little easier«, sagt einer der Sklaven.

Die größte Gefahr von A.I. ist nicht ein Skynet-Szenario, in dem künstliche Intelligenzen aufhören, zu tun, was wir von ihnen verlangen und sich gegen uns auflehnen. Die größte Gefahr ist K.I., die genau das tut, wofür sie gedacht ist. K.I. muss gar nicht besonders weit entwickelt sein, muss definitiv kein »Bewusstsein« haben oder was auch immer, um gefährlich zu sein. Sie muss nur von Menschen, oder, schlimmer und wahrscheinlicher, Konzernen kontrolliert werden, die schädliche Intentionen haben.

In Zeiten des Hypes um ChatGPT, Midjourney und ähnliche Tools muss man nicht lange suchen für solche schädlichen- Einsätze von A.I. Ich mein, es fängt ja schon mit der Funktionsweise der Tools selbst an: Das, was wir derzeit »künstliche Intelligenz« nennen, ist in Wahrheit ja nur das Erkennen und Reproduzieren von Mustern, und das Rohmaterial, von dem A.I.-Tools »lernen«, i.e. das sie neu zusammensetzen, um »neuen« Output zu kreieren, ziehen sie von überall im Netz, nicht immer mit der Zustimmung der ursprünglichen Urheber. Die Ergebnisse können, egal wie oft irgendwelche Tech-Bros den Output ihrer Midjourney-Anfragen mit dem Kommentar »It is so over« auf Twitter teilen, noch lange nicht und wahrscheinlich niemals adäquat menschliche Arbeit ersetzen. Aber das müssen sie auch gar nicht: ChatGPT, Midjourney & Co. sind gefährlich für Autor*innen und Künstler*innen, nicht weil sie tatsächlich Output produzieren, der qualitativ vergleichbar ist mit dem menschlicher Urheber*innen; sondern weil die Betreiber*innen der Content-Mühlen bereit sind, sich mit billigem Ramsch zufrieden zu geben, solange der eben, nun ja, billiger ist als die Werke von menschlichen Autor*innen, Grafiker*innen etc.

Über ein von A.I. verursachtes Problem, das viele von uns wohl nicht auf der Rechnung hatten, schrieb kürzlich Neil Clarke, Chefredakteur des Science-Fiction-Magazins Clarkesworld: Seitdem A.I.-Chatbots an Popularität gewinnen, steige die Anzahl A.I.-generierter Spam-Einsendungen bei Clarkesworld exponentiell, bis zu dem Grad, dass das Magazin zunächst keine Einsendungen mehr akzeptiert. Das ist bedauerlich, ist Clarkesworld doch eigentlich eine der wenigen Adressen für Sci-Fi-Autor*innen, die immer Einsendungen annehmen (viele andere Magazine tun das nur in kurzen Zeitfenstern). Wie Clarke feststellt:

It’s clear that business as usual won’t be sustainable and I worry that this path will lead to an increased number of barriers for new and international authors. Short fiction needs these people.

Sci-Fi-Autor Lincoln Michel spekuliert in einem lesenswerten Text, welche Sorte Mensch solche Spam-Einsendungen generieren und einsenden:

Who are the type of people who want to publish without putting in the work? I can imagine plenty of types. The frustrated writer who decides to brute force their way into a publication history. The type of person who thinks art is about ideas” not execution. The person who fancies themselves an artist yet hasn’t had the time” to write the genius work in their head. Tech world trolls. And perhaps people who think publishing could be an easy buck (Neil Clarke at Clarkesworld said some of the banned submitters claimed responded But I really need the money”).

Er kommentiert:

These A.I.” art and writing programs are being pitched as egalitarian and democratic. A way for every person to be an artist or writer. The results are likely to be the opposite. The rich tech elite getting richer and the gates getting higher while everything gets harder for everyone else.

Wem dieses Beispiel zu nischig ist, der schaue auf das A.I.-Wettrüsen zwischen Microsoft und Google. Beide arbeiten derzeit daran, A.I. — ChatGPT im Falle von Microsoft, die eigene BardAI im Falle von Google — in ihre Suchmaschinen zu integrieren. Die Ergebnisse sind auf den ersten Blick amüsant — »Microsoft’s Bing is an emotionally manipulative liar, and people love it« titelt The Verge —, aber, wie Ed Zitron in seinem Newsletter erklärt, nicht ungefährlich:

What happens if Bing AI or Bard becomes so widespread that they become sources of information that consumers rely on? What happens if Bing AI tells somebody suffering from crippling depression that they have not been a good user” at the wrong time? What happens if somebody relies on Bing for advice” and that advice results in them doing something unethical or illegal? While these are problems one might have with ChatGPT itself, they become much more pronounced when the source of this information is a search engine, which is a product that hundreds of millions of people have been conditioned to trust and respect?

Nachdem die Crypto-Blase geplatzt ist, ist A.I. das neue große Ding in der Tech-Industrie. Die spezifische Art von Hirnwürmern, unter denen Tech-Menschen leiden, diktieren, dass dieses Ding, wie Blockchain-Technologie zuvor, jetzt überall eingebaut werden muss, egal, ob das irgendein Problem löst oder nicht. Wer etwas auf Google sucht, muss sich schon jetzt durch Absatz über Absatz von Spam arbeiten, inhaltsloses Füllmaterial, das einzig existiert, weil der Google-Algorithmus Artikel ab einer gewissen Länge bevorzugt behandelt. ChatGPT ist nicht in der Lage, Text zu produzieren, den es sich wirklich zu lesen lohnt, aber es kann die Produktion solches Füllmaterials automatisieren. Und anstatt daran zu arbeiten, solchen A.I.-generierten Textramsch herauszufiltern — tatsächlich ein Problem zu lösen, dem User*innen von Suchmaschinen in Zukunft vermehrt begegnen werden —, entscheiden Google und Microsoft sich, ihre Suchmaschinen noch mehr Ramsch generieren zu lassen. Warum? Zitron schreibt:

[B]oth Microsoft and Google were desperate to show that they will never, ever stop growing. They did not slowly and methodically roll out these products with constant reminders of their fallibility - they branded and marketed them as the future, as the new way in which we request and process information. Microsoft and Google’s customers are victims of rich people playing with toys, hoping to find ways to please rich people that invest the money of other rich people.

The Last of Us & das Problem mit dem Post-Apokalypsen-Genre

Ich habe noch keine Folge der HBO-Adaption von The Last of Us gesehen und hab das zumindest in unmittelbarer Zukunft auch nicht vor. Ist bestimmt ganz okay. Diesen Essay bei Polygon von Susanna Polo fand ich aber auch ohne Kenntnis der Serie sehr lesenswert, weil er sehr treffend ein Problem artikuliert, dass ich mit weiten Teilen des Post-Apokalypsen-Genre habe (und das wir auch in der letzten Folge von Doomscroll’d angeschnitten haben): Die Theorie vom »Thin Veneer«, der weite Teile des Genres anhängen — die Hobbes’sche Idee, dass es gesellschaftliche Systeme sind, die Menschen zum moralischen Handeln zwingen, und dass wir im Falle des Zusammenbruchs dieser Systeme wieder in unseren »Naturzustand« von Brutalität und Egoismus zurückfallen würden — ist nicht nur nachweislich Bullshit, sie steht auch aktiv dem Hinterfragen gegebener Verhältnisse im Wege und verfestigt so bestehende Ungerechtigkeiten. Wie Polo schreibt:

Either you think that this is how you would behave if societal codes and conventions broke down, and if you would, then everyone else would, because the idea that you’re monstrous beyond the mean is unthinkable. Or, worse, you don’t think that you would, but you think that other people definitely would, an idea just a step away from My people would never do this, but they would” — a line right out of the How to perpetuate the hierarchy that puts you at a societal advantage” playbook of the Committee for Colonialism and Genocide Throughout Human History.

Warum ein so mittelmäßiger Film wie Top Gun Maverick zu hoher Kunst hochgejazzt wird

Top Gun Maverick ist, in meinen Augen, ganz okay, eine klassische 6/10, ein Film, mit dem man einen angenehmen Abend verbringen kann, den man aber vergessen hat, bevor der Abspann zu Ende ist. Mir ist bewusst, dass der Film irgendwie »wichtig« für das Überleben des Kinos ist, dass es der Film war, der die Menschen nach Covid wieder in die Kinosäle gelockt hat, und das respektiere ich, aber das ist meines Erachtens eher ein Marketing-Erfolg und macht den Film nicht zu mehr als er ist.

Weite Teile der cineastischen Welt sehen das anders: Die Kritiker*innen haben den Film gefeiert, und er hat eine absurde Anzahl an Oscar-Nominierungen bekommen, inklusive völligen Gaga-Nominierungen wie einer für das beste adaptierte Drehbuch. Ganz ehrlich: Ich hab seit ich den Film gesehen habe ein Bisschen das Gefühl, den Verstand zu verlieren, so bizarr finde ich es, wie Menschen, die sich für Connaisseure von Filmen-als-Kunst halten, diesen Film zu einem Meisterwerk der Kunstform hochjazzen.

Entsprechend therapeutisch war es für mich, diesen Video-Essay von Eyebrow Cinema zu sehen, der den Film als das sieht, was er ist — mid —, und einordnet, warum viele mehr in ihm sehen als er wirklich zu bieten hat.

was sonst noch?

Ich hab in letzter Zeit mal wieder mehr Zeit mit Hintergrundgefrickel verbracht als mit Inhalten, aber wird auch wieder anders. Im Laufe der Woche kommen noch ein paar Filmreviews, und dann will ich mich endlich mal wieder The Magic Circle und anderen Podcast-Projekten widmen. Neben Improv war es in letzter Zeit schwer, die Zeit dafür zu finden, und dann waren da ein paar frustrierende Fehlstarts und, naja, war einfach eine Weile keine Priorität. Also, ähh, look forward to that, at some point.

Die nächste Ausgabe des Newsletters kommt wahrscheinlich in einer Woche (wir experimentieren hier noch ein Bisschen mit dem Rhythmus, bear with me). Bis dahin: Danke fürs Lesen!


Tags
mail

Date
March 1, 2023