Chat GPT und The Age of AI

Chat GPT und The Age of AI

Die Diskussion um Künstliche Intelligenz  nimmt seit der Einführung von Chat GPT nun einen rasanten Lauf. Zum einen erst einmal unabhängig von der Frage des Nutzens und der gesellschaftlichen Anwendungen, wird dies als disruptive Technologie gesehen, die man besitzen muss, um nicht zu einer digitalen Kolonie von Tech-Konzernen und anderer durchdigitalisierter Nationalstaaten zu werden. So nun auch die bange Frage, ob SAP durch den Zukauf von Aleph Alpha ein europäischer KI-Airbus gegen chinesische, indische, israelische  und amerikanische Konkurrenz aus dem Silicon Valley werde könne oder aber das Schicksal Nixdorfs teilen wird, wobei sich dann auch wieder Diskussionen über Industriepolitik oder Marktliberalismus anschliessen werden, wobei etwa Sascha Lobo Industriepolitik ablehnt aufgrund der gescheiterten Versuche, ein deutsches Facebook zu etablieren, zumal die KI auch maßgeblich von der weiteren Entwicklung der Quantencomputer katalysiert werden wird, wofür Söder ja das Quantum Valley bei München gründen ließ.

„Aleph Alpha : SAP greift nach Künstlicher Intelligenz

Aleph Alpha aus Heidelberg kann technisch mit amerikanischen KI-Anbietern mithalten. Um von ChatGPT und Co. nicht abgehängt zu werden, wäre das Kapital von SAP wertvoll.

Der Softwarehersteller SAP will das Geschäft mit Künstlicher Intelligenz (KI) nicht nur den Amerikanern überlassen. Der Konzern verhandelt nach Informationen der F.A.Z. über einen Einstieg beim Heidelberger Start-up Aleph Alpha .

Das junge Unternehmen, im Jahr 2019 gegründet vom ehemaligen Apple-Manager Jonas Andrulis, gilt als einer der größten Hoffnungsträger für eine eigenständige europäische KI. Das Programm „Luminous“ kann nach Unternehmensangaben mit ChatGPT des Marktführers Open AI mithalten. Dies hatten die im Februar veröffentlichten Ergebnisse eines standardisierten Leistungsvergleichs ergeben.

SAP will sich nach Informationen aus dem Umfeld des Konzerns in der jetzt laufenden zweiten Finanzierungsrunde beteiligen, die Rede ist von einem Betrag unter 100 Millionen Euro. Die Entscheidung dürfte in den kommenden zwei bis drei Wochen fallen. SAP selbst wollte sich auf Anfrage dazu am Donnerstag ebenso wenig äußern wie Aleph-Alpha-Gründer Jonas Andrulis.

Eine neue Qualität der Künstlichen Intelligenz

Seit Monaten hält die Software ChatGPT die Welt in Atem. Im Herbst hatte Open AI sein revolutionäres Sprachmodell der Version 3.5 dieser „generativen KI“ veröffentlicht. Das Programm ist deutlich leistungsfähiger als vorherige Software. Der Chatbot kann Gedichte oder Aufsätze schreiben und vieles mehr.

Der Softwarekonzern Microsoft stockte daraufhin seine Beteiligung um zehn Milliarden Dollar auf und inte­grierte die KI in seine Internetsuchmaschine Bing. Kürzlich wurde die Sprachmodellversion GPT4 vorgestellt, die auch mit Bildern arbeitet. Mittlerweile sind auch andere Tech-Riesen wie der Google-Mutterkonzern Alphabet mit entsprechenden Konkurrenzprodukten an die Öffentlichkeit gegangen.

Die Fachwelt ist sich weitgehend einig, dass diese neue Qualität der Künstlichen Intelligenz das Zeug zu weitreichenden Änderungen, wenn nicht Umwälzungen, in Wirtschaft und Gesellschaft hat – im Guten wie im Schlechten. Deshalb forderten am Mittwoch namhafte Forscher und Technologieunternehmer in einem offenen Brief, die Arbeit an solchen KI-Systemen für mindestens sechs Monate zu unterbrechen, um das Thema zu durchdringen und bewerten.

Für Aleph-Alpha-Gründer Andrulis ist das keine sinnvolle Maßnahme. Die meisten der Unterzeichner arbeiteten gar nicht an dieser KI, sagte er der F.A.Z. Auch sei fraglich, ob wirklich jeder bereit wäre, die Arbeit einzustellen.

Andrulis sieht neben den Chancen der Technologie ebenfalls enorme Risiken. Die Antwort darauf liegt für ihn aber in der raschen Entwicklung eigener Anwendungen: „Wir müssen gestalten, nur ablehnen und regulieren wird das Problem nicht lösen.“ Aufgrund der Dominanz von ChatGPT und Microsoft werden in der Tech-Szene zunehmend Forderungen nach mehr Vielfalt laut.

Aleph Alpha hatte 2021 eine Finanzierungsrunde über rund 23 Millionen Euro erfolgreich abgeschlossen. Damit wurden die Zahl der Mitarbeiter auf rund 50 erhöht, ein schnelles KI-Rechenzentrum in Bayreuth aufgebaut und Referenzprojekte gestartet, etwa mit der Stadtverwaltung in Heidelberg. Doch ChatGPT hat die Ausgangslage komplett verändert.

Ein Einstieg von SAP läge nahe

„Auf uns rollt eine 20-Milliarden-Dollar-Dampfwalze von Microsoft zu“, sagt Andrulis mit Blick auf die schier unbegrenzten Finanzmittel der Amerikaner. Um nicht komplett abgehängt zu werden, müssen die Nordbadener in diesem Jahr ihre nächste Finanzierungsrunde (Serie B) stemmen. Im Raum steht eine Summe in dreistelliger Millionenhöhe.

Da läge ein Einstieg von SAP nahe, dessen Hauptsitz in Walldorf nur einen Steinwurf von Heidelberg entfernt ist. Im Januar hatte SAP-Vorstandssprecher Christian Klein der F.A.Z. gesagt, SAP nutze ChatGPT schon, auch zum Programmieren. SAP sei „ein bisschen ein Testlabor für neue Technologien, und wenn es passt, werden wir die Programme auch in die Standardentwicklung implementieren“. Zugleich zeigte er sich skeptisch. Vieles was die Apps böten, gebe es schon. „Was wir jetzt erleben, ist noch mal die nächste Evolution. In hochkomplexen Applikationen wird der Faktor Mensch jedoch nicht verschwinden. Das Wissen um die Indus­trie und ihre Geschäftsprozesse bleibt bei ihm. Da habe ich keine Bedenken.“

Die demonstrative Unaufgeregtheit des SAP-Chefs sollte freilich nicht verbergen, dass KI auch einen Konzern wie SAP fundamental verändern könnte. Neben der direkten Betroffenheit geht es SAP nach Informationen aus dem Umfeld des Konzerns aber auch schlicht darum, seiner Rolle als Europas größtem Softwarekonzern gerecht zu werden.

Sollte Aleph Alpha tatsächlich zum Nukleus eines europäischen KI-Konzerns werden, wäre SAP mit dabei. Finanziell wäre die Beteiligung für SAP ein Klacks. Der Konzern hat in den vergangenen zehn Jahren mehr als 30 Milliarden Euro für eine ganze Reihe von Unternehmen ausgegeben. Zudem investiert SAP nach wie vor Milliardenbeträge in Investmentfonds der selbständigen Risikokapital-Tochtergesellschaft Sapphire Ventures.

https://m.faz.net/aktuell/wirtschaft/unternehmen/sap-greift-nach-kuenstlicher-intelligenz-von-aleph-alpha-aus-heidelberg-18788466.html

Ebenso werde schon die möglichen Auswirkungen auf den Arbeitsmarkt erörtert, wie etwa Sascha Lobo im SPIEGEL, der konstantiert, dass die meisten Geistesarbeiter bisher noch nicht die kommende technologische Revolution und ihre Auswirkungen auf ihre eigene Stellung registriert hätten, zum einen aufgrund technologischer Illiteralität und Unwissen, sowie Vorurteilen, zum anderen wegen des festen Glaubens menschliche Kreativität könne nicht durch KI ersetzt werden. Faktisch würden massig Leute entlassen oder deklassiert werden mit niedrigeren Löhnen oder prekären Arbeitssverhältnissen, ja auch Arbeitslosigkeit (was Befürworter des bedingungslosen Grundeinkommens wie Ex- Siemenschef Pierer oder einige Hightechgurus aus dem Silicon Valley wieder Auftrieb geben könnte). Ja vielleicht wäre es auch mit der Existenz als digital nomad bald vorbei. Hingegen sieht Lobo die KI als positiv, da sie den Fachkräftemangel kompensieren kann, sei es dadruch, dass sie die Diagnose- und Therapiefunktionen von Psychlogen, Psychotherapeuten übernimmt, auf deren Termine man ewig wartet. Sicherlich auch übertragbar auf Ärzte, manche sehen ja auch Verwaltungsbeamte, Buchhalter, Richter und Anwälte dzrch KI ersetztbar.

„Künstliche Intelligenz und Arbeitsmarkt Wo bleibt Ihr Aufruhr?

Eine Kolumne von Sascha Lobo

Glauben Sie wirklich, künstliche Intelligenz könne Sie auf Ihrem schönen Kreativarbeitsplatz nicht ersetzen? Sie werden sich wundern.

01.03.2023,

Alle paar Jahre habe ich diesen wiederkehrenden Albtraum: Ich befinde mich in einer Welt, die der realen fast vollständig gleicht. Bis auf ein Detail, das dafür aber komplett anders ist. Die Details können unterschiedlich sein, zum Beispiel, dass die Farben der Verkehrsampeln nicht Rot, Gelb und Grün, sondern Rot, Gelb und Blau waren. Das ist alles, nur dieser minimale Unterschied. Der Traum fühlt sich vor allem wie ein Albtraum an, weil alle Menschen um mich herum so tun, als sei das normal. Dabei sind doch Ampeln grün!

Am Ende geht es darum, dass entweder Normalität vorgetäuscht wird, wo keine ist. Oder, dass die absolute Außergewöhnlichkeit einfach nicht erkannt wird. Ein ungefähr diesem Albtraum entsprechendes Störgefühl hat sich bei mir in den letzten Wochen verfestigt, und ich möchte ihm nachspüren. Es lässt sich zusammenfassen als: Wo bleibt der KI-Aufruhr?

Dahinter steht meine feste Überzeugung, dass wir soeben den öffentlichen Start einer Revolution miterleben, die mindestens so groß wird die Industrialisierung oder die flächendeckende Einführung der Elektrizität. Mein Störgefühl speist sich daraus, dass unglaublich wenige Menschen zu realisieren scheinen, wie radikal die Umwälzungen durch künstliche Intelligenz sein werden. Insbesondere auch solche, die es eigentlich wissen müssten.

In den letzten Wochen habe ich mit vielen Menschen gesprochen, deren berufliche Hauptaufgabe es ist, Texte zu verfassen. Nicht eine einzige Person darunter hat auch nur den Anflug einer Sorge um den gegenwärtigen Job erkennen lassen, obwohl sich viele der Gespräche um KI und deren Fähigkeiten gedreht haben.

Soeben hat der Verlag Axel Springer seinen Umbau angekündigt – insbesondere wegen künstlicher Intelligenz, die »Journalismus und Mediengeschäft revolutionieren« werde, und weil KI den Journalismus »unterstützen oder ersetzen« könne. Die Rede ist von Automatisierung der journalistischen Produktion. Eigentlich müsste das eine Nachricht von größter Sprengkraft sein, aber sie wird von potenziell unmittelbar betroffenen Journalist*innen fast wie eine Nebensächlichkeit diskutiert.

Man spürt förmlich die Haltung: »Haha, ja klar, welche KI soll mein großartiges Textwerk denn ersetzen?«. Und natürlich singt die Gewerkschaft das Lied von der Überlegenheit der menschlichen Leistung, wörtlich: »journalistische Vielfalt«  , die offenbar nur mit menschlicher Intelligenz möglich sei.

Das halte ich für eine spektakuläre Fehleinschätzung der Wirkmacht dieser Technologie. Es ist eine Frage der Zeit, bis im SPIEGEL regelmäßig Artikel erscheinen, die von einer künstlichen Intelligenz produziert werden. Und Podcasts. Und Filme.

Ein Teil des Journalismus kann sofort durch KI ersetzt werden

Die gesellschaftliche Debatte und die Leute, die sie führen, sind schon immer schlecht darin, die Wirkmacht von Technologien richtig einzuschätzen. Insbesondere in Deutschland. Über Twitter wurde 2008 diskutiert, als käme es direkt aus der Hölle und würde Gehirne fressen. Google Street View löste 2010 eine Debatte aus, als hätte Google angekündigt, Deutschlands Badezimmer sämtlich mit öffentlichen Livekameras auszurüsten. Ab etwa 2012 wurde wegen Instagram einer ganzen Generation unterstellt, narzisstisch, egoistisch, depressiv und überhaupt psychisch krank zu sein.

Noch 2014 lachte man über die abgedrehten Knalltüten, die auf Elektromobilität setzten, 2016 ergossen sich Häme und Massenverachtung über die Leute, die Pokémon Go spielten und so weiter – praktisch jedes Mal entstanden große, gesellschaftliche Debatten über Für und Wider, über Konsequenzen und Umgangsstrategien. Es ist also nicht so, als könne Deutschland nicht groß über Techthemen debattieren, auch wenn das meiste davon abwehrend, negativ, pessimistisch ist. Aber im Vergleich etwa zur hyperventilierenden Gigantodiskussion über Google Street View samt X Talkshows und Titelseiten ist die gegenwärtige KI-Debatte winzig, harmlos und irrelevant.

Wir erahnen gerade erst mit Instrumenten wie ChatGPT den Anfang einer Alltag prägenden künstlichen Intelligenz. Jeder Techkonzern ist dabei, eigene KI-Produkte oder gleich ganze Systemlandschaften zu entwickeln. Zuletzt hat Meta-Chef Mark Zuckerberg eine eigene »generative AI« angekündigt . Die Basis dafür ist »LLaMA«, ein eigenes »LLM«, was Large Language Model heißt und im Kern daraus besteht, Sprache computernutzbar zu machen.

ChatGPT zum Beispiel ist ein LLM. Es funktioniert über eine lernende Mustererkennung, die Wahrscheinlichkeiten berechnet, etwas vereinfacht gesprochen: Welches Wort kommt wie wahrscheinlich in einem Text über Kartoffeln nach dem Wort »kochen«? Auf diese Weise wringt die KI einen statistischen Sinn aus den Abermilliarden Worten und Wortteilen, die sie im Training ausgewertet hat.

Ich kann nur wiederholen, dass jede Person umgehend ausprobieren sollte, wie ChatGPT funktioniert. Das geht auch auf Deutsch, und wenn man nicht abwehrend herangeht, wird man einerseits sehr fasziniert sein. Und andererseits sehr alarmiert, wenn man auf die verschiedenen beruflichen Aufgaben schaut. Ein Teil des Journalismus kann nämlich sofort durch KI ersetzt werden, Gewerkschaft hin oder her. Ein Teil schöpferischer Textarbeiten, ein Teil juristischer Textarbeiten, ein Teil klassischer Büro- und Organisationsarbeiten ebenso.

Bis vor einiger Zeit haben viele Leute, selbst Expert*innen, behauptet, »Kreativität« sei eine der Stärken, die die Maschine niemals ersetzen könne, weshalb man beruflich auf Kreativität setzen solle, um sich zukunftssicher aufzustellen. Das war schon damals Unfug, weil zum Beispiel in klassischen deutschen Konzernen »Kreativität« nur selten und erst recht nicht in allen Abteilungen gefragt ist.

Jetzt ist es doppelt Unfug, weil KI schöpferisch tätig ist. Und das jetzt schon, ganz am Anfang, in einer Qualität, die viele Menschen gar nicht erreichen. Spaßeshalber hier eine sehr unvollständige Aufzählung von Tätigkeiten, für die Menschen bisher bezahlt werden, die inzwischen Maschinen viel günstiger hinbekommen: Übersetzungen, Betriebsanleitungen und Anleitungsbücher schreiben, Verträge abgleichen und auswerten, Texte oder ganze Bücher zusammenfassen, Symbolfotos, Funktionszeichnungen oder Illustrationen anfertigen, Fragen zur Funktionsweise von Software beantworten, Excel-Tabellen strukturieren, Nachhilfe leisten, Nutzwert- oder Informationsartikel verfassen, eine Videokonferenz strukturiert zusammenfassen, Werbeanzeigen und ganze Kampagnen erstellen, buchen und ausliefern, Logos entwerfen, Drehbücher schreiben, Musik produzieren, Anleitungsvideos erstellen, Apps und Websites programmieren.

KI ist für den Fachkräftemangel ein Segen

Für fast jede dieser Aufgaben gibt es unterdessen Dutzende Anbieter. Wer sich dafür näher interessiert, schaut auf einer der vielen KI-Toolsammlungsseiten wie eluna.ai oder futurepedia.io nach. Natürlich sind manche der KI-Instrumente qualitativ noch nicht optimal aufgestellt, um es sanft auszudrücken. Trotzdem ist es kein sinnhaftes Argument mehr zu sagen: Dieser KI-Artikel ist zu schlecht, um eine Autorin zu ersetzen, oder diese App ist viel schlechter in Nachhilfe als unser Nachhilfelehrer.

Denn das entscheidende Wort lautet: noch. Es gibt seit Jahren eine immer besser werdende KI-Therapeutin namens Cass . Sie hat einen großen Vorteil: Sie ist immer verfügbar. Manchmal ist schon heute eine mittelgute, verfügbare Maschinentherapeutin besser als eine wirklich großartige, sehr erfahrene menschliche Therapeutin, die erst in acht Monaten einen Probetermin anbieten kann.

Es ist oft die Rede davon, dass Technologie keine Jobs vernichte, sondern nur verschiebe, und das trifft im Großen und Ganzen wahrscheinlich auch auf künstliche Intelligenz zu. Aber diese Verschiebung bedeutet in Zeiten von KI für die Betroffenen oft, dass ihre wichtigsten Fähigkeiten weniger wert werden. Natürlich ist KI für den Fachkräftemangel ein Segen, weil hinter diesem Mangel oft ein anderer Mechanismus steht: Wir brauchen jemanden mit Fähigkeit X; die Person einzustellen, lohnt sich aber nur, wenn sie maximal Y verdient. Mit künstlicher Intelligenz aber bekommt man plötzlich hohe Qualität zum Preis einer Arbeitskraft, die die Arbeit selbst nicht beherrschen muss, sondern nur eine Maschine verwaltet. Oder hundert Maschinen verwaltet.

Wir stehen vor einer KI-Revolution, mindestens so groß wie die Industrialisierung, und sie wird in den nächsten fünf Jahren Leute betreffen, die heute nicht einmal davon albträumen, durch Maschinen ersetzt zu werden. Oder eben: in schlechter bezahlte Jobs verschoben zu werden. Das ist der vielleicht größte Unterschied zu allen bisherigen Automatisierungen durch Technologie: Bisher waren von Automatisierung vor allem Leute in Fabriken und Werkstätten betroffen, also Arbeiter. Diesmal sind die Leute in den Büros betroffen, die mit Abitur und Studium, mit Karriereplan und Assistenz, mit Anzug und Kostüm.

Wo also bleibt der KI-Aufschrei? Wo bleibt die große KI-Debatte? Wo bleibt der KI-Aufruhr? Oder sind Ampeln wirklich blau?

https://www.spiegel.de/netzwelt/netzpolitik/kuenstliche-intelligenz-und-arbeitsmarkt-wo-bleibt-ihr-aufruhr-kolumne-a-baeca169-6eb4-43af-b919-b4347616db03

Na, die KI- Debatte läuft ja voll, wenngleich noch kein Aufruhr. So etwa auch in Richtung, ob nun auch CEOs und Manger durch KI ersetzt werden können, wie etwa hier in der ZEIT:

„KI in Führungspositionen: An der KI-Chefin ist nichts zukunftsweisend

Sie beschäftige eine künstliche Intelligenz als Geschäftsführerin, sagt eine chinesische Softwarefirma. Die Idee dahinter ist nicht neu – und sie bleibt gefährlich.

Ein Kommentar von Eva Wolfangel

27. März 2023,

Das chinesische Softwareunternehmen Netdragon Websoft beschäftigt seit einem halben Jahr eine künstliche Intelligenz (KI) als Geschäftsführerin eines seiner Tochterunternehmen – ein Schritt, der dem Unternehmen wirtschaftlich nicht geschadet zu haben scheint: Der chinesische Spieleentwickler gab heute an, im vergangenen Jahr fast zwölf Prozent Umsatzwachstum verzeichnet zu haben.

Die KI als Chefin – diese Nachricht wird nicht nur vom Unternehmen selbst, sondern auch von einigen Techmagazinen als Zukunftstrend gefeiert, während andere darüber diskutieren, dass es zumindest eine große Einsparung wäre, wenn CEOs durch Maschinen ersetzt würden. Aber an algorithmischem Management ist nichts zukunftsweisend:  Ähnliche Ideen sind in der Vergangenheit nicht nur gescheitert, sie sind auch gefährlich.

Zunächst: Vieles spricht dafür, dass es sich bei der KI-Geschäftsführerin vor allem um eine Marketingaktion des chinesischen Spieleentwicklers handelt: Wie viel die KI in dem Unternehmen, das immerhin einen Jahresumsatz von mehr als zwei Milliarden Dollar macht, tatsächlich ganz allein und ohne menschlichen Eingriff entscheidet, lässt sich von außen schwer beurteilen. Die Presseerklärung des Unternehmens vom August vergangenen Jahres strotzt vor Buzzwords: So sei die Ernennung eines KI-gesteuerten virtuellen humanoiden Roboters zum „rotierenden CEO der Vorzeige-Tochtergesellschaft Fujian NetDragon Websoft Co.“ als Chefin nur der erste Schritt, um zu einer „Metaverse-basierten“ Firma zu werden. Ms. Tang Yu – so hat der Konzern die neue CEO genannt –  werde rationale Entscheidungen im Tagesgeschäft treffen und „einen fairen und effizienten Arbeitsplatz für alle Mitarbeiter gewährleisten.“

Solche Sätze klingen, als habe sie jemand vor mehr als zehn Jahren auf seinem iPhone 4 aufgenommen und nun wieder abgespielt: Es sind genau die gleichen Hoffnungen, die damals von Tech-Enthusiastinnen geäußert wurden: eine künstliche Intelligenz, die vermeintlich objektiver entscheidet, leistungsfähiger ist, bei der es alle Mitarbeiterinnen besser haben. Maschinelle Systeme seien schließlich rational und frei von Emotionen, hieß es damals, und im Kampf um die besten Köpfe könne man sich die Vorurteile des Chefs nicht leisten. Der Hauptunterschied zu heute ist: Damals wusste man es noch nicht besser.

Mit der Vergangenheit trainiert

Die Idee, dass maschinelle Systeme in der Arbeitswelt bessere Entscheidungen über Menschen treffen könnten als Menschen, weil sie nicht emotional seien, ist so alt wie die KI-Forschung selbst – und in der Praxis immer wieder widerlegt worden. Am bekanntesten ist das Beispiel des US-Techkonzerns Amazon, der bereits 2014 eine KI entwickelt hat, die – wie die Öffentlichkeit erst vier Jahre später erfuhr – Bewerbungen von Frauen systematisch abwertete. Einfach deshalb, weil das System mit Daten der Vergangenheit trainiert worden war und davon ausging, dass Amazon gerne weiterhin vor allem weiße Männer einstellen will.

KI sind Systeme maschinellen Lernens, die Muster und Zusammenhänge auf Basis von Daten aus der Vergangenheit lernen – und damit alle Vorurteile, die tief mit der Geschichte der Menschheit verwoben sind. Als die Versuche von Forscherinnen ausgefeilter wurden, KI von Vorurteilen zu befreien, wurden die selbstlernenden Systeme besser darin, Muster zu finden, die auf ethnische Hintergründe verweisen könnten. Oder sie entwickelten andere Kriterien, die auf Vorurteilen basierten. Beispielsweise, dass Menschen mit einem Bücherregal im Hintergrund gewissenhaftere Bewerber seien als diejenigen ohne. Heißt: Die KI ist nicht freier von Vorurteilen als wir Menschen. Sie reproduziert sie einfach. Gleichzeitig glauben Menschen, dass Computer neutral und unbestechlich sein können – was das Ganze noch problematischer macht.

„Wir dachten, dass Algorithmen bessere Entscheidungen treffen könnten“, sagte die US-amerikanische Techniksoziologin Zeynep Tüfekçi bereits 2018 ZEIT ONLINE, „aber dieser Traum ist ausgeträumt“.  Sie war eine derer gewesen, die damals auf faire und vorurteilsfreie Entscheidungen gehofft hatte. Die zitierten Beispiele und viele andere zeigen allerdings: Künstliche Intelligenz ist dafür jedenfalls nicht geeignet. 

Algorithmen sind die Manager, die keiner haben will

Dass KI-Systeme wirtschaftlich effiziente Entscheidungen treffen können, hat sich auch immer wieder gezeigt: Sie können besonders gut ausbeuten. Ähnlich wie bei Vorurteilen perfektionieren sie das, was sie von ihren menschlichen Vorbildern gelernt haben. Aus gutem Grund gibt es deshalb Arbeitnehmerrechte und Gesetze, die Angestellte vor Ausbeutung schützen.

Sogenanntes algorithmic management ist nicht neu: Unter anderem Essenslieferanten ebenso wie Fahrdienstleister wie Uber nutzen teils undurchsichtige Algorithmen, um die Plattformarbeiter zu steuern – oft nicht unbedingt zu deren Wohl. Anders kann man die Praktik nicht benennen, über die inzwischen vielfach berichtet wird: Um sie noch effizienter arbeiten zu lassen, werden Standortdaten und vieles mehr gesammelt und automatisiert ausgewertet. Ginge es nach dem Algorithmus, wäre nicht einmal Zeit für eine Trinkpause. Schichten werden automatisiert zugeteilt und wer zu oft absagt, wird mit schlechteren Arbeitsbedingungen und schließlich der algorithmischen Kündigung bestraft. Letzteres bedeutet: Die Betroffenen erhalten ihre Kündigung direkt über die App, ohne dass ein Mensch mit ihnen kommuniziert oder dies entscheidet.

Nicht zuletzt versagen diese KI-Systeme immer wieder dabei, das Verhalten von Menschen und den Kontext zu verstehen  – und das wird dann gefährlich, wenn sie automatisiert über Menschen entscheiden. So gibt es gut dokumentierte Beispiele von Uber-Fahrern, die wegen eines algorithmischen Missverständnisses gesperrt worden waren, unter anderem weil die Gesichtserkennung des Systems nicht funktioniert hatte. In den verzweifelten Anrufen der Uber-Fahrer beim Konzern, deren Aufzeichnungen eine britische Arbeiterrechte-NGO zur Verfügung gestellt hat, scheint durch, dass das Uber-Management diese von der hauseigenen KI getroffenen Entscheidung nicht verstehen und kaum beeinflussen kann. Angesichts der Einkommensverhältnisse in der Gig-Economy wird eine solche Sperrung allerdings schnell existenziell. Es dauerte in den beschriebenen Fällen teils bis zu drei Monate, bis Uber das Problem behoben hatte und sich entschuldigte. Von Fairness kann auch in diesem Zusammenhang also kaum die Rede sein.

Intransparent und ausbeuterisch

Wieso kann ein Unternehmen im Jahr 2023 noch immer damit prahlen, ein System des maschinellen Lernens zur obersten Entscheidungsfinderin ihres Unternehmens zu machen? 

Eine KI als CEO führt unweigerlich in eine Dystopie. Und zwar umso mehr, je weniger die Maschine als oberste Entscheidungsinstanz einer Firma nicht nur ein PR-Gag ist, sondern tatsächlich Praxis in dem Unternehmen. Denn: Sie wird nicht nur undurchsichtige Entscheidungen treffen, die angesichts der immanenten Struktur maschineller Lernsysteme nur schwer und aufwendig zu überprüfen sind, sie wird auch die perfekte Ausbeutung betreiben.

https://www.zeit.de/digital/2023-03/kuenstliche-intelligenz-fuehrungspositionen-algorithmic-netdragon-websoft-management/komplettansicht

Die Frage ist, ob KI nicht doch CEOs oder Manager ersetzen kann. Denn neben vielleicht zu verbessernden Abläufen( Aussperrung von Arbeitern aufgrund falscher Kriterien und dann lange Zeitdauer der Korrektur und ähnliches ), werden hier ja vor allem sogenannte Vorurteile und unmenschliche Kriterien der KI-Algorithmen bemängelt, dass sie „intransparent und ausbeuterisch“s eien, also, dass diese von konservativen, reaktionären,r ückwärtsgewandten, ewiggestrigen  angrywhite man geschrieben wurden, die Diversität und soziale Gerechtigkeit nicht berücksichtigen würden. Nun fragt sich zum einen, ob dies beseitigt würde und die Kritiker zufrieden wären, wenn man die Diversität -berücksichtigende Algorithmen programmiert- aber auch da wird man dann spätestens bei PayGap, Personalentscheidungen und Quote versus Leistung doch auch wieder Wertungen treffen müssen ,die als Vorurteile aufgefasst werden. Oder wären woke, postmoderne, dekonstruktive, dekolonialisierte political korrekte Algorithmen besser und wissenschaftlich und werte- und vorurteilsfrei?  Gibt es überhaupt den rein wissenschaftlich-mathematisch-wertfreien Algorithmus? Oder soll man die Programmierung von Algorithmen durch demokratische Kontrollorgane bestimmen lassen, vielleicht nach Vorstelungen der Piraten mittels liquid democracy und Mumble mit jeweligen Meinungs- und Mehrheitsmeiinungen und ständiger Anpassung , was aber auch zu Chaos, Planungsunsicherheitm Kontinuitöt und Dysfunktionalität führen kann, anarchistisch- libertären, basisdemokrtaischen oder basiskommunistischen  Algorithmusräten  oder einem Gremium aus Wissenschaftlern und gesellschaftlichen Gruppen , viellleicht nach Vorbild der Ausgewogenheit des Rundfunkrates oder rein wissenschaftlichen Technokraten? ? Das wäre aber auch die Garantie  auch wieder Proporz/Quoten und gesellschaftlichen Stimmungen, Zeitgeistströmungen, Partikularinteressen Tür und Tor zu öffnen, aber wohl anders dann auch kaum denkbar. Und was heißt „intransparent und ausbeuterisch“, unmenschlich und nicht fair? Was ist ein fairer Lohn? Was ist geselslchaftlich notwendige Arbeit? Betriebe sind ja ohne gewerkschaftlichen Druck auch keine sozial-karitativen Institutionen, sondern betriebswirtschaftlich-kapitalistische Profitmaximierungmaschinen und dementsprechend auch die Algorithmen. Die alte Frage ,ob neoliberaler shareholder- oder stakeholder-Kapitalismus ala Davos-Schwabs Reset-Kapitalismus mit menschlichem, sozialen und ökologisch nachhaltigem Gesicht. Wer entscheidet, was programmiert wird als Algorithmus. Bisher nur die Unternehmen und der Staat. Der von Sascha Lobo bemängelte Aufruhr kommt nun interessanterweise gar nicht so sehr von den angeblich eigentlich zuerst direkt Betroffenen und Geistesarbeitern, alten und neuen Kreativen,etc., sondern vor allem von Wissenschaftlern und Unternehmern, allen voran Yuval Hariri und dem eigentlich innovationsfanatischen und megafuturitschem Hitechentrepreneurguru Elon Musk:

Hunderte Unternehmer und Forscher fordern KI-Pause

Bekannte Manager und Experten wie Elon Musk warnen vor den Risiken künstlicher Intelligenz. Sie wollen die Entwicklung stoppen, die Technik müsse den Menschen dienen.

Es ist eine illustre Liste, die sich da zusammengefunden hat: Starhistoriker Yuval Noah Harari, Apple-Gründer Steve Wozniak, Turing-Preisträger Yoshua Bengio, Tesla-Chef Elon Musk und Hunderte weitere Unternehmer und Wissenschaftlerinnen fordern in einem offenen Brief einen Stopp der Entwicklung von künstlicher Intelligenz. Der Grund: KI berge „tiefgreifende Risiken für die Gesellschaft und die Menschheit“.

Die Unterzeichnenden fordern in dem am Mittwoch veröffentlichten Schreiben, das ZEIT ONLINE vorab vorlag, die Entwicklung fortschrittlicher KI-Systemen für sechs Monate einzustellen. Konkret gelte das für alle Systeme, die leistungsfähiger als GPT-4 sind – einschließlich GPT-5, das derzeit vom Unternehmen OpenAI trainiert werde. Wenn Unternehmen und Forschungseinrichtungen dieser Forderung nicht nachkämen, sollten Regierungen ein Moratorium beschließen, so die Forderung.

Das Schreiben zeichnet ein düsteres Bild. „Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten?“, heißt es darin. Sollten alle denkbaren Jobs automatisiert werden, und gar „nicht menschliche Intelligenzen“ entwickelt werden, „die uns irgendwann überflüssig machen und ersetzen könnten?“ Solche Entscheidungen dürften nicht allein von Techunternehmen getroffen werden.  

„Tiefgreifender Wandel in der Geschichte des Lebens“

Die Unterzeichnenden beziehen sich vor allem auf die aktuellen Entwicklungen großer Sprachmodelle (Large Language Models, LLM) wie GPT-4 oder Googles Bard. Solche KI-Systeme seien auf dem Weg, ein ähnliches Intelligenzniveau wie Menschen zu entwickeln. Künstliche Intelligenz könnte „einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde“ darstellen und müsste entsprechend sorgfältig geplant werden.

Doch Sorgfalt sei derzeit kaum möglich. Im Gegenteil: Der Wettlauf um immer leistungsfähigere Systeme sei außer Kontrolle geraten. (…)

Unterzeichnenden fordern „gemeinsame Sicherheitsprotokolle für fortschrittliche KI“

Dass auch die Schöpfer solcher Systeme diese Risiken erkennen, ist nicht völlig neu. Unter anderem Elon Musk warnt schon lange vor den Risiken einer starken KI, zusammen mit Wozniak und anderen Experten etwa auch bei der Entwicklung von autonomen Waffen. In dem Schreiben wird zum Beispiel auch ein kritischer Forschungsartikel über große Sprachmodelle zitiert, der im Jahr 2021 für Diskussionen sorgte und nach dessen Veröffentlichung die Technikethikerin Timnit Gebru ihren Job bei Google verlor.

Dass sich nun eine derart breite Koalition unterschiedlicher Fachleute zusammenfindet, ist dennoch bemerkenswert. Unter den Unterzeichnenden sind bekannte KI-Wissenschaftler wie Stuart Russell und Unternehmer wie Emad Mostaque, der CEO des Unternehmens Stability AI, sowie mehrere Mitarbeiter der zu Google gehörenden Forschungseinrichtung DeepMind. Sie beziehen sich unter anderem auf aktuelle Äußerungen von Open-AI-CEO Sam Altman. In einem Fernsehinterview sagte dieser, „ein bisschen Angst“ vor der aktuellen Entwicklung zu haben.

Die Unterzeichnenden des Briefes fordern, dass alle Beteiligten die sechsmonatige Pause nutzen, um „eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI“ zu entwickeln. Diese sollten von unabhängigen Gremien geprüft werden. Entwickler sollten laut dem Schreiben mit politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung von KI-Regulierung zu beschleunigen. KI müsse in Zukunft sicher, interpretierbarer, transparent, robust, vertrauenswürdig und „aligned“ sein – also im Einklang mit den Zielen ihrer Schöpfer.

Das bedeute nicht, dass die Entwicklung von KI für immer gestoppt werden solle, heißt es in dem offenen Brief. Den Unterzeichnenden ist offenbar daran gelegen, nicht allzu technikkritisch zu wirken: „Die Menschheit kann mit KI eine blühende Zukunft genießen“, versprechen sie – aber erst, wenn die Systeme zum klaren Nutzen aller entwickelt würden und die Gesellschaft die Chance habe, sich auf sie einzustellen.

https://www.zeit.de/politik/deutschland/2023-01/kuenstliche-intelligenz-experten-gefahren-ki-offener-brief

Das erinnert ein wenig an Albert Einstein, der zuerst Roosevelt in einem Brief aufforderte, die Atombombe zu entwickeln und sich dann wieder dagegen aussprach, da er dann wieder kalte Füße bekam. Jedenfalls wollen auch sie auf KI nicht verzichten, also nicht Maschinenstürmer werden, zumal sie ja auch ein eigenes Profitinteresse daran haben, wohl auch wissen, dass die kapitalistische Konkurrenz der Unternehmen und Nationalstaaten die Entwicklung disruptiver Technologien weiter vorantreiben und diese auch einsetzen wird, man also bestenfalls Schadensbegrenzung und Regulierung erhofft. Zudem auch eine digitale Diktatur wie die KP China da keinerlei Bedenken in Sachen „Intransparenz und Ausbeutung hat, ja auch führend ist bei der Implementierung sozialer Überwachungs- und social engineering- Kybernetikysteme wie dem euphemistisch genannten sozialen Kreditsystem. Akkzelerationisten erhoffen ja auch mittels KI und Big Data eine postkapitalitalistische und postplanwirtschaftliche  Gesellschaft und Wirtschaft, nicht mittels eines Zentralcomputer wie Salvador Allende damals in Chile oder Rudi Dutschke, sondern mittels nicht näher definierter Plattformen, die weder top noch down sind, sondern eher als Schnittflächen fungieren sollen. Konkreter wird es nicht. Umgekehrt residieren die rechten Abspaltungen der Akkzelerationisten  nicht zufälligerweise in China und Peking, um am nächsten große Menschheits- und Gesellschaftsexperiment der KP China teilzuhaben. Näheres dazu- siehe:

Kybernetische Wende, Akzelerationismus und digitaler Totalitarismus- ist eine demokratische, dezentrale Planwirtschaft und neues Gesellschaftssystem mit den IT- Technologien möglich?

Schon wesentlich früher begann Henry Kissinger die Grundsatzdebatte in Zusammenarbeit mit Ex- Google- Chef Eric Smith („The Digital Age“) und MIT- Professor Huttenlocher , welche Auswirkungen KI auf Staat und Gesellschaft, zwischenstaatliche, aussen- und geopolitische Auswirkungen, wie auch die philosophischen Grundlagen der Aufklärung und das Weltbild , was man in ihrem gemeinsamen Buch „The Age of AI“. And Our Human Future“nachlesen kann:

„Künstliche Intelligenz : Eine Frage der Macht

Der frühere amerikanische Außenminister Henry Kissinger, Ex-Google-Chef Eric Schmidt und der MIT-Professor Daniel Huttenlocher haben ein Buch über KI geschrieben. Es ist in mancher Hinsicht erhellend.

Warum hat Henry Kissinger im Alter von 98 Jahren ein Buch über Künstliche Intelligenz mitverfasst? Auf dem Gebiet der Informationstechnologie hat sich der ehemalige amerikanische Außenminister, nationale Sicherheitsberater und Historiker bislang nicht hervorgetan – die Künstliche Intelligenz (KI) indes beunruhigt ihn offenkundig schon länger. Anlass gab eine Konferenz vor einigen Jahren, auf der ein Mitarbeiter des zu Alphabet (Google) gehörenden KI-Entwicklers Deepmind jenes inzwischen prominente Programm erläuterte, das im traditionsreichen Brettspiel Go die besten menschlichen Spieler überragte und im Schach auch andere Programme, die menschliche Spieler übertrafen, schnell in den Schatten stellte.

Kissinger war verblüfft über den Lernprozess, der dahintersteckte, und veröffentlichte bald danach in der Zeitschrift „The Atlantic“ einen Beitrag über KI unter der dramatischen Überschrift „Wie die Aufklärung endet“, in dem er zwar manche aus Sicht der Fachwelt übertriebene Befürchtung vorbrachte, aber mit der zen­tralen Frage durchaus einen Nerv traf: Was bedeutet es denn, wenn Wissen und Können entsteht, das menschlichen Fähigkeiten und Fertigkeiten mitunter nahekommt oder sie übertrifft, vom Menschen selbst indes nicht oder nicht gänzlich nachvollzogen werden kann?

Von Sokrates bis zu BERT

Es folgte ein Austausch insbesondere mit zwei fachlich wie unternehmerisch versierten Informatikern, dem früheren langjährigen Google-Vorstandsvorsitzenden Eric Schmidt und dem MIT-Professor Daniel Huttenlocher, der zuvor unter anderem im kalifornischen Tüftler-Labor Xerox Palo Alto Research Center (PARC) geforscht hatte. Die drei fragten sich beispielsweise, wie sich KI auf Gesundheit und Medizin, die Exploration des Weltraums, die Quantenphysik, Kinderspielzeug oder die Kriegführung auswirken könnte. Und auch mit möglichen abstrakteren Folgen setzten sie sich auseinander. Ein Fazit lautet: „Bis zu einem gewissen Grad unterscheiden wir drei uns darin, wie optimistisch wir in Sachen KI sein sollten. Aber wir stimmen darin überein, dass diese Technologie das menschliche Denken, das Wissen, die Wahrnehmung und die Realität verändern wird – und damit auch den Lauf der Menschheitsgeschichte.“

Ihre Diskussionen und Einschätzungen haben sie nun in einem kurzweiligen und anregenden Buch untergebracht. Sein Titel, „The Age of AI“, ist für sich genommen schon ein Urteil: Die KI wird damit in den Rang anderer Schlüsseltechnologien, die menschliche Gesellschaften grundlegend veränderten, gehoben. Was die KI schon kann, wird an Programmen wie AlphaZero und GPT-3 demonstriert, der historische Rückblick reicht bis zu den Vorstellungen Alan Turings. Die unterschiedlichen Herangehensweisen an KI werden erklärt: regelbasierte Ansätze und die auf gewaltigen Datenmengen und Rechnerkapazitäten beruhenden Lernalgorithmen, die viele KI-Erfolge der jüngeren Vergangenheit ermöglichten; und dies nicht nur im Spielerischen, sondern auch mit kommerziell relevanten Entwicklungen.

Das Kräfteverhältnis zwischen den Staaten

Zudem entwerfen die Beiträger einen philosophischen Parcours, der von Sokrates über Descartes und Kant bis zu BERT reicht, einem künstlichen neuronalen Netz, das die Google-Suchmaschine weiterentwickeln soll. Es geht nicht zuletzt darum, dass die kognitiven Kapazitäten des Menschen eine maßgebliche Referenz sind, ihr Rang aber nicht festgeschrieben ist. Das mag banal klingen und ist, wenn es um KI geht, aus Sicht vieler KI-Fachleute auch nicht unbedingt die dringlichste Denkaufgabe. Sie konfrontiert den Leser indes mit dem ursprünglichen Anspruch der KI-Vordenker nach dem Zweiten Weltkrieg, die nicht bloß ein von Menschen unschlagbares Schachprogramm oder eine Suchmaschine im Sinn hatten, sondern das Ziel ausgaben, das menschliche Gehirn funktional nachzubilden.

Kissinger, Schmidt und Huttenlocher spannen den Bogen in einem zweiten Abschnitt des Buches indes noch über das Technische, Philosophische und Wirtschaftliche hinaus ins knallhart Machtpolitische. Längst ist die KI tatsächlich genau dort angekommen, beschäftigen sich Außen- und Sicherheitspolitiker und Militärs mit ihr, ist die Frage, wer in der KI führt, für das Kräfteverhältnis zwischen Staaten relevant und bringen die Vereinigten Staaten, China, Russland und die Europäische Union eigene Initiativen auf den Weg, um hier nicht ins Hintertreffen zu geraten. Zu den Vorzügen dieses Buches gehört, dass die KI tatsächlich aus verschiedenen Perspektiven betrachtet wird, ohne – wie das gelegentlich geschieht – ins Hollywoodhafte abzuirren. Solche Darstellungen dürfte es gerne mehr geben.

Henry A. Kissinger, Eric Schmidt und Daniel Huttenlocher: „The Age of AI“. And Our Human Future. Little, Brown and Company, New York 2021. 272 S., geb., 27,99 €.

https://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/kissinges-schmidts-und-huttenlochers-buch-the-age-of-ai-17770812.html

Kommentare sind geschlossen.