Algorithmen brauchen ein ethisches Fundament

von Ralf Ostner

Autorin: Katharina Schulze (Grüne/Bayern)

7. Juli 2017 in Im Parlament

Die Digitalisierung ist kein Naturgesetz, auf das wir als Gesellschaft keinerlei Einfluss haben. Ganz im Gegenteil. Gerade weil die digitale Vernetzung und der Einsatz von Algorithmen unseren Alltag verändern, müssen wir die Digitalisierung gestalten. Das ist eine der großen gesellschaftlichen Aufgaben der kommenden Jahre. Wichtig ist uns Grünen, dass die Privatwirtschaft, die die Digitalisierung maßgeblich vorantreibt und von ihr profitiert, sich ihrer Verantwortung bewusst ist.

Insbesondere sind die Plattformbetreiber in die Pflicht zu nehmen. Den InformatikerInnen und SoftwareentwicklerInnen müssen ihren Einfluss auf unseren Alltag bewusst sein. Die Politik hat die Entwicklung zu begleiten und Leitplanken einzuziehen, damit wir eine digitale Zukunft schaffen, die so wird, wie wir sie uns vorstellen.Wir müssen Algorithmen ein ethisches Fundament geben

Digitalisierung gestalten

Die Chancen, die der Einsatz von Algorithmen bietet, sind vielfältig und enorm. Die Effizienzgewinne werden beispielsweise auch der Umwelt zugutekommen, zum Beispiel durch Optimierungen im Straßenverkehr. Aber diese neuen Möglichkeiten haben ihren Preis. Es darf nicht vergessen werden, dass wir digitale Dienste mit unseren Daten bezahlen. Auf der Grundlage dieser Daten erstellen Algorithmen personenbezogene Profile und treffen blitzschnelle Entscheidungen. Algorithmen entscheiden nicht nur darüber, was uns im Internet zum Kauf angeboten wird, sondern auch, ob wir kreditwürdig oder für ein Jobangebot geeignet sind. Diese Algorithmisierung unseres Lebens wirft wichtige, bislang unbeantwortete Fragen des Verbraucher- und des Datenschutzes aber auch der sozialen Gerechtigkeit auf. Es sind ethische Fragen, die wir für unser Zusammenleben beantworten müssen.

Digitalisierung im Sinne der Menschen zu gestalten heißt, dass die Verbraucherinnen und Verbraucher befähigt werden müssen, die Tragweite von Algorithmen zu verstehen. Sie müssen informiert und beraten werden. Digitalisierungskompetenz für alle muss das Ziel sein. Dazu braucht es ein Mindestmaß an Transparenz und Aufklärung. Es muss überprüfbar sein, wer welche Algorithmen einsetzt. Das wird auf den erbitterten Widerstand vieler IT-Unternehmen führen, für die der geheime Algorithmus die Grundlage des Geschäftsmodells ist.

Algorithmen müssen Ethik lernen

Vor allem braucht der Einsatz von Algorithmen unbedingt einer ethischen Basis. Die Grundlage von automatisierten digitalen Entscheidungen dürfen nicht ausschließlich wirtschaftliche oder technische Kriterien sein. Diskriminierungen müssen in jedem Falle verhindert werden zum Beispiel bei der Bewerbung auf einen Job oder beim Abschluss von Versicherungen. Außerdem muss aus unserer Sicht sichergestellt werden, dass wichtige Entscheidungen letztendlich immer vom Menschen selbst getroffen werden. Um diese inhaltlichen Anforderungen durchzusetzen, müssen Algorithmen inhaltlich überprüft und evaluiert werden können. Diese Überwachung sollte durch eine unabhängige Stelle wahrgenommen werden. Das ist keine einfache Aufgabe. Die Besonderheiten der Digitalisierung, der äußerst dynamische und schnelle technische Fortschritt, sowie die zunehmende Vernetzung fordern hier neue Lösungsansätze.

Es geht aber nicht nur darum, Privatunternehmen zu überprüfen. Auch der Staat verwendet Algorithmen. Und auch hier braucht es wirksame Kontrollmöglichkeiten. Schon heute hat zum Beispiel die Polizei bei uns in Bayern eine Predictive-Policing-Software im Modellversuch zur Analyse und Vorhersage von Einbrüchen eingesetzt. Wir Grüne wollen, dass bei staatlichen Vorhaben stets genau geschaut wird, ob es sich um ein geeignetes Instrument handelt, wie der Datenschutz gewahrt wird und ob der “Datenhunger” der Behörden nicht noch größer wird. Uns muss immer bewusst sein: Wir gestalten die Rahmenbedingungen unseres Zusammenlebens in einer digitalen Welt.


Dieser Debattenbeitrag erschien auf dem Debattenportal Meinungsbarometer.info.


Kommentar von Ralf Ostner:

Dass heutige Algorithmen noch begrenzt Kreativität ersetzen und simulieren können, ist schon richtig, aber der Beitrag ignoriert etwas die Fortschritte des „Deep Learning“,d.h. der Simulierung menschlicher Lernprozesse im Kindesalter und dann darüberhinaus, die auch kreative Lernprozesse simulieren könnten. Er ignoriert etwas die in der Künstlichen Intelligenz inzwischen fortgeschrittenen Entwicklungen Synapsenverknüpfungen nachzustellen mittels der Chaostheorie und Zufallsgeneratoren, wie auch die Versuche Schnittstellen zwischen Gehirn und Computer durch Bio- und Nanochips herzustellen. Inwieweit dies Wunschdenken ist oder eben durchaus die Möglichkeit besteht, dass es auch kreative Algorithmen und kreative künstliche Intelligenz geben kann, ist schwer zu beurteilen. Selbst Tesla-Chef Elon Musk sieht da eher die Gefahren der Künstlichen Intelligenz, die er staatlich regulieren will, während Facebook-Chef Marc Zuckerberg nur die profitmässigen Chancen der Artifical Intelligence sieht und Musk als „Schwarseher“denunziert. Selbst im Silicon Valley ist man sich nicht einig, welche Potentiale und Gefahren in der Künstlichen Intelligenz und auch im Deep Learning liegen.Zumindestens scheint Elon Musk die Notwendigkeit ethischer Massstäbe durch staatliche Regulierung und einer ethischen Fundamentierung von Algorithmen und Künstlicher Intelligenz zu sehen im Gegensatz zu Zuckerberg und Co.

Was mich etwas überrascht ist die Formulierung: „Algorithmen müssen Ethik lernen“. Algorithmen und ihre Entscheidungskriterien werden von Menschen geschrieben, die die Parameter beeinflussen und diese Menschen sind Teil einer Gesellschaft und deren jeweiligen Interessensgruppen. Die ethischen Entscheidungskriterien bleiben daher immer noch menschenbestimmt und interessensgeleitet.Daher ist auch die Formulierung „Wir müssen den Algoritmen ein ethisches Fundament geben“ sehr unkonkret, da er die verschiedenenen unterschiedlichen Gesellschaftsgruppen, den Staat und das Kapital sowie verschiedene politische Parteien als homogenes „Wir“abstrahiert, obgleich es doch unterschiedliche Ethikvorstellungen und Interessen gibt. Also da ist bestenfalls ein kleinster gesellschaftlicher Nenner denkbar, der das Grundgesetz sein könnte, aber auch dieses muss interpretiert werden und weist ein breites Spektrum an Interpretationsmöglichkeiten auf. Und wie sollen Juristen dann Algorithmen beurteilen oder sollen Programmierer Bundesverfassungsrichter werden? Oder welche gesellschaftlichen Gruppen und Parteien bestimmen dann mittels welcher Gesetze die Algorithmen, wenn erst von „der Gesellschaft“ und dann wieder schnell vom „Wir“gesprochen wird. Algorithmen demnächst zur Abstimmung über Volksentscheide oder die Wahlprogramme oder als Wahlprogramme von Parteien? Dann auch der Satz „Agorithmen müssen Ethik lernen“. Ein Algorithmus entwirft und lernt keine Ethik, ein Algorithmus ist ein Computerprogramm, das aufgrund der Eingabe des Programmierers und dessen Auftraggeber als gesellschaftliche Interessensgruppe Entscheidungskriterien erhält, die er dann automatisch anwendet. Von daher ist der Satz „Algoritmen müssen Ethik lernen“unwissenschaftlich, unmaterialistisch, unpolitisch, idealistisch, hegelianisch und zutiefst metaphysisch. Gesellschaftliche Gruppen wie Kapital oder Arbeiterklasse oder der Staat oder beide sagen dem Programmierer, welchen Algorithmus er schreiben und programmieren soll.Und darüber entscheiden wiederum die Kräfte- und Machtverhältnisse zwischen diesen gesellschaftlichen Gruppen und deren jeweilige Macht und demokratische Partizipationsmöglichkeiten, insofern man nicht einer autoritären Technokratenelite das Wort sprechen will.

Die Hoffnung, dass Algorithmen selbstlernende Systeme sind, die diese Entscheidungskriterien selbst entwerfen könnten, ist zum einen Science Fiction, sollte dies machbar sein, die Entpolitisierung der ethischen Entscheidungsfindung und zum dritten Lostrennung von menschlichen Entscheidungen zu einer Selbstautomatisierung der Maschinen und Computer wie sie in Filmen wie 2001 oder Terminator vorexerziert wurde. Da stellt sich schon die Grundsatzfrage, welche Entscheidungen man an automatisierte Algorithmen grundsätzlich überhaupt überträgt, bevor man dann zur Frage kommt, wer dann über die Programmierung der Algorithmen mittels welcher Entscheidungskriterien überhaupt bestimmt.Die Entscheidung, welche Optionen ein selbstfahrendes Auto im Falle einer Unfallssituation wählt (gegen den Baum fahren, in eine Menschengruppe oder in einen Kinderwagen) wird von Menschen entschieden, die dem Algorithmus seine ethischen Entscheidungskriterien geben. Bezeichnend, dass sich hier die Ethikkommission zum autonomen Fahren nicht festlegen wollte, welche konkreten ethischen Entscheidungskriterien solch ein Algorithmus haben soll, sondern eher abstrakt und in der grundgesetzmässigen Formel verblieb, dass man in Unfallsituationen Menschenleben nicht gegeneinander aufrechnen dürfe und daher unentschieden blieb. Demnach könnte man hier nicht mal einen Algorithmus schreiben. Ebenso in der Militärtechnologie, die imer mehr von der unbemannten, durch eine menschengesteuerte Individualdrohne hin zum unbemannten, Tötungsalgoritmen die Entscheidung überlassenden Schwärmen von Drohnen übergehen wird. Aber die Entscheidungskriterien für Algorithmen müssen sei es beim autonomen Fahren oder bei der zukünftigen automatisierten Kriegsführung durch Menschen und die jeweiligen Interessensgruppen und deren zumal unterscheidliche Wertvorstellungen oder ethischen Weltbilder bestimmt und programmiet werden,

Dem Autor schwebt so eine Art Grundgesetzalgorithmus mit Betonung der Menschenwürde vor.Mal sehen, ob dann auch das Bundesverfassungsgericht über die Ethik und Grundgesetzkonformität von Algorithmen entscheiden wird und die Frage ist eben, wem man die Definition der Algorithmen überlässt.Oder schreiben dann techikaffine. IT-geschulte Bundesverfassungsrichter und Juristen der Zukunft als Juranerds selbst die ihren juristischen Grundsatzurteilen und Gesetzen gemässen Algorithmen? Das ist sowohl eine politische wie technologische Kompetenzfrage. Zum einen, wie ein politischer Mechanismus zur Festlegung der Frage, zu welchem Grad man grundsätzlich Entscheidungsfindungen automatisierten Algoritmen und deren Computern überträgt, zum anderen dann wer diese Algorithmen mit welchen Entscheidungskriterien entwirft und hier brauchen die jeweiligen gesellschaftlichen Gruppen und Parteien auch technologische Expertise und Kompetenz, wie man überhaupt solch einen Algorithmus dann konkret programmiert und entwirft.Und hier ist auf Seiten des Kapitals ein absoluter Vorsprung, sei es bei den wirtschaftlichen und politischen Machtverhältnissen, sei es bei den technologischen Kompetenzen. Die Linke hat da bestens den Chaos Computer Club, das Kapital hingegen Hunderttausende von Programmierern und die Black Hats.Von daher sind die Machtgleichgewichte schon wirtschaftlich wie technologisch und politisch sehr ungleich verteilt.Von daher sollte die Rekrutierung progressiver Algorithmenprogrammierer, Hacker, Nerds, Naturwissenschaftler. IT-Experten und die politische Forderung nach der Finanzierung solch technologischer Kompetenzteams für politische Partteien und gesellschaftliche Gruppen eine zukünftige Hauptforderung sein, bevor man hilflos an ein „Wir“ und eine „Gesellschaft“appeliert oder hofft, dass die Algorithmen Ethik selbst lernen.



Die Kommentarfunktion ist deaktiviert.