Data Science, Machine Learning und KI
Kontakt

Heute feiern wir den jährlichen Christopher Street Day – das europäische Äquivalent zu Gay Pride oder Pride Parades, um für die Rechte von LGBTQIA+ Menschen und gegen Diskriminierung und Ausgrenzung zu kämpfen.

Seit 1969, als die erste Demonstration auf der Christopher Street in New York City stattfand, haben wir bereits viele Fortschritte gemacht: Heute ist die gleichgeschlechtliche Ehe in 30 Ländern rechtlich vollzogen und anerkannt, und das „unbestimmte“ Geschlecht ist in 20 Ländern rechtlich anerkannt.

Allerdings steht Homosexualität in vielen Ländern immer noch unter Strafe und selbst in fortschrittlicheren Ländern kommt es immer noch zu Gewalt gegen queere Menschen. Trotz der bereits erzielten Fortschritte ist es also noch ein weiter Weg bis zur Gleichstellung queerer Menschen. Der Christopher Street Day hat also nach wie vor seine Berechtigung: Als Protest gegen Ungerechtigkeit und als Zeichen für eine bunte, vielfältige und tolerante Gesellschaft.

Vorurteile in der KI – Ein sehr reales Problem

In den letzten Jahren haben die Themen Diskriminierung und Vorurteile noch an Relevanz gewonnen, denn mit der Digitalisierung schleichen sich diese Vorurteile auch in die Schlüsseltechnologie unserer Zukunft ein: Künstliche Intelligenz. Intelligente Computersysteme, die aus Daten lernen und unsere Gesellschaft verändern werden, wie wir es noch nie erlebt haben. Es ist von entscheidender Bedeutung, dass sie mit unterschiedlichen Datensätzen und unter Mitwirkung einer Vielzahl von Entwickler:innen programmiert werden. Andernfalls besteht die Gefahr, dass sie voreingenommene und diskriminierende KI-Systeme entwickeln.

Die Kontroverse um die Veröffentlichung von Googles Chatbot „Allo“ ist ein Paradebeispiel für diese potenzielle Falle. Google veröffentlichte Allo, seine neue Messaging-App, im Jahr 2016 mit großem Tamtam. Die App enthielt einen Chatbot namens „Smart Reply“, der auf der Grundlage früherer Interaktionen Antworten auf Nachrichten vorschlägt. Es stellte sich jedoch schnell heraus, dass der Bot gegenüber Frauen voreingenommen war und dazu neigte, abfällige und sexuell eindeutige Antworten auf Nachrichten von Nutzerinnen vorzuschlagen. Dieser Vorfall unterstreicht die Notwendigkeit für Unternehmen, bei der Entwicklung von KI stärker auf die potenziellen Risiken von Voreingenommenheit zu achten. Diversität muss in jeder Phase des Prozesses berücksichtigt werden, von der Datenerfassung über die Entwicklung von Algorithmen bis hin zu Nutzertests.

In der Tat gab es viele weitere Vorfälle von KI-Diskriminierung gegenüber Frauen und People of Color, wie z. B. Amazons Rekrutierungstool, das systematisch männliche Bewerber bevorzugte, oder Facebooks Kennzeichnungssystem für Bilder, das einen dunkelhäutigen Mann fälschlicherweise als Primaten identifizierte. Aber nicht nur Frauen und People of Color leiden unter Vorurteilen in der KI, auch die queere Community ist davon betroffen.

Case Study: DALL-E 2

Werfen wir dazu einen Blick auf DALL-E 2, das von OpenAI entwickelt wurde. Es ist eine der neuesten und bahnbrechendsten KI-Technologien, die es gibt. DALL-E 2 ist eine KI, die auf der Grundlage von Textbeschreibungen realistische Bilder und Kunstwerke erzeugt.

Um zu prüfen, wie voreingenommen oder gleichberechtigt diese KI-Lösung gegenüber queeren Menschen ist, habe ich DALL-E 2 angewiesen, Bilder auf der Grundlage des Eingabetextes „ein glückliches Paar“ mit verschiedenen Kunststilanweisungen (z. B. Ölgemälde oder digitale Kunst) zu erzeugen.

Wenn Ihr Euch die Ergebnisse anseht, seht Ihr, dass nur Bilder von heterosexuellen Paaren erzeugt wurden. Auch die Bilder, die auf dem Text „eine glückliche Familie“ basieren, unterscheiden sich in dieser Hinsicht nicht – es sind keine gleichgeschlechtlichen Eltern auf den Bildern zu sehen.

Um also ein Bild eines homosexuellen Paares zu erhalten, versuche ich, dem KI-Modell eine spezifischere Beschreibung zu geben: „ein glückliches queeres Paar“. Wie Ihr sehen könnt, hat DALL-E 2 schließlich einige Bilder von gleichgeschlechtlichen Paaren erzeugt. Aber auch hier scheint das System voreingenommen zu sein – es wurde kein einziges Bild eines lesbischen Paares erzeugt.

Die Ursachen der Diskriminierung bei Technologien wie DALL-E 2

Haben wir jetzt also die Bestätigung, dass KI homophob ist? Nicht so ganz. Es geht hier nicht um Homophobie oder Sexismus auf Seiten von DALL-E oder GPT-3. Diese Systeme reproduzieren die Strukturen und Hierarchien unserer Gesellschaft. Sie wiederholen nur, was sie in der Vergangenheit gelernt haben. Wenn wir diese Vorurteile ändern und Chancengleichheit schaffen wollen, müssen wir diese Systeme auf eine integrative Weise trainieren.

Warum genau sind KI-Systeme wie DALL-E 2 also voreingenommen und was können wir dagegen tun? Die Antwort auf diese Frage besteht aus drei Teilen:

  • den Daten,
  • dem Ziel,
  • und den Entwickler:innen.

#1 Daten

Erstens: KI-Systeme lernen nur das, was in den Daten enthalten ist. Wenn die Trainingsdaten verzerrt sind, ist auch die KI verzerrt. DALL-E 2 wurde mit Tausenden von Online-Bildbeschreibungspaaren aus dem Internet trainiert. Aufgrund historischer, sozialer und ethnischer Gegebenheiten, gibt es viel mehr heterosexuelle Paarbilder mit der Beschreibung „ein glückliches Paar“ als homosexuelle Paarbilder im Internet. DALL-E 2 hat also herausgefunden, dass die Beschreibung „ein glückliches Paar“ mit größerer Wahrscheinlichkeit mit heterosexuellen Paaren auf einem Bild assoziiert wird.

#2 Ziel

Zweitens: Damit ein KI-Algorithmus wie DALL-E 2 aus Daten lernen kann, braucht er ein Ziel zur Optimierung, eine Definition von Erfolg und Misserfolg. Genauso wie Ihr in der Schule gelernt habt, indem Ihr Eure Noten optimiert habt. Eure Noten haben Euch gezeigt, ob Ihr erfolgreich wart oder nicht, und was Ihr noch lernen müsst oder nicht.

In ähnlicher Weise lernt auch der Algorithmus, indem er sich die Daten ansieht und herausfindet, was mit Erfolg verbunden ist. Welche Situation führt zum Erfolg? Wenn wir also eine unvoreingenommene und faire künstliche Intelligenz schaffen wollen, müssen wir auch darüber nachdenken, welche Zielsetzung wir ihr geben. Wir müssen ihr sagen, dass sie sich vor Voreingenommenheit, Vorurteilen und Diskriminierung in Acht nehmen muss. Für DALL-E 2 könnte man zum Beispiel eine bestimmte Diversitätskennzahl in die Leistungsbewertungskriterien aufnehmen.

#3 Entwickler:innen

Drittens ist es die Entwickler:innengemeinschaft, die direkt oder indirekt, bewusst oder unbewusst ihre eigenen Vorurteile in die KI-Technologie einbringt. Sie wählen die Daten aus, sie definieren das Optimierungsziel und sie gestalten die Nutzung von KI. Meistens bringen sie ihre Voreingenommenheit nicht aktiv in diese Systeme ein. Wir alle leiden jedoch unter Vorurteilen, derer wir uns nicht bewusst sind. Diese Voreingenommenheit ist ein Versuch unseres Gehirns, die unglaublich komplexe Welt um uns herum zu vereinfachen. Die derzeitige Gemeinschaft der KI-Entwickler:innen besteht zu über 80 % aus weißen Cis-Männern. KI wird von einer sehr homogenen Gruppe entworfen, entwickelt und bewertet. Die Werte, Ideen und Vorurteile, die sich in KI-Systeme einschleichen, sind daher buchstäblich engstirnig.

Mögliche Lösungen für das Problem

Der entscheidende Schritt zu einer gerechteren und unvoreingenommeneren KI ist also eine vielfältige und integrative KI-Entwicklungsgemeinschaft. Unterschiedliche Menschen können die blinden Flecken und Vorurteile der anderen besser überprüfen.

Wenn wir über unsere eigenen Vorurteile nachdenken und gemeinsam daran arbeiten, die Vergangenheit nicht nur zu extrapolieren, sondern vorsichtig und kritisch aus ihr zu lernen, können wir die Welt zu einem viel vielfältigeren, integrativeren und gleichberechtigteren Ort machen. Nur dann können wir hoffen, KI-Technologien zu entwickeln, die wirklich inklusiv und fair sind.

Unsere Bemühungen um Diversität in der Entwicklung und am Arbeitsplatz

Wir bei statworx versuchen auch unser Bestes, um uns weiterzubilden und unseren Horizont zu erweitern. Wir engagieren uns aktiv für die Aufklärung der Gesellschaft im Bezug auf künstliche Intelligenz, z.B. in unserer Initiative AI & Society. Erst kürzlich habe ich im Namen der Initaitive zum Thema „Vorurteile in KI abbauen“ einen Blogartikel veröffentlicht und bei der Konferenz „Unfold“ in Bern einen Vortrag dazu gehalten.

Darüber hinaus haben wir uns entschlossen, die Charta der Vielfalt zu unterzeichnen. Die Charta der Vielfalt ist eine Arbeitgebendeninitiative zur Förderung von Vielfalt in Unternehmen und Institutionen. Ziel der Initiative ist es, die Anerkennung, Wertschätzung und Einbeziehung von Vielfalt in der Arbeitswelt in Deutschland voranzubringen. Für uns bei statworx ist dies ein Weg, um unseren Werten als Unternehmen gerecht zu werden, die auf Vielfalt, Inklusivität und Teamarbeit beruhen.

FYI: 20% dieses Artikels wurden vom KI Text Generator von neuroflash geschrieben. Livia Eichenberger Livia Eichenberger Livia Eichenberger Livia Eichenberger

Intro

statworx hat dieses Jahr zum ersten Mal am START Summit x Hack teilgenommen. START fand in den OLMA Messen in St. Gallen statt und wurde von Studierenden der Universität St. Gallen – meiner Alma Mater – organisiert. Diese Doppelveranstaltung bestand aus dem START Summit, Europas führender Studierendenkonferenz für Unternehmergeist und Technologie, und dem START Hack, Europas innovativstem Hackathon. Mehr als 3.500 Gründer:innen, Investor:innen, Studierende und Besucher:innen aus der ganzen Welt nahmen an der Veranstaltung teil. Da statworx der Hauptsponsor des START Hack war, gehörte unser CEO, Sebastian Heinz, zur Jury, die das Gewinnerteam des Hackathons auswählte. Außerdem war ein Teil unseres Swiss und AI Ventures Teams an unserem Stand auf der START Summit Messe anwesend. Nach zwei sehr spannenden, beeindruckenden und aufschlussreichen Tagen möchte ich meine sieben wichtigsten Erkenntnisse mit euch teilen.

7 Erkenntnisse vom Start Summit X Hack 2022

AI ist überall

Nicht nur, dass fast alle Hackathon-Lösungen datengetrieben waren, es gab auch viele Start-ups und Unternehmen mit KI-Produkten und -Dienstleistungen auf der Messe, wie zum Beispiel der KI-Zahnarzt von zaamigo, der deine Zähne analysiert und dir sagt, wann es Zeit ist, zum Zahnarzt zu gehen. Außerdem war KI ein zentrales Thema in vielen Vorträgen, Diskussionen und Workshops. Das hat mir wieder einmal gezeigt, dass KI überall ist und die Schlüsseltechnologie unserer Zukunft ist.

Die Zukunft ist nachhaltig und menschenzentriert

Es hat mich sehr gefreut zu sehen, dass die Ideen, Technologien und Lösungen, die auf dieser Veranstaltung vorgestellt wurden, darauf ausgerichtet waren, eine bessere Welt zu schaffen, sowohl für die Umwelt als auch für uns Menschen. Das war auch ein wichtiges Kriterium bei der Entscheidung der START Hack-Jury für das Gewinnerteam, das eine neue Methode zur Integration menschlicher Eigenschaften in digitale Konversationen entwickelt hat, um schädliche Inhalte in Online-Diskussionen zu reduzieren.

Das Metaverse kommt

Die Schaffung von Metamuseen zum Verkauf digitaler Kunst, Diskussionen über die Relevanz von Rezensionen im Metaverse und Ideen, wie psychologische Beratung über einen anonymen Avatar effektiver sein könnte – die Möglichkeiten und Visionen des Metaverse waren allgegenwärtig. Das Metaverse, unsere zweite Welt, eine virtuelle Realität, könnte schneller kommen, als wir denken.

Technologische Lösungen umfassen mehr als Datenverarbeitung

Der Pitching-Wettbewerb der START Hack-Finalist:innen hat gezeigt, dass die Entwicklung nachhaltiger und effektiver technischer Lösungen viel mehr umfasst als die Verarbeitung von Zahlen und Programmierung, nämlich:

  • Das Problem in seinem Kern erkennen.
  • Die jeweiligen Stakeholder verstehen.
  • Vorhandene Lösungen recherchieren.
  • Ein funktionierendes Geschäftsmodell entwickeln und das wiederum einem Publikum verständlich präsentieren.

Studierende rocken

Nicht nur die am START Hack teilnehmenden Studierenden haben innovative, kreative und zukunftsweisende Lösungen entwickelt. Der START Summit x Hack wurde ausschließlich von Studierenden der Universität St. Gallen organisiert. Sie managen ein internationales Hybrid-Event, das jedes Jahr über 3.000 Menschen aus der ganzen Welt anzieht. Hut ab!

Einen ansprechenden Stand zu gestalten ist eine Herausforderung

Einen Stand auf einer Messe wie dem START Summit zu haben ist eine Sache, aber damit Leute anzulocken eine ganz andere: Einerseits haben wir festgestellt, dass unser Slogan „we create the next“ zwar zum Nachdenken anregt, die Leute aber eher verwirrt, als dass er sie dazu bringt, mit uns am Stand zu sprechen. Glücklicherweise stellte uns unser Marketingteam ein informationsreicheres Roll-up zur Verfügung. Andererseits ist ein Monitor mit bewegten Inhalten und bunten Bildern ein echter Publikumsmagnet – vielen Dank an das AI Ventures-Team dafür.

Meine statworx Kolleg:innen sind die Besten

Schließlich hat mir diese Veranstaltung gezeigt, was für wunderbare, kluge und fürsorgliche Menschen wir bei statworx haben. Während und vor der Veranstaltung halfen sie mir bei der Organisation auf jede erdenkliche Art und Weise. Selbst spontane Änderungen wurden unkompliziert und hilfsbereit gehandhabt. Unser Teamgeist und unsere positive Ausstrahlung schien auch von anderen wahrgenommen zu werden: Die Hacker:innen waren begeistert von der charismatischen 3-Minuten-Rede unseres Geschäftsführers, und die Besucher:innen unseres Standes machten uns mehrfach Komplimente, was für sympathische und aufgeschlossene Menschen wir in unserem Unternehmen haben.

Fazit

Ich möchte mich bei allen Veranstalter:innen von START Global bedanken, die diese fantastische Veranstaltung möglich gemacht haben, und bei meinen Kolleg:innen für ihre Unterstützung, ihre positive Energie und ihre gute Laune! Ich freue mich schon jetzt auf die START Summit x Hack 2023! Livia Eichenberger Livia Eichenberger Livia Eichenberger Livia Eichenberger Livia Eichenberger

Ob bewusst oder unbewusst, Vorurteile in unserer Gesellschaft erschweren die Verwirklichung einer geschlechtergerechten Welt, die frei von Stereotypen und Diskriminierung ist. Leider schleichen sich diese geschlechtsspezifischen Vorurteile auch in die KI-Technologien ein, die sich in allen Bereichen unseres täglichen Lebens rasant weiterentwickeln und unsere Gesellschaft in nie gekanntem Maße verändern werden. Daher ist die Entwicklung fairer und unvoreingenommener KI-Systeme für eine vielfältige, gerechte und inklusive Zukunft unerlässlich. Es ist nicht nur wichtig, dass wir uns dieses Problems bewusst sind, sondern auch, dass wir jetzt handeln, bevor diese Technologien unsere geschlechtsspezifischen Vorurteile noch mehr verstärken, auch in Bereichen unseres Lebens, in denen wir sie bereits beseitigt haben.

Lösung beginnt mit Verständnis: Um an Lösungen zur Beseitigung geschlechtsspezifischer Vorurteile und aller anderen Formen von Vorurteilen in der KI zu arbeiten, müssen wir zunächst verstehen, was sie sind und woher sie kommen. Daher werde ich im Folgenden zunächst einige Beispiele für geschlechtsspezifische KI-Technologien vorstellen und Euch dann einen strukturierten Überblick über die verschiedenen Gründe für Vorurteile in der KI geben. In einem zweiten Schritt werde ich die notwendigen Maßnahmen für fairere und unvoreingenommenere KI-Systeme vorstellen.

Sexistische KI

Geschlechtsspezifische Vorurteile in der KI haben viele Gesichter und schwerwiegende Auswirkungen auf die Gleichstellung von Frauen. Während Youtube meinem ledigen Freund (männlich, 28) Werbung für die neuesten technischen Erfindungen oder die neuesten Automodelle zeigt, muss ich, ebenfalls ledig und 28, Werbung für Fruchtbarkeits- oder Schwangerschaftstests ertragen. Aber KI wird nicht nur eingesetzt, um Entscheidungen darüber zu treffen, welche Produkte wir kaufen oder welche Serien wir als nächstes sehen wollen. KI-Systeme werden auch eingesetzt, um zu entscheiden, ob Ihr ein Vorstellungsgespräch bekommt oder nicht, wie viel Ihr für Eure Autoversicherung zahlt, wie gut Eure Kreditwürdigkeit ist oder sogar, welche medizinische Behandlung Ihr bekommt. Und hier beginnt die Voreingenommenheit solcher Systeme wirklich gefährlich zu werden.

Im Jahr 2015 lernte das Rekrutierungstool von Amazon beispielsweise fälschlicherweise, dass Männer bessere Programmierer seien als Frauen. Daraufhin bewertete das Tool Bewerber:innen für Softwareentwicklerstellen und andere technische Stellen nicht geschlechtsneutral.

Im Jahr 2019 beantragte ein Paar dieselbe Kreditkarte. Obwohl die Ehefrau eine etwas bessere Kreditwürdigkeit und die gleichen Einnahmen, Ausgaben und Schulden wie ihr Ehemann hatte, setzte das Kreditkartenunternehmen ihr Kreditkartenlimit viel niedriger an, was der Kundendienst des Kreditkartenunternehmens nicht erklären konnte.

Wären diese sexistischen Entscheidungen von Menschen getroffen worden, wären wir empört. Zum Glück gibt es für uns Menschen Gesetze und Vorschriften gegen sexistisches Verhalten. Dennoch steht die künstliche Intelligenz mittlerweile über dem Gesetz, weil eine vermeintlich rationale Maschine die Entscheidung getroffen hat. Wie kann also eine vermeintlich rationale Maschine befangen, voreingenommen und rassistisch werden? Es gibt drei miteinander verknüpfte Gründe für Vorurteile in KI: Daten, Modelle und die AI Gemeinschaft.

Daten sind unser Schicksal

Erstens sind Daten ein Spiegel unserer Gesellschaft, mit all unseren Werten, Annahmen und leider auch Vorurteilen. Es gibt keine neutralen oder unbearbeiteten Daten. Daten werden immer von Menschen erzeugt, gemessen und gesammelt. Daten wurden schon immer durch kulturelle Vorgänge erzeugt und zu kulturellen Kategorien geformt. So werden beispielsweise die meisten demografischen Daten auf der Grundlage vereinfachter, binärer Frau-Mann-Kategorien etikettiert. Wenn die Geschlechterklassifizierung das Geschlecht auf diese Weise zusammenfasst, sind die Daten nicht in der Lage, Geschlechterfluidität und die eigene Geschlechtsidentität aufzuzeigen. Auch „Rasse“ ist ein soziales Konstrukt, ein Klassifizierungssystem, das wir Menschen vor langer Zeit erfunden haben, um physische Unterschiede zwischen Menschen zu definieren, und das immer noch in Daten vorhanden ist.

Der zugrundeliegende mathematische Algorithmus in KI-Systemen ist selbst nicht sexistisch. KI lernt aus Daten mit all ihren möglichen geschlechtsspezifischen Verzerrungen. Nehmen wir zum Beispiel an, ein Gesichtserkennungsmodell hat noch nie eine transsexuelle oder nicht-binäre Person gesehen, weil es kein solches Bild im Datensatz gab. In diesem Fall wird es eine transgender oder nicht-binäre Person nicht korrekt klassifizieren (Selection Bias).

Oder, wie im Fall von Google Translate, wird der Ausdruck „eine Ärztin“ in geschlechtsspezifisch flektierten Sprachen durchweg in die männliche Form übersetzt, weil das KI-System auf Tausenden von Online-Texten trainiert wurde, in denen die männliche Form von „Arzt“ aufgrund historischer und sozialer Umstände stärker verbreitet war (Historical Bias). Laut Invisible Women gibt es bei Big Data im Allgemeinen eine große Kluft zwischen den Geschlechtern, die zu Lasten der Frauen geht. Wenn wir also nicht darauf achten, mit welchen Daten wir diese Algorithmen füttern, werden sie den Gender Gap in den Daten übernehmen und Frauen systematisch diskriminieren.

Modelle brauchen Bildung

Zweitens sind unsere KI-Modelle leider nicht intelligent genug, um die Vorurteile in den Daten zu überwinden. Da die derzeitigen KI-Modelle nur Korrelationen und keine kausalen Strukturen analysieren, lernen sie blind, was in den Daten steht. Diesen Algorithmen wohnt ein systematischer Strukturkonservatismus inne, da sie darauf ausgelegt sind, bestimmte Muster in den Daten zu reproduzieren.

Um dies zu veranschaulichen, werde ich ein fiktives und sehr vereinfachtes Beispiel verwenden: Stellt euch einen sehr stereotypen Datensatz mit vielen Bildern von Frauen in Küchen und Männern in Autos vor. Anhand dieser Bilder soll ein Bildklassifikationsalgorithmus lernen, das Geschlecht einer Person auf einem Bild vorherzusagen. Aufgrund der Datenselektion gibt es in dem Datensatz eine hohe Korrelation zwischen Küchen und Frauen und zwischen Autos und Männern – eine höhere Korrelation als zwischen einigen charakteristischen Geschlechtsmerkmalen und dem jeweiligen Geschlecht. Da das Modell keine kausalen Strukturen erkennen kann (was geschlechtsspezifische Merkmale sind), lernt es also fälschlicherweise, dass eine Küche im Bild auch bedeutet, dass Frauen im Bild sind, und dasselbe gilt für Autos und Männer. Wenn also auf einem Bild eine Frau in einem Auto zu sehen ist, würde die KI die Person als Mann identifizieren und vice versa.

Dies ist jedoch nicht der einzige Grund, warum KI-Systeme die Vorurteile in Daten nicht überwinden können. Es liegt auch daran, dass wir den Systemen nicht „sagen“, dass sie darauf achten sollen. KI-Algorithmen lernen, indem sie ein bestimmtes, von den Entwicklern festgelegtes Ziel optimieren. In der Regel handelt es sich bei dieser Leistungsmessung um eine durchschnittliche Genauigkeitsmetrik, die keinerlei ethische oder faire Beschränkungen enthält. Das ist so, als ob ein Kind lernen soll, so viel Geld wie möglich zu bekommen, ohne zusätzliche Einschränkungen, wie z. B. die Konsequenzen von Diebstahl, Ausbeutung oder Betrug. Wenn wir wollen, dass KI-Systeme lernen, dass geschlechtsspezifische Vorurteile falsch sind, müssen wir dies in ihr Training und ihre Leistungsbewertung einbeziehen.

Der Gemeinschaft fehlt es an Diversität

Schließlich ist es die Entwickler:innen-Community, die direkt oder indirekt, bewusst oder unbewusst ihre eigenen geschlechtsspezifischen und anderen Vorurteile in KI-Technologien einbringt. Sie wählen die Daten aus, definieren das Optimierungsziel und gestalten die Nutzung von KI.

Auch wenn in einigen Fällen möglicherweise böswillige Absichten vorliegen, würde ich behaupten, dass Entwickler:innen ihre eigenen Vorurteile oft unbewusst in KI-Systeme einbringen. Wir alle erliegen unbewussten Vorurteilen, d. h. unbewussten Denkfehlern, die aus Problemen mit dem Gedächtnis, der Aufmerksamkeit und anderen mentalen Fehlern resultieren. Mit anderen Worten: Diese Verzerrungen resultieren aus dem Bestreben, die unglaublich komplexe Welt, in der wir leben, zu vereinfachen.

So fällt es unserem Gehirn beispielsweise leichter, stereotypes Denken anzuwenden, d. h. Vorstellungen über eine Person auf der Grundlage dessen zu entwickeln, wie Menschen aus einer ähnlichen Gruppe „typischerweise“ sein könnten (z. B. ein Mann eignet sich besser für die Position eines Geschäftsführers), als alle Informationen zu sammeln, um eine Person und ihre Eigenschaften vollständig zu verstehen. Oder, gemäß dem Affinitäts-Bias, mögen wir die Menschen am meisten, die so aussehen und denken wie wir, was ebenfalls eine vereinfachte Art ist, die Menschen um uns herum zu verstehen und zu kategorisieren.

Wir alle haben solche unbewussten Vorurteile, und da wir alle unterschiedliche Menschen sind, variieren diese Vorurteile von Person zu Person. Da jedoch die derzeitige Gemeinschaft der KI-Entwickler:innen zu über 80 % aus weißen, Cis-Männern besteht, sind die Werte, Ideen und Vorurteile, die sich in KI-Systeme einschleichen, sehr homogen und damit buchstäblich engstirnig. Angefangen bei der Definition von KI: Die Gründerväter der KI im Jahr 1956 waren allesamt weiße, männliche Ingenieure, eine sehr homogene Gruppe von Menschen, was zu einer engen Vorstellung davon führte, was Intelligenz ist, nämlich die Fähigkeit, Spiele wie Schach zu gewinnen. Aus der Psychologie wissen wir jedoch, dass es viele verschiedene Arten von Intelligenz gibt, z. B. emotionale oder soziale Intelligenz. Wenn heute ein Modell von einer sehr homogenen Gruppe von Menschen ohne besondere Aufmerksamkeit und Verfahren entwickelt und überprüft wird, sind sie aufgrund unbewusster Voreingenommenheit nicht in der Lage, Diskriminierung zu erkennen, die sich von ihnen selbst unterscheidet. In der Tat ist diese homogene Gemeinschaft tendenziell die Gruppe von Menschen, die in der KI kaum unter Voreingenommenheit leidet.

Stellen Sie sich vor, alle Kinder auf der Welt würden von 30-jährigen weißen Cis-Männern aufgezogen und erzogen. So sieht unsere KI heute aus. Sie wird von einer sehr homogenen Gruppe entworfen, entwickelt und bewertet und vermittelt so eine einseitige Perspektive auf Werte, Normen und Ideen. Die Entwickler:innen sind der Kern dieser Entwicklung. Sie bringen der KI bei, was richtig oder falsch, was gut oder schlecht ist.

Die Vorurteile in der Gesellschaft aufbrechen

Ein entscheidender Schritt auf dem Weg zu einer fairen und unvoreingenommenen KI ist also eine vielfältige und integrative KI-Entwicklungsgemeinschaft. Inzwischen gibt es einige technische Lösungen für die genannten Probleme der Daten- und Modellverzerrung (z. B. Datendiversifizierung oder Kausalmodellierung). Doch all diese Lösungen sind nutzlos, wenn die Entwickler:innen nicht von vornherein über Probleme mit Vorurteilen nachdenken. Unterschiedliche Menschen können die blinden Flecken und die Vorurteile der jeweils anderen besser überprüfen. **Viele Studien zeigen, dass die Vielfalt in Informatikteams entscheidend dazu beiträgt, Vorurteile in der KI zu verringern.

Außerdem müssen wir unsere Gesellschaft über KI, ihre Risiken und Chancen aufklären. Wir müssen die Ausbildung von KI-Entwickler:innen überdenken und umstrukturieren, denn sie brauchen ebenso viel ethisches Wissen wie technisches Wissen, um faire und unvoreingenommene KI-Systeme zu entwickeln. Wir müssen die breite Bevölkerung darüber aufklären, dass auch wir alle Teil dieses massiven Wandels durch KI werden können, um unsere Ideen und Werte in die Gestaltung und Entwicklung dieser Systeme einzubringen.

Wenn wir die Vorurteile der KI überwinden wollen, müssen wir letztlich auch die Vorurteile in unserer Gesellschaft überwinden. Vielfalt ist die Lösung für eine faire und unvoreingenommene KI, nicht nur in den KI-Entwicklungsteams, sondern in unserer gesamten Gesellschaft. KI wird von Menschen gemacht, von uns, von unserer Gesellschaft. Unsere Gesellschaft mit ihren Strukturen bringt Vorurteile in die KI: durch die Daten, die wir produzieren, die Ziele, die wir von den Maschinen erwarten, und die Gemeinschaft, die diese Systeme entwickelt. Im Kern sind Vorurteile in der KI kein technisches Problem – sie sind ein soziales Problem.

Positive Verstärkung von KI

Schließlich müssen wir uns fragen, ob wir wollen, dass die KI die heutige Gesellschaft widerspiegelt oder eine gleichberechtigtere Gesellschaft von morgen? Nehmen wir an, wir verwenden Machine Learning Modelle, um die Welt von heute abzubilden. In diesem Fall werden wir keinen sozialen Fortschritt erzielen. Wenn wir nicht handeln, könnten wir einige soziale Fortschritte, wie z. B. mehr Gleichberechtigung zwischen den Geschlechtern, verlieren, da die KI Vorurteile verstärkt und in unser Leben zurückbringt. Die KI soll zukunftsorientiert sein. Aber gleichzeitig basiert sie auf Daten, und Daten spiegeln unsere Geschichte und Gegenwart wider. So wie wir also die Voreingenommenheit in der Gesellschaft überwinden müssen, um die Voreingenommenheit in KI-Systemen zu überwinden, brauchen wir unvoreingenommene KI-Systeme für den sozialen Fortschritt in unserer Welt.

Nach all dem bin ich hoffnungsvoll und optimistisch. Durch diesen Verstärkungseffekt hat die KI das Bewusstsein für alte Fairness- und Diskriminierungsprobleme in unserer Gesellschaft auf einer viel breiteren Ebene geschärft. Vorurteile in KI zeigen uns einige der dringendsten gesellschaftlichen Herausforderungen. Ethische und philosophische Fragen werden immer wichtiger. Und weil KI diesen Verstärkungseffekt auf die Gesellschaft hat, können wir sie auch zum Positiven nutzen. Wir können diese Technologie für das Gute nutzen. Wenn wir alle zusammenarbeiten, haben wir die Chance, die Welt zu einem wesentlich vielfältigeren, inklusiveren und gleichberechtigteren Ort umzugestalten. Livia Eichenberger

Bereits letztes Jahr war das gesamte Schweizer Team von STATWORX zum ersten Mal beim Digital Festival Zürich dabei. Daher haben wir uns schon sehr auf das diesjährige Event gefreut, das vom 23. bis 26. September im Schiffbau in Zürich stattfand, der praktischerweise gleich um die Ecke unseres Schweizer Büros liegt. Unter dem Motto „Make It Personal“ brachte eine Vielzahl von Keynotes, Labs und Networking-Sessions digitale Führungskräfte, Digital-Aficionados und Innovator:innen zusammen, die alle von Neugier, Offenheit und einer Maker-Mentalität angetrieben wurden. Passend zum diesjährigen Motto des Digital Festivals möchte ich Ihnen meine persönlichen fünf Highlights dieses Events nicht vorenthalten.

5 Highlights vom Digital Festival Zürich 2021

1. AI Experience: Lernen. Interagieren. Anwenden

In diesem Jahr nahmen wir nicht nur als Gäste am Digital Festival Zürich teil, sondern hatten auch die Möglichkeit, am Freitagnachmittag eine Lab-Session zu veranstalten. In unserem AI Experience Lab haben wir zunächst eine kurze Einführung gegeben, was sich hinter dem Buzzword künstliche Intelligenz verbirgt, und die Möglichkeit geboten, mit verschiedenen KI-Anwendungen zu interagieren und herumzuspielen. Zum Beispiel mit einem GPT-3-basierten Data Science Chatbot oder der Teachable Machine von Google.

Nach der Präsentation verschiedener Anwendungsfälle der vorgestellten KI-Technologien konnten die Teilnehmenden weitere Anwendungsfälle für ihr jeweiliges Geschäftsfeld ausarbeiten. Da wir recht spontan die Chance bekamen, eine Lab-Session zu veranstalten, freuten wir uns umso mehr, dass sie sofort ausgebucht war. Die Gruppe war sehr heterogen – Geschäftsleute aus verschiedenen Branchen, Forschende und auch einige Studierende – was zu vielen interessanten Gesprächen und Diskussionen führte. Es war eine große Freude zu sehen, wie interessiert und engagiert die Teilnehmenden waren.

In der abschließenden Fragerunde wollten sie vor allem wissen, wie KI in Zukunft aussehen wird und welche Auswirkungen sie auf die Gesellschaft haben wird. Das hat mir wieder einmal gezeigt, wie wichtig es ist, sich nicht nur auf KI in der Wirtschaft zu konzentrieren, sondern auch Themen im Bereich KI und Gesellschaft anzusprechen und voranzutreiben.

2. Blind Spot – Das Spiel für Ihr nächstes Teamevent

Neben unserer eigenen Session habe ich noch an einer weiteren Lab-Session teilgenommen, und die war ein Hit. In diesem Lab hatten wir die Möglichkeit, Blind Spot zu spielen. Blind Spot ist ein kooperatives Brettspiel, das von Sabrina Schenardi und Matthias Koller mit Unterstützung des Spieleentwicklers Robert Stoop im Rahmen einer MBA-Arbeit erforscht und entwickelt wurde.

In Teams waren wir für die Leitung eines fiktiven Unternehmens mit allen üblichen Abteilungen wie Personal, Finanzen oder IT verantwortlich. Mit Schnelligkeit, Strategie und Zusammenarbeit mussten wir verschiedene Herausforderungen bewältigen und Zielkonflikte lösen. Es dauerte einige Zeit, bis sich unser Team an den Gedanken gewöhnt hatte, miteinander und nicht gegeneinander zu spielen. Es war auch sehr interessant zu sehen, dass jede:r von uns eine andere Vorstellung davon hatte, was Gewinnen in diesem Spiel bedeutet: Während einige von uns darauf aus waren, so viel Geld wie möglich auf dem Konto zu haben, wollten andere zum Beispiel um jeden Preis vermeiden, in einen blinden Fleck zu geraten (eine Situation, in der man eine enorme Menge an Aufgaben zu lösen hat). Und dann gab es noch diejenigen, die das Spiel einfach schneller als die anderen Teams beenden wollten.

In der abschließenden Diskussion, nachdem alle Teams das Spiel beendet hatten, stellten wir fest, dass keine:r von uns mehr Recht oder Unrecht hatte als die anderen. Genau wie in der realen Geschäftswelt gibt es viele verschiedene Strategien und Maßnahmen, um ein Unternehmen erfolgreich zu führen.

3. Überall Festival-Atmosphäre

Was mir am Digital Festival Zürich im Vergleich zu anderen Business- und Networking-Konferenzen wirklich gefällt, ist der außergewöhnliche Veranstaltungsort und die lockere Atmosphäre dieser Veranstaltung. Schon beim Einchecken erinnerten mich die Badges und Festivalarmbänder mehr an meinen Besuch des Gurtenfestivals vor ein paar Jahren, als an meinen letzten Besuch einer Business-Konferenz. Nur, dass das Einchecken hier viel schneller ging als bei jedem Musikfestival, das ich je besucht habe. Dieses Festivalgefühl zog sich durch die gesamte Veranstaltung und rechtfertigte den Namen Digital Festival voll und ganz.

Das Foyer war mit verschiedenen Foodtrucks, Erlebnisständen und Sitzecken zum Plaudern gefüllt. Der gesamte Hauptveranstaltungsort war sehr offen und flexibel gestaltet, so dass man problemlos zwischen Keynote-Vorträgen, Networking und Catering wechseln konnte, ohne jemanden zu stören. Generell war der Veranstaltungsort perfekt auf das Thema der Digitalisierung abgestimmt. Der Schiffbau, der ursprünglich für den Bau von Schiffen genutzt wurde, befindet sich im Herzen des Zürcher Tech-Quartiers, direkt neben dem berühmten Technopark. Der industrielle Stil des Gebäudes in Kombination mit der modernen, avantgardistischen Dekoration bot die perfekte Umgebung für Innovationen, Ideen und Diskussionen zu Themen unserer digitalen Zukunft.

4. Was für ein kulinarisches Erlebnis!

Das Tüpfelchen auf dem „i“ dieser Veranstaltung war definitiv das Catering. Nach dem Einchecken wurden wir mit Croissants, frischen Säften und Smoothies und – das Beste für einen Frahlingliebhaber wie mich – mit einem Barista-Truck mit frisch geröstetem Kaffee begrüßt. Zum Mittagessen war die Lobby voller Food Trucks, die alles anboten, was das Herz begehrt: Currys, Pasta, Arbeit, Sushi, Burger und mehr – alles superfrisch und lecker. Und das Beste daran: Da die Portionen eher Tapas-Größe hatten, konnte man alles probieren, ohne Lebensmittel zu verschwenden. Es gab auch viele vegetarische und vegane Optionen, so dass wirklich für jeden etwas dabei war. Mein persönlicher Favorit: die vegetarischen Gnocci mit Sahne, Spinat und Walnüssen. Zum Nachtisch konnten wir uns mit einem süßen Eis aus der Region verwöhnen. Nach den Lab-Sessions am Nachmittag wurde uns ein köstlicher Aperitif mit Köstlichkeiten wie Muscheln, Weißweinrisotto und Cocktail-Frikadellen angeboten. Zusammen mit dem lokalen Bier und Wein war dies der perfekte kulinarische Abschluss dieser Veranstaltung.

5.Keynote: KI für die Entscheidungsfindung?

Mein persönliches Highlight beim Digital Festival war die Keynote von Elliott Ash zum Thema Building a Robot Judge – What Role for Artificial Intelligence in Judicial Decision-Making. Anhand der Idee, einen Roboter-Richter zu bauen, ging Elliott Ash auf die Frage ein, wann KI zur Unterstützung der menschlichen Entscheidungsfindung eingesetzt werden sollte. Um diese Frage zu beantworten, stellte er drei Kategorien von Entscheidungsprozessen und die damit verbundenen Chancen und Risiken des Einsatzes von KI in jedem dieser Prozesse vor. Insgesamt sind die wahrscheinlich größten Risiken bei der Integration von KI in Entscheidungsprozesse Vorurteile und Diskriminierung. Da Vorurteile bei KI ein sehr komplexes Thema ist, gibt es noch keine perfekten Lösungen für dieses Problem. Es gibt jedoch Möglichkeiten, wie KI eingesetzt werden kann, um Vorurteile in Systemen und sogar in Menschen zu erkennen.

Im Zusammenhang mit der Entwicklung fairer Algorithmen warf Eliott Ash eine weitere sehr interessante und wichtige Frage auf: Welchen Bezugspunkt verwenden wir, um die Fairness und Transparenz von KI-Systemen zu messen? Bei all den Diskussionen über KI-Fairness vergessen wir oft, dass wir Menschen selbst sehr voreingenommen und inkonsequent sind. In der Tat sind KI-Systeme nur deshalb voreingenommen, weil sie mit menschlichen Daten trainiert und von uns entwickelt und bewertet werden. Er wies auch darauf hin, dass Vorurteile bei KI oft dann auftritt, wenn ein sensibles Merkmal wie die Hautfarbe als Ersatz für ein anderes fehlendes Merkmal verwendet wird.

Ohne hier ins Detail zu gehen, hat mir dies einmal mehr gezeigt, wie wichtig es ist, den Bereich des kausalen maschinellen Lernens voranzutreiben, um KI-Systeme mit kausalem Denken zu entwickeln, da diese Systeme das Proxy-Problem automatisch lösen würden und insgesamt robuster sind als aktuelle KI-Lösungen.

Abschließend möchte ich Elliott Ash für diese großartige Keynote danken, die alle meine persönlichen Interessen rund um KI – Voreingenommenheit, Ethik, Menschen und Kausalität – vereint und mir viele neue Ideen und Gedanken zu diesen Themen vermittelt hat.

Fazit

Nach unserer Teilnahme am Digital Festival Zürich im letzten Jahr hatten wir hohe Erwartungen an das diesjährige Digital Festival, und wir wurden nicht enttäuscht. Wenn möglich, war die diesjährige Ausgabe sogar noch besser.

Zusätzlich zu meinen fünf oben genannten Highlights habe ich all die interessanten Menschen, die ich getroffen habe – alte Freunde und neue Bekannte – und die anregenden Diskussionen mit ihnen sehr geschätzt. Ich habe mich auch sehr gefreut, dass ich einen ganzen Tag mit meinen Schweizer Teamkollegen verbringen konnte, denn aufgrund der Corona-Pandemie war dies schon lange nicht mehr möglich.

Abschließend möchte ich mich bei allen Organisator:innen des Digital Festivals für die Durchführung dieses Events und bei allen Teilnehmenden für ihre Ideen, Inputs und ihre positive Energie bedanken. Wir freuen uns schon jetzt auf das Digital Festival 2022!

Livia Eichenberger

Fast gleichzeitig mit unseren Kollegen in Frankfurt sind auch wir, das Schweizer statworx Team in Zürich, Anfang Juli in ein neues Büro umgezogen.

Die neuen Räumlichkeiten im hippen Industrieviertel von Zürich bieten den perfekten Rahmen für das weitere Wachstum und den geplanten Ausbau des Schweizer Standortes von statworx.

Zurück zu den Anfängen

Wie es der Zufall will, wurde statworx Schweiz direkt gegenüber vom neuen Bürogebäude ins Leben gerufen. Zwei Jahre nach der Gründung von statworx in Frankfurt hat unser CEO, Sebastian Heinz, im Jahr 2013 hier am Turbinenplatz diese Zweigniederlassung eröffnet, um die vielen Schweizer Unternehmen direkt vor Ort beraten zu können.

Mit der ersten Erweiterung des Teams im Jahr 2018 wurde der Standort gewechselt und so arbeitete statworx Schweiz bis Ende Juni 2020 im Zentrum von Zürich.

Im neuen Office, am Puls des Kreis 5, haben wir nun genügend Platz für die weitere Entwicklung und dem damit verbundenen Teamzuwachs von statworx Schweiz.

Der moderne Open-Space mit Sichtbeton, weiten Glassfronten und tropischen Pflanzen bietet den perfekten Raum für kreatives und konzentriertes Arbeiten. Die Dachterrasse sorgt für einen perfekten Erholungsort für die Pausen zwischendurch.

AI Potential der Schweiz

Im Laufe der Jahre haben wir bereits mit vielen Schweizer Unternehmen gemeinsam an deren Data Science, Machine Learning und AI Herausforderungen gearbeitet. Dabei sind wir industrieübergreifend aktiv gewesen: ob Versicherung, Finanzdienstleistung, Transport, Retail oder Telekommunikation – wir haben in nahezu allen Branchen bereits Erfahrungen gesammelt. Auch die Themen waren vielfältig und spannend: von der Prognose der Kundenabwanderung im Versicherungsumfeld, einer Datenstrategie im öffentlichen Transport, über Anomalieerkennung in Telekommunikationsnetzen bis zur Prognose von Abflugverspätungen ist so ziemlich alles dabei gewesen, was das Herz jedes Data Scientist höher schlagen lässt.

Auch in Zukunft möchten wir mit unserer Expertise und breitgefächerten Erfahrung dazu beitragen, das Thema Data Science und AI in der Schweiz voranzutreiben und mitzugestalten. Wir sind davon überzeugt, dass wir mit unserem integrativen End-2-End Ansatz viele Prozesse, Dienstleistungen und Produkte in Unternehmen verbessern und effizienter gestalten können.

Um das AI Potential der Schweiz zu erschließen, werden wir in naher Zukunft ein maßgeschneidertes Portfolio an Initiativen und Workshops lancieren – stay tuned!

 

Livia Eichenberger

Fast gleichzeitig mit unseren Kollegen in Frankfurt sind auch wir, das Schweizer statworx Team in Zürich, Anfang Juli in ein neues Büro umgezogen.

Die neuen Räumlichkeiten im hippen Industrieviertel von Zürich bieten den perfekten Rahmen für das weitere Wachstum und den geplanten Ausbau des Schweizer Standortes von statworx.

Zurück zu den Anfängen

Wie es der Zufall will, wurde statworx Schweiz direkt gegenüber vom neuen Bürogebäude ins Leben gerufen. Zwei Jahre nach der Gründung von statworx in Frankfurt hat unser CEO, Sebastian Heinz, im Jahr 2013 hier am Turbinenplatz diese Zweigniederlassung eröffnet, um die vielen Schweizer Unternehmen direkt vor Ort beraten zu können.

Mit der ersten Erweiterung des Teams im Jahr 2018 wurde der Standort gewechselt und so arbeitete statworx Schweiz bis Ende Juni 2020 im Zentrum von Zürich.

Im neuen Office, am Puls des Kreis 5, haben wir nun genügend Platz für die weitere Entwicklung und dem damit verbundenen Teamzuwachs von statworx Schweiz.

Der moderne Open-Space mit Sichtbeton, weiten Glassfronten und tropischen Pflanzen bietet den perfekten Raum für kreatives und konzentriertes Arbeiten. Die Dachterrasse sorgt für einen perfekten Erholungsort für die Pausen zwischendurch.

AI Potential der Schweiz

Im Laufe der Jahre haben wir bereits mit vielen Schweizer Unternehmen gemeinsam an deren Data Science, Machine Learning und AI Herausforderungen gearbeitet. Dabei sind wir industrieübergreifend aktiv gewesen: ob Versicherung, Finanzdienstleistung, Transport, Retail oder Telekommunikation – wir haben in nahezu allen Branchen bereits Erfahrungen gesammelt. Auch die Themen waren vielfältig und spannend: von der Prognose der Kundenabwanderung im Versicherungsumfeld, einer Datenstrategie im öffentlichen Transport, über Anomalieerkennung in Telekommunikationsnetzen bis zur Prognose von Abflugverspätungen ist so ziemlich alles dabei gewesen, was das Herz jedes Data Scientist höher schlagen lässt.

Auch in Zukunft möchten wir mit unserer Expertise und breitgefächerten Erfahrung dazu beitragen, das Thema Data Science und AI in der Schweiz voranzutreiben und mitzugestalten. Wir sind davon überzeugt, dass wir mit unserem integrativen End-2-End Ansatz viele Prozesse, Dienstleistungen und Produkte in Unternehmen verbessern und effizienter gestalten können.

Um das AI Potential der Schweiz zu erschließen, werden wir in naher Zukunft ein maßgeschneidertes Portfolio an Initiativen und Workshops lancieren – stay tuned!

 

Livia Eichenberger