Data Science, Machine Learning und KI
Kontakt

Im April 2022 fand im Bierhübeli in Bern die erste Ausgabe des Unfold Events statt, welches von unserer Partnerfirma Cleverclip ins Leben gerufen wurde – und wir von statworx waren natürlich auch dabei. Das Event stand unter dem Motto „Raus aus der eigenen Branche, rein ins Unbekannte: Gemeinsam nehmen wir neue Blickwinkel ein und erweitern unseren Horizont.“

Auf dem Programm stand ein Nachmittag voller Keynotes zu zukunftsorientierten Themen, Networking Sessions und vielem mehr! Auch wir haben uns tatkräftig am Event beteiligt: Unsere Kollegin Livia Eichenberger hat eine Keynote zum Thema Bias in AI gehalten (bzw. halten lassen 👀), und als Sponsoren des Events hatten wir zudem eine Booth vor Ort. Was beim Betreten der Eventhalle im Bierhübeli direkt aufgefallen ist: Die unglaubliche Atmosphäre und das diverse, durchmischte Publikum. The stage was set!

Die Talks beim Unfold 2022

Herzstück des Events waren die Keynotes zu solch verschiedenen Themen, dass ich sie hier gar nicht zusammenfassen kann, sondern direkt meine Insights von den Talks mit euch teilen möchte:

Talk 1: Prof. Dr. Andreas Hack

„Sich als Unternehmen als nachhaltig zu betiteln, bewirkt beim Kunden genau das Gegenteil.“ Dieser Aussage ging Prof. Dr. Andreas Hack in seiner Keynote zum Thema Nachhaltigkeit auf den Grund. Seine Kernaussagen waren:

  • Das Image einer Firma im Bezug auf Nachhaltigkeit hat viel mehr mit der Glaubwürdigkeit der Firma bzw. Marke zu tun, als damit wie eine einzelne Nachhaltigkeitskampagne aufgebaut ist.
  • Glaubwürdigkeit in jeglichen Aspekten, auch jenseits der Nachhaltigkeit, ist essenziell dafür, dass man einem Unternehmen glaubt, dass es nachhaltig ist.
  • Achtung: Stark umworbene Nachhaltigkeitskampagnen können auch mal wenig oder gar das Gegenteil bewirken. Als Beispiel dazu nannte Prof. Dr. Hack eine Kampagne von Krombacher, bei der für jeden Kasten Bier 1m^2 Regenwald erhalten wird. Er nannte die Aktion humorvoll: „Wir saufen für den Regenwald“.

Talk 2: Livia Eichenberger

„Wir kommen täglich mit AI in Berührung – bloß merken wir es meistens nicht.“ So lautete der Teaser der Keynote unserer Kollegin Livia. Aber ihre Keynote ging noch weiter und zeigte auf, welche Risiken durch die Nutzung von KI-Technologien in sich birgt. Leider konnte Livia nicht in Person am Unfold teilnehmen und ihre Keynote halten. Freundlicherweise hat sie kurzerhand eine virtuelle Helferin gefunden, den AI Avatar Rosa. 🦾🤖 So konnte die Message der Keynote trotzdem im Bierhübeli überbracht werden. Besonders zu highlighten sind folgende Take-aways:

  • Menschliche Biases spiegeln sich in den Daten, auf denen KI-Systeme trainiert werden. Wenn man sich nicht um diese Probleme kümmert, werden diese Biases auf KI-Systeme übertragen.
  • Für unvoreingenommene KI brauchen wir eine diverse KI-Community!
  • Wenn wir richtig vorgehen, können wir als Gesellschaft Hand in Hand mit KI-Systemen den Bias in der Gesellschaft durchbrechen. Die Zeit zu Handeln ist jetzt!

Talk 3: Alan Frei

Alan Frei’s Credo lautet: „Um eine Firma aufzubauen, braucht es am Anfang vor allem eines: gar nichts!“ Unter diesem Motto nahm Alan die Leute mit auf seine Reise als Unternehmer, und gab uns seine 10 Takeaways für die Gründung eines Startups mit auf den Weg, unter anderem:

  • Focus: Fokussiere dich auf eine Idee.
  • Target group: Arbeite an einem Problem, was dich selbst auch betrifft.
  • No fear: Habe keine Angst zu Scheitern, die Liste von Alan’s Fails hatte mit Schriftgrösse 10 knapp Platz auf einer Folie (Danke für deine Ehrlichkeit Alan!).
  • Fun Fact: Alan hat es sich nun zum Ziel gesetzt an der Winterolympiade 2026 für die Philippinen zu starten. Auf die Frage nach der Disziplin kam bloss die Antwort: „Das müssen wir noch herausfinden.“ 🤔

Talk 4: Jürg Grossen

„Die Schweiz kann mit hoher Innovationskraft und Offenheit zur Vorreiterin beim Umwelt- und Klimaschutz werden.“ Dessen ist sich Jürg Grossen sicher. Was wir dafür tun müssen:

  • Die Möglichkeit haben, im Notfall Selbstversorger:in zu sein.
  • Einen effizienteren Umgang mit Strom. Schluss mit der Verschwendung! Ein Helfer kann IOT sein, wie Jürg Grossen auch in seiner eigenen Firma eindrücklich aufgezeigt hat.
  • Ein starkes Investment in die Solarenergie.

Talk 5: Nicholas Hänny

Wenn es nach Nicholas Hänny, Gründer von Nikin, geht, dann ist eins gewiss: „Es geht nicht um die Idee, es geht um die Umsetzung.“ Konkret redet Nicholas hier von den Bereichen Marketing und Branding. Meine Takeaways seiner mit Humor gespickten Keynote waren:

  • Nicht jeder Marketing Post oder jede Kampagne muss genau geplant sein, es kann schon hilfreich sein einfach aktiv das zu posten was man gerade denkt oder macht.
  • Nikin wollte ursprünglich eine Skater Marke werden. Als Nicholas und sein Team dann merkten, dass auch andere Leute ihre Produkte kaufen, haben sie sich schnell von diesem Vorhaben gelöst.
  • Das Wald-Office gibt es nicht 😭 Für mehr Infos zum Wald-Office, siehe hier.

 

Afterparty

Nach den Talks und einer anschliessenden, sehr aktiven Networking-Session verschob sich die Action in das neu im „Jungle-Look“ designte Cleverclip Office im Herzen Berns. Dort haben wir bei dem einen oder anderen Bier, tollen Leuten und bei entspannter Atmosphäre den Abend ausklingen lassen.

Unfold geht 2023 in die zweite Runde

Neugierig geworden? Cleverclip hat bereits das Datum für das Folgeevent der Unfold verkündigt. Am 30. März 2023 findet die Unfold wieder im Bierhübeli in Bern statt. Alle Infos findet ihr auf der Website: https://unfold-event.ch/

Wir möchten uns nochmal bei Ceverclip für die super Organisation bedanken und sagen: Bis nächstes Jahr!

  Stephan Müller

Intro

statworx hat dieses Jahr zum ersten Mal am START Summit x Hack teilgenommen. START fand in den OLMA Messen in St. Gallen statt und wurde von Studierenden der Universität St. Gallen – meiner Alma Mater – organisiert. Diese Doppelveranstaltung bestand aus dem START Summit, Europas führender Studierendenkonferenz für Unternehmergeist und Technologie, und dem START Hack, Europas innovativstem Hackathon. Mehr als 3.500 Gründer:innen, Investor:innen, Studierende und Besucher:innen aus der ganzen Welt nahmen an der Veranstaltung teil. Da statworx der Hauptsponsor des START Hack war, gehörte unser CEO, Sebastian Heinz, zur Jury, die das Gewinnerteam des Hackathons auswählte. Außerdem war ein Teil unseres Swiss und AI Ventures Teams an unserem Stand auf der START Summit Messe anwesend. Nach zwei sehr spannenden, beeindruckenden und aufschlussreichen Tagen möchte ich meine sieben wichtigsten Erkenntnisse mit euch teilen.

7 Erkenntnisse vom Start Summit X Hack 2022

AI ist überall

Nicht nur, dass fast alle Hackathon-Lösungen datengetrieben waren, es gab auch viele Start-ups und Unternehmen mit KI-Produkten und -Dienstleistungen auf der Messe, wie zum Beispiel der KI-Zahnarzt von zaamigo, der deine Zähne analysiert und dir sagt, wann es Zeit ist, zum Zahnarzt zu gehen. Außerdem war KI ein zentrales Thema in vielen Vorträgen, Diskussionen und Workshops. Das hat mir wieder einmal gezeigt, dass KI überall ist und die Schlüsseltechnologie unserer Zukunft ist.

Die Zukunft ist nachhaltig und menschenzentriert

Es hat mich sehr gefreut zu sehen, dass die Ideen, Technologien und Lösungen, die auf dieser Veranstaltung vorgestellt wurden, darauf ausgerichtet waren, eine bessere Welt zu schaffen, sowohl für die Umwelt als auch für uns Menschen. Das war auch ein wichtiges Kriterium bei der Entscheidung der START Hack-Jury für das Gewinnerteam, das eine neue Methode zur Integration menschlicher Eigenschaften in digitale Konversationen entwickelt hat, um schädliche Inhalte in Online-Diskussionen zu reduzieren.

Das Metaverse kommt

Die Schaffung von Metamuseen zum Verkauf digitaler Kunst, Diskussionen über die Relevanz von Rezensionen im Metaverse und Ideen, wie psychologische Beratung über einen anonymen Avatar effektiver sein könnte – die Möglichkeiten und Visionen des Metaverse waren allgegenwärtig. Das Metaverse, unsere zweite Welt, eine virtuelle Realität, könnte schneller kommen, als wir denken.

Technologische Lösungen umfassen mehr als Datenverarbeitung

Der Pitching-Wettbewerb der START Hack-Finalist:innen hat gezeigt, dass die Entwicklung nachhaltiger und effektiver technischer Lösungen viel mehr umfasst als die Verarbeitung von Zahlen und Programmierung, nämlich:

  • Das Problem in seinem Kern erkennen.
  • Die jeweiligen Stakeholder verstehen.
  • Vorhandene Lösungen recherchieren.
  • Ein funktionierendes Geschäftsmodell entwickeln und das wiederum einem Publikum verständlich präsentieren.

Studierende rocken

Nicht nur die am START Hack teilnehmenden Studierenden haben innovative, kreative und zukunftsweisende Lösungen entwickelt. Der START Summit x Hack wurde ausschließlich von Studierenden der Universität St. Gallen organisiert. Sie managen ein internationales Hybrid-Event, das jedes Jahr über 3.000 Menschen aus der ganzen Welt anzieht. Hut ab!

Einen ansprechenden Stand zu gestalten ist eine Herausforderung

Einen Stand auf einer Messe wie dem START Summit zu haben ist eine Sache, aber damit Leute anzulocken eine ganz andere: Einerseits haben wir festgestellt, dass unser Slogan „we create the next“ zwar zum Nachdenken anregt, die Leute aber eher verwirrt, als dass er sie dazu bringt, mit uns am Stand zu sprechen. Glücklicherweise stellte uns unser Marketingteam ein informationsreicheres Roll-up zur Verfügung. Andererseits ist ein Monitor mit bewegten Inhalten und bunten Bildern ein echter Publikumsmagnet – vielen Dank an das AI Ventures-Team dafür.

Meine statworx Kolleg:innen sind die Besten

Schließlich hat mir diese Veranstaltung gezeigt, was für wunderbare, kluge und fürsorgliche Menschen wir bei statworx haben. Während und vor der Veranstaltung halfen sie mir bei der Organisation auf jede erdenkliche Art und Weise. Selbst spontane Änderungen wurden unkompliziert und hilfsbereit gehandhabt. Unser Teamgeist und unsere positive Ausstrahlung schien auch von anderen wahrgenommen zu werden: Die Hacker:innen waren begeistert von der charismatischen 3-Minuten-Rede unseres Geschäftsführers, und die Besucher:innen unseres Standes machten uns mehrfach Komplimente, was für sympathische und aufgeschlossene Menschen wir in unserem Unternehmen haben.

Fazit

Ich möchte mich bei allen Veranstalter:innen von START Global bedanken, die diese fantastische Veranstaltung möglich gemacht haben, und bei meinen Kolleg:innen für ihre Unterstützung, ihre positive Energie und ihre gute Laune! Ich freue mich schon jetzt auf die START Summit x Hack 2023! Livia Eichenberger Livia Eichenberger Livia Eichenberger Livia Eichenberger Livia Eichenberger

«Vertrauen schaffen durch menschenzentrierte KI»: Unter diesem Slogan hat die Europäische Kommission in der vergangenen Woche ihren Vorschlag zur Regulierung von künstlicher Intelligenz (KI-Regulierung) vorgestellt. Dieser historische Schritt positioniert Europa als ersten Kontinent, der KI und den Umgang mit personenbezogenen Daten einheitlich reguliert. Mithilfe dieser wegweisenden Regulierung soll Europa Standards zur Nutzung mit Daten und KI setzen – auch über die europäischen Grenzen hinaus. Dieser Schritt ist richtig. KI ist ein Katalysator der digitalen Transformation mit nachhaltigen Implikationen für Wirtschaft, Gesellschaft und Umwelt. Klare Spielregeln für den Einsatz dieser Technologie sind deshalb ein Muss. Damit kann sich Europa als progressiver Standort positionieren, der bereit ist für das digitale Zeitalter. In der aktuellen Form wirft der Vorschlag aber noch einige Fragen bei der praktischen Umsetzung auf. Abstriche bei der digitalen Wettbewerbsfähigkeit kann sich Europa im immer weiter klaffenden Wettbewerb mit Amerika und China nicht leisten.

Transparenz bei Risiken von KI

Zwei zentrale Vorschläge der KI-Regulierung zur Schaffung von Vertrauen

Um Vertrauen in KI-Produkte zu schaffen, setzt der Vorschlag zur KI-Regulierung auf zwei zentrale Ansätze: Risiken künstlicher Intelligenz überwachen und gleichzeitig ein «Ökosystem an KI-Exzellenz» kultivieren. Konkret beinhaltet der Vorschlag ein Verbot für die Anwendung von KI zu manipulativen und diskriminierenden Zwecken oder zur Beurteilung von Verhalten durch ein «Social Scoring System». Anwendungsfälle, die nicht in diese Kategorie fallen, sollen trotzdem auf Gefahren untersucht und auf einer vagen Risikoskala platziert werden. An Hochrisikoanwendungen werden besondere Anforderungen gestellt, deren Einhaltung sowohl vor als auch nach der Inbetriebnahme geprüft werden soll.

Dass anstelle einer Pauschalregulierung KI-Anwendungen auf Fallbasis beurteilt werden sollen, ist entscheidend. Noch letztes Jahr forderte die Europäische Kommission in einem Whitepaper die breite Einstufung aller Anwendungen in Geschäftsbereichen wie dem Gesundheitssektor oder der Transportindustrie. Diese flächendeckende Einstufung anhand definierter Branchen, unabhängig der eigentlichen Use Cases, wäre hinderlich und hätte für ganze Industrien auf dem Kontinent strukturelle Benachteiligungen bedeutet. Diese Fall-zu-Fall-Beurteilung erlaubt die agile und innovative Entwicklung von KI in allen Sektoren und unterstellt zudem alle Branchen den gleichen Standards zur Zulassung von risikoreichen Anwendungen.

Klare Definition von Risiken einer KI-Anwendung fehlt

Allerdings lässt der Vorschlag zur KI-Regulierung eine klare Definition von «hohen Risiken» vermissen. Da Entwickler selbst für die Beurteilung ihrer Anwendungen zuständig sind, ist eine klar definierte Skala zur Beurteilung von Risiken unabdingbar. Artikel 6 und 7 umschreiben zwar Risiken und geben Beispiele von «Hochrisikoanwendungen», ein Prozess zur Beurteilung von Risiken einer KI-Anwendung wird aber nicht definiert. Besonders Start-ups und kleinere Unternehmen, die unter KI-Entwicklern stark vertreten sind, sind auf klare Prozesse und Standards angewiesen, um gegenüber Großunternehmen mit entsprechenden Ressourcen nicht ins Hintertreffen zu geraten. Dazu sind praxisnahe Leitlinien zur Beurteilung von Risiken nötig.

Wird ein Use Case als «Hochrisikoanwendung» eingestuft, dann müssen verschiedene Anforderungen hinsichtlich Data Governance und Risk Management erfüllt sein, bevor das Produkt auf den Markt gebracht werden kann. So müssen verwendete Trainingsdatensätze nachweislich auf Verzerrungen und einseitige Tendenzen geprüft werden. Auch sollen die Modellarchitektur und Trainingsparameter dokumentiert werden. Nach dem Deployment muss ein Maß an menschlicher Aufsicht über getroffene Entscheidungen des Modells sichergestellt werden.

Verantwortlichkeit zu KI-Produkten ist ein hohes und wichtiges Ziel. Allerdings bleibt erneut die praktische Umsetzung dieser Anforderungen fraglich. Viele moderne KI-Systeme nutzen nicht länger den herkömmlichen Ansatz von Trainings- und Testdaten, sondern setzen bspw. durch Reinforcement Learning auf exploratives Training durch Feedback anstelle eines statischen, prüfbaren Datensatzes. Fortschritte in Explainable AI brechen zwar undurchschaubare Black-Box Modelle stetig weiter auf und ermöglichen immer mehr Rückschlüsse auf die Wichtigkeit von Variablen im Entscheidungsprozess eines Modelles, aber komplexe Modellarchitekturen und Trainingsprozesse vieler moderner neuronaler Netzwerke machen einzelne Entscheide eines solchen Modells für Menschen kaum sinnhaft rekonstruierbar.

Auch werden Anforderungen an die Genauigkeit der Prognosen oder Klassifizierungen gestellt. Dies stellt Entwickler vor besondere Herausforderungen, denn kein KI-System hat eine perfekte Genauigkeit. Dieser Anspruch besteht auch nicht, oftmals werden Fehlklassifikationen so eingeplant, dass sie für den jeweiligen Use Case möglichst wenig ins Gewicht fallen. Deshalb ist es unabdinglich, dass die Anforderungen an die Genauigkeit von Prognosen und Klassifikationen von Fall zu Fall in Anbetracht der Anwendung festgelegt werden und auf Pauschalwerte verzichtet wird.

KI-Exzellenz ermöglichen

Europa gerät ins Hintertreffen

Mit diesen Anforderungen will der Vorschlag zur KI-Regulierung durch Transparenz und Verantwortlichkeit Vertrauen in die Technologie wecken. Dies ist ein erster, richtiger Schritt in Richtung «KI-Exzellenz». Nebst Regulierung muss der KI-Standort Europa dazu aber auch für Entwickler und Investoren mehr Strahlkraft erhalten.

Laut einer jüngst veröffentlichten Studie des Center for Data Innovation gerät Europa sowohl gegenüber den Vereinigten Staaten als auch China im Anspruch um die weltweite Führungsposition in Sachen KI bereits ins Hintertreffen. So hat China mittlerweile in der Anzahl veröffentlichter Studien und Publikationen zu künstlicher Intelligenz Europa den Rang abgelaufen und die weltweite Führung übernommen. Auch ziehen europäische KI-Unternehmen erheblich weniger Investitionen an als ihre amerikanischen Pendants. Europäische KI-Unternehmen investieren weniger Geld in Forschung und Entwicklung und werden auch seltener aufgekauft als ihre amerikanischen Kollegen.

Ein Schritt in die richtige Richtung: Unterstützung von Forschung und Innovation

Der Vorschlag der EU-Kommission erkennt an, dass für Exzellenz auf dem europäischen Markt mehr Unterstützung für KI-Entwicklung benötigt wird und verspricht Regulatory Sandboxes, also rechtliche Spielräume zur Entwicklung und Testung innovativer KI-Produkte, und die Kofinanzierung von Forschungs- und Teststätten für KI. Dadurch sollen insbesondere Start-ups und kleinere Unternehmen wettbewerbsfähiger werden und für mehr europäische Innovationen sorgen.

Dies sind notwendige Schritte, um Europa auf den Weg zur KI-Exzellenz zu hieven, allerdings ist damit nicht genug getan. KI-Entwickler brauchen einfacheren Zugang zu Märkten außerhalb der EU, was auch das Vereinfachen von Datenströmen über Landesgrenzen bedeutet. Die Möglichkeiten zur Expansion in die USA und Zusammenarbeit mit Silicon Valley ist für die digitale Branche besonders wichtig, um der Vernetzung von digitalen Produkten und Services gerecht zu werden.

Was in dem Vorschlag zur KI-Regulierung gänzlich fehlt ist die Aufklärung über KI und deren Potenzial und Risiken außerhalb von Fachkreisen. Mit der zunehmenden Durchdringung aller Alltagsbereiche durch künstliche Intelligenz wird dies immer wichtiger, denn um Vertrauen in neue Technologien stärken zu können, müssen diese zuerst verstanden werden. Die Aufklärung sowohl über das Potenzial als auch die Grenzen von KI ist ein essenzieller Schritt, um künstliche Intelligenz zu entmystifizieren und dadurch Vertrauen in die Technologie zu schaffen.

Potenzial noch nicht ausgeschöpft

Mit diesem Vorschlag erkennt die Europäische Kommission an, dass Künstliche Intelligenz wegweisend ist für die Zukunft des europäischen Marktes. Leitlinien für eine Technologie dieser Tragweite sind wichtig – genauso wie die Förderung von Innovation. Damit diese Strategien auch Früchte tragen, muss ihre praktische Umsetzung auch für Start-ups und KMU zweifelsfrei umsetzbar sein. Das Potenzial zur KI-Exzellenz ist in Europa reichlich vorhanden. Mit klaren Spielregeln und Anreizen kann dies auch realisiert werden.

Oliver Guggenbühl Oliver Guggenbühl

«Vertrauen schaffen durch menschenzentrierte KI»: Unter diesem Slogan hat die Europäische Kommission in der vergangenen Woche ihren Vorschlag zur Regulierung von künstlicher Intelligenz (KI-Regulierung) vorgestellt. Dieser historische Schritt positioniert Europa als ersten Kontinent, der KI und den Umgang mit personenbezogenen Daten einheitlich reguliert. Mithilfe dieser wegweisenden Regulierung soll Europa Standards zur Nutzung mit Daten und KI setzen – auch über die europäischen Grenzen hinaus. Dieser Schritt ist richtig. KI ist ein Katalysator der digitalen Transformation mit nachhaltigen Implikationen für Wirtschaft, Gesellschaft und Umwelt. Klare Spielregeln für den Einsatz dieser Technologie sind deshalb ein Muss. Damit kann sich Europa als progressiver Standort positionieren, der bereit ist für das digitale Zeitalter. In der aktuellen Form wirft der Vorschlag aber noch einige Fragen bei der praktischen Umsetzung auf. Abstriche bei der digitalen Wettbewerbsfähigkeit kann sich Europa im immer weiter klaffenden Wettbewerb mit Amerika und China nicht leisten.

Transparenz bei Risiken von KI

Zwei zentrale Vorschläge der KI-Regulierung zur Schaffung von Vertrauen

Um Vertrauen in KI-Produkte zu schaffen, setzt der Vorschlag zur KI-Regulierung auf zwei zentrale Ansätze: Risiken künstlicher Intelligenz überwachen und gleichzeitig ein «Ökosystem an KI-Exzellenz» kultivieren. Konkret beinhaltet der Vorschlag ein Verbot für die Anwendung von KI zu manipulativen und diskriminierenden Zwecken oder zur Beurteilung von Verhalten durch ein «Social Scoring System». Anwendungsfälle, die nicht in diese Kategorie fallen, sollen trotzdem auf Gefahren untersucht und auf einer vagen Risikoskala platziert werden. An Hochrisikoanwendungen werden besondere Anforderungen gestellt, deren Einhaltung sowohl vor als auch nach der Inbetriebnahme geprüft werden soll.

Dass anstelle einer Pauschalregulierung KI-Anwendungen auf Fallbasis beurteilt werden sollen, ist entscheidend. Noch letztes Jahr forderte die Europäische Kommission in einem Whitepaper die breite Einstufung aller Anwendungen in Geschäftsbereichen wie dem Gesundheitssektor oder der Transportindustrie. Diese flächendeckende Einstufung anhand definierter Branchen, unabhängig der eigentlichen Use Cases, wäre hinderlich und hätte für ganze Industrien auf dem Kontinent strukturelle Benachteiligungen bedeutet. Diese Fall-zu-Fall-Beurteilung erlaubt die agile und innovative Entwicklung von KI in allen Sektoren und unterstellt zudem alle Branchen den gleichen Standards zur Zulassung von risikoreichen Anwendungen.

Klare Definition von Risiken einer KI-Anwendung fehlt

Allerdings lässt der Vorschlag zur KI-Regulierung eine klare Definition von «hohen Risiken» vermissen. Da Entwickler selbst für die Beurteilung ihrer Anwendungen zuständig sind, ist eine klar definierte Skala zur Beurteilung von Risiken unabdingbar. Artikel 6 und 7 umschreiben zwar Risiken und geben Beispiele von «Hochrisikoanwendungen», ein Prozess zur Beurteilung von Risiken einer KI-Anwendung wird aber nicht definiert. Besonders Start-ups und kleinere Unternehmen, die unter KI-Entwicklern stark vertreten sind, sind auf klare Prozesse und Standards angewiesen, um gegenüber Großunternehmen mit entsprechenden Ressourcen nicht ins Hintertreffen zu geraten. Dazu sind praxisnahe Leitlinien zur Beurteilung von Risiken nötig.

Wird ein Use Case als «Hochrisikoanwendung» eingestuft, dann müssen verschiedene Anforderungen hinsichtlich Data Governance und Risk Management erfüllt sein, bevor das Produkt auf den Markt gebracht werden kann. So müssen verwendete Trainingsdatensätze nachweislich auf Verzerrungen und einseitige Tendenzen geprüft werden. Auch sollen die Modellarchitektur und Trainingsparameter dokumentiert werden. Nach dem Deployment muss ein Maß an menschlicher Aufsicht über getroffene Entscheidungen des Modells sichergestellt werden.

Verantwortlichkeit zu KI-Produkten ist ein hohes und wichtiges Ziel. Allerdings bleibt erneut die praktische Umsetzung dieser Anforderungen fraglich. Viele moderne KI-Systeme nutzen nicht länger den herkömmlichen Ansatz von Trainings- und Testdaten, sondern setzen bspw. durch Reinforcement Learning auf exploratives Training durch Feedback anstelle eines statischen, prüfbaren Datensatzes. Fortschritte in Explainable AI brechen zwar undurchschaubare Black-Box Modelle stetig weiter auf und ermöglichen immer mehr Rückschlüsse auf die Wichtigkeit von Variablen im Entscheidungsprozess eines Modelles, aber komplexe Modellarchitekturen und Trainingsprozesse vieler moderner neuronaler Netzwerke machen einzelne Entscheide eines solchen Modells für Menschen kaum sinnhaft rekonstruierbar.

Auch werden Anforderungen an die Genauigkeit der Prognosen oder Klassifizierungen gestellt. Dies stellt Entwickler vor besondere Herausforderungen, denn kein KI-System hat eine perfekte Genauigkeit. Dieser Anspruch besteht auch nicht, oftmals werden Fehlklassifikationen so eingeplant, dass sie für den jeweiligen Use Case möglichst wenig ins Gewicht fallen. Deshalb ist es unabdinglich, dass die Anforderungen an die Genauigkeit von Prognosen und Klassifikationen von Fall zu Fall in Anbetracht der Anwendung festgelegt werden und auf Pauschalwerte verzichtet wird.

KI-Exzellenz ermöglichen

Europa gerät ins Hintertreffen

Mit diesen Anforderungen will der Vorschlag zur KI-Regulierung durch Transparenz und Verantwortlichkeit Vertrauen in die Technologie wecken. Dies ist ein erster, richtiger Schritt in Richtung «KI-Exzellenz». Nebst Regulierung muss der KI-Standort Europa dazu aber auch für Entwickler und Investoren mehr Strahlkraft erhalten.

Laut einer jüngst veröffentlichten Studie des Center for Data Innovation gerät Europa sowohl gegenüber den Vereinigten Staaten als auch China im Anspruch um die weltweite Führungsposition in Sachen KI bereits ins Hintertreffen. So hat China mittlerweile in der Anzahl veröffentlichter Studien und Publikationen zu künstlicher Intelligenz Europa den Rang abgelaufen und die weltweite Führung übernommen. Auch ziehen europäische KI-Unternehmen erheblich weniger Investitionen an als ihre amerikanischen Pendants. Europäische KI-Unternehmen investieren weniger Geld in Forschung und Entwicklung und werden auch seltener aufgekauft als ihre amerikanischen Kollegen.

Ein Schritt in die richtige Richtung: Unterstützung von Forschung und Innovation

Der Vorschlag der EU-Kommission erkennt an, dass für Exzellenz auf dem europäischen Markt mehr Unterstützung für KI-Entwicklung benötigt wird und verspricht Regulatory Sandboxes, also rechtliche Spielräume zur Entwicklung und Testung innovativer KI-Produkte, und die Kofinanzierung von Forschungs- und Teststätten für KI. Dadurch sollen insbesondere Start-ups und kleinere Unternehmen wettbewerbsfähiger werden und für mehr europäische Innovationen sorgen.

Dies sind notwendige Schritte, um Europa auf den Weg zur KI-Exzellenz zu hieven, allerdings ist damit nicht genug getan. KI-Entwickler brauchen einfacheren Zugang zu Märkten außerhalb der EU, was auch das Vereinfachen von Datenströmen über Landesgrenzen bedeutet. Die Möglichkeiten zur Expansion in die USA und Zusammenarbeit mit Silicon Valley ist für die digitale Branche besonders wichtig, um der Vernetzung von digitalen Produkten und Services gerecht zu werden.

Was in dem Vorschlag zur KI-Regulierung gänzlich fehlt ist die Aufklärung über KI und deren Potenzial und Risiken außerhalb von Fachkreisen. Mit der zunehmenden Durchdringung aller Alltagsbereiche durch künstliche Intelligenz wird dies immer wichtiger, denn um Vertrauen in neue Technologien stärken zu können, müssen diese zuerst verstanden werden. Die Aufklärung sowohl über das Potenzial als auch die Grenzen von KI ist ein essenzieller Schritt, um künstliche Intelligenz zu entmystifizieren und dadurch Vertrauen in die Technologie zu schaffen.

Potenzial noch nicht ausgeschöpft

Mit diesem Vorschlag erkennt die Europäische Kommission an, dass Künstliche Intelligenz wegweisend ist für die Zukunft des europäischen Marktes. Leitlinien für eine Technologie dieser Tragweite sind wichtig – genauso wie die Förderung von Innovation. Damit diese Strategien auch Früchte tragen, muss ihre praktische Umsetzung auch für Start-ups und KMU zweifelsfrei umsetzbar sein. Das Potenzial zur KI-Exzellenz ist in Europa reichlich vorhanden. Mit klaren Spielregeln und Anreizen kann dies auch realisiert werden.

Oliver Guggenbühl Oliver Guggenbühl