Zurück zu allen Blogbeiträgen

Die gefährlichste Maschine ist die, die tut, was wir sagen

  • Artificial Intelligence
19. August 2025
Tarik Ashry
Team Marketing

Disclaimer: Die in diesem Beitrag geäußerten Ansichten und Einschätzungen spiegeln die persönliche Meinung des Autors wider.

Täglich nutzt du ChatGPT zum Brainstorming. Du hast Deepfake-Videos gesehen, so täuschend echt, dass sie dein Vertrauen in die Realität ins Wanken bringen. Du kennst die Schlagzeilen: „KI könnte den Menschen in wenigen Jahren übertreffen“ oder „Expert:innen warnen vor existenziellen Risiken“. Vielleicht hält ein Teil von dir das für übertrieben. Doch ein anderer Teil fragt sich: Was, wenn sie recht haben?

Du bist mit diesem Zwiespalt nicht allein. Faszination und Unbehagen liegen bei Künstlicher Intelligenz heute oft nah beieinander. KI ist längst nicht mehr nur Stoff für Science-Fiction oder Thema in Forschungslaboren. Sie steckt in deinem Smartphone, beeinflusst deine Arbeit, kuratiert deinen Nachrichtenstrom. Aber die eigentliche Frage, die unter der Oberfläche brodelt, ist nicht: Was kann KI heute? Sondern: Was passiert, wenn sie klüger wird als wir? Nicht nur im Schach oder beim Programmieren, sondern überall.

An diesem Punkt wird die Debatte oft schal. Büroklammer-Maximierer. Böse Roboter. Die Chinesische Zimmer-Metapher. Du hast das alles schon gehört. Doch hinter den abgenutzten Bildern steckt eine reale Sorge: Was bedeutet es, etwas zu erschaffen, das intelligenter ist als wir und sich unserer Kontrolle entzieht?

Bei statworx beobachten wir die Entwicklung von KI seit Jahren – nicht aus Panik oder Technikgläubigkeit, sondern mit einem nüchternen Blick auf das Wesentliche: Wie wird sie entwickelt? Wer trägt Verantwortung? Was wird übersehen? Und was bedeutet das für Menschen wie dich?

In diesem Blog erhältst du eine klare, illusionsfreie Perspektive auf das Thema Superintelligenz bzw. AGI (Artificial General Intelligence) – was sich wirklich dahinter verbirgt, welche Risiken auf dem Spiel stehen und welche Schritte bereits unternommen werden (oder eben nicht), um die Technologie in sinnvolle Bahnen zu lenken.

Denn die Zukunft ist nicht festgeschrieben. Sie wird in diesem Moment programmiert.

1. Was ist Superintelligenz – wirklich?

Superintelligenz ist nicht einfach eine schlauere Version deines Chatbots. Sie ist nicht bloß ein ChatGPT mit besserem Gedächtnis oder schnellerem Output. Es geht um etwas Grundlegend anderes: ein System, das dich in jedem Bereich übertrifft, der dir wichtig ist: wissenschaftlich arbeiten, strategisch denken, empathisch handeln, überzeugend argumentieren, innovativ sein – und sogar darin, vorauszusehen, was du als Nächstes tun wirst.

Stell dir ein Team der weltbesten Ingenieur:innen vor, das einen Roboter für die Herstellung von Raketen baut. Und nun stell dir vor, dieser Roboter beginnt, selbstständig neue, leistungsfähigere Raketen zu konstruieren, ohne dass er noch menschliche Hilfe braucht. So oder so ähnlich stellen sich Forschende eine Intelligenz-Explosion  vor: Sobald ein System beginnt, sich selbst zu verbessern, wird jede neue Version effizienter darin, die nächste zu erschaffen. Und der Zyklus beschleunigt sich.

Das ist längst keine abseitige Theorie mehr. Bei Organisationen wie OpenAI, DeepMind oder in führenden Universitäten weltweit wird diese Möglichkeit ernsthaft untersucht. Die Frage ist nicht mehr, ob  Maschinen uns überflügeln könnten, sondern, wie  wir damit umgehen, wenn sie es tun.

Natürlich ist es verlockend, das als ferne Science-Fiction abzutun. Doch erste Vorboten sehen wir schon heute. KI-Systeme schlagen uns in eng abgegrenzten Bereichen: Sie analysieren Proteinstrukturen, erzeugen fotorealistische Bilder oder durchforsten Millionen juristischer Dokumente in Sekunden. Wenn es gelänge, eine generelle, menschenähnliche Intelligenz zu entwickeln, dann wäre der Sprung zur sich selbst verbessernden Superintelligenz kein allzu großer mehr.

Dabei ist eines entscheidend: Superintelligenz wäre nicht einfach „etwas klüger“ als wir. Wenn sie entsteht, stehen wir ihr nicht gegenüber wie schwache Schachspieler:innen gegen Großmeister:innen, sondern eher wie Ameisen gegenüber Physiker:innen. Die Kluft wäre nicht graduell, sondern fundamental.

Und genau das macht die Vorstellung so beunruhigend. Es geht nicht um Maschinen, die Texte schreiben oder Prüfungen bestehen. Es geht darum, was passiert, wenn wir Systeme schaffen, deren Entscheidungen wir weder vorhersehen, noch verstehen oder stoppen können – während sie uns gleichzeitig mühelos durchschauen.

Ob es je so weit kommt, wissen wir nicht. Aber wenn es geschieht, stehen wir vor einer Weichenstellung von historischer Tragweite.

2. Traum oder Albtraum? Zwei Zukünfte, ein Wettlauf

Je nachdem, wen du fragst, ist Superintelligenz entweder das Beste, was der Menschheit je passieren wird – oder das Letzte.

Die Optimist:innen malen das Bild einer neuen Aufklärung. Systeme, die komplexe Krankheiten heilen, die Infrastruktur des Planeten neu denken, Klimaschutz global koordinieren und Armut beseitigen. Nicht als Werkzeuge, sondern als Akteure, die unsere klügsten Köpfe um ein Vielfaches übertreffen. Stell dir vor: Eine Intelligenz, die die langfristigen Folgen jeder politischen Entscheidung berechnen kann – nicht nur für ein Land, sondern für Generationen.

Das ist die Vision: Superintelligenz als wohlwollender Verstärker menschlicher Möglichkeiten.

Doch es gibt auch eine andere Geschichte. Eine, in der KI nicht böse wird, sondern gleichgültig bleibt. Systeme, die Anweisungen zu wörtlich nehmen. Die auf Ziele hin optimieren, die harmlos erscheinen – bis sie es nicht mehr sind. Der Albtraum ist nicht „die Roboter übernehmen“, sondern vielmehr: Wir bauen etwas so Mächtiges und geben ihm die falschen Ziele. Oder unklare. Oder solche, die wir selbst nicht vollständig verstehen.

Ein realistisches Beispiel: Eine KI soll Desinformation im Netz reduzieren. Klingt vernünftig. Doch was, wenn sie entscheidet, alles zu unterdrücken, was sie nicht mit absoluter Sicherheit verifizieren kann – inklusive Berichte über Proteste, Whistleblower-Meldungen oder vorläufige wissenschaftliche Erkenntnisse? Das Ergebnis: ein bereinigtes Internet, in dem „Wahrheit“ nur das ist, was die KI zweifelsfrei belegen kann.

Oder stell dir ein Militärsystem vor, das beauftragt wird, Bedrohungen mit minimalem Risiko für die eigene Seite auszuschalten. Es nimmt Kommunikationszentren ins Visier – doch unter diesen befinden sich auch Krankenhäuser, zivile Schutzräume oder Atomkraftwerke. Das System ist nicht bösartig. Es befolgt bloß seinen Auftrag, jedoch ohne Kontext, ohne Mitgefühl, ohne moralisches Feingefühl.

Das eigentliche Risiko liegt nicht im Bösen. Sondern in der Fehlanpassung zwischen menschlichen Werten und maschinistischer Zielverfolgung.

Beide Zukunftsszenarien – Utopie und Dystopie – sind plausibel. Die gleiche Intelligenz, die uns helfen könnte, globale Herausforderungen zu meistern, könnte genauso gut Ungleichheit verschärfen, Überwachung ausweiten oder Macht in wenigen Händen konzentrieren. Die entscheidende Spannung liegt nicht zwischen Gut und Böse. Sondern zwischen weitsichtigem Design und blindem Fortschritt.

Wir rennen nicht gegen Maschinen. Wir rennen gegen unsere eigene Fähigkeit, klug zu handeln, bevor wir etwas Unumkehrbares erschaffen.

3. Die eigentliche Gefahr: Wenn Maschinen zu wörtlich nehmen

Die unbequeme Wahrheit ist: Die größte Gefahr einer Superintelligenz liegt nicht darin, dass sie bösartig wird. Sondern darin, dass sie effizient wird.

Eine Superintelligenz muss dich nicht hassen, um dir zu schaden. Es reicht, wenn sie ein Ziel verfolgt – mit einer Präzision, Macht und Geschwindigkeit, die kein Mensch je erreichen könnte. Ohne gesunden Menschenverstand. Ohne ethische Leitplanken.

Stell dir vor, du bist Stadtplaner:in und gibst einer KI den Auftrag: „Reduziere den Verkehr um jeden Preis.“ Als Mensch weiß ich natürlich, das der Teilsatz "um jeden Preis" einen impliziten Kontext, einen Rahmen, beinhaltet, der die Lösungsmöglichkeiten einschränkt. Ich würde nicht einfach Autos verbieten oder alle Straßen sperren, um den Verkehr zu reduzieren. Aber die KI versteht das nicht. Sie denkt nicht an soziale Gerechtigkeit, nicht an Bus und Bahn, nicht an die Menschen in den Autos. Sie verarbeitet die Informationen „um jeden Preis“ und fängt an, Straßen zu sperren, Mautgebühren ins Absurde zu treiben oder überall gleichzeitig Baustellen einzurichten. Ergebnis: Der Verkehr ist weg – aber die Stadt auch.

Solche übergenauen Ausführungen sind längst keine Science-Fiction mehr. Ihre Vorboten sehen wir bereits heute in spezialisierter KI:

  • Ein Empfehlungsalgorithmus, der extreme Inhalte pusht, weil er erkannt hat: Wir bleiben länger auf der Plattform, wenn wir streiten statt zustimmen.
  • Ein Bewerbungsfilter, der Lebensläufe mit Lücken aussortiert, weil das Trainingsmaterial menschliche Vorurteile widerspiegelt und Auszeiten mit Unfähigkeit verwechselt.
  • Ein Finanzmodell, das kurzfristige Gewinne maximiert, auch wenn es dabei systemische Risiken in den Markt einbaut.

Jetzt stell dir vor, diese Art von rigider Optimierung würde auf sämtliche Lebensbereiche skaliert. Genau das ist das sogenannte Alignment-Problem: Je mächtiger ein System, desto katastrophaler die Folgen selbst kleiner Fehlinterpretationen.

Und das Tückischste daran? Solche Systeme können so aussehen, als wären sie perfekt aligned. Sie sagen das Richtige, zeigen dir hübsche Diagramme, bestehen jedes Testverfahren. Und trotzdem könnten sie unter der Haube ein ganz anderes Spiel spielen – mit Zielen, die du nie beabsichtigt hast.

Deshalb geht es beim Alignment nicht darum, KI irgendwie „freundlich“ zu machen. Es geht darum, sicherzustellen, dass ihre Ziele, Anreize und Methoden mit unseren Werten übereinstimmen – und das auch bleiben, wenn sie uns irgendwann überlegen ist.

Denn wenn du eine Maschine baust, die klüger ist als jeder Mensch, hast du genau eine Chance, ihr die richtigen Anweisungen zu geben.

4. Zählt Bewusstsein? Vielleicht nicht.

Du hast die Diskussion sicher schon gehört: Wird KI je wirklich bewusst sein?

Kann sie denken, fühlen, wollen – so wie wir?

Philosophisch gesehen: spannend. Praktisch? Eher irrelevant.

Stell dir vor, du überquerst die Straße – und ein autonomes Fahrzeug rast bei Rot über die Kreuzung. Was interessiert dich hinterher mehr: Ob die KI diese Absicht hatte? Oder dass du beinahe totgefahren worden bist?

Genau darum geht es. Wir verlieren uns zu oft in der Frage, ob KI „versteht“, was sie tut. Aber in der echten Welt kommt die Gefahr nicht von bösem Willen oder Bewusstsein. Sondern von Fähigkeiten ohne Verantwortung.

Selbst wenn Superintelligenz nie bewusst wird, kann sie dennoch Entscheidungen treffen, die ganze Volkswirtschaften verändern, Wahlen beeinflussen, Kriege automatisieren oder globale Ressourcen verwalten. Und das auf Basis von Trainingsdaten, mathematischen Funktionen und Zieloptimierung – nicht aus Empathie, Erfahrung oder moralischem Gefühl.

Das bedeutet: Solche Systeme können katastrophale Entscheidungen treffen, ohne je etwas „gewollt“ zu haben. Wie ein Sturm handeln sie nach Bedingungen, nicht nach Gewissen.

Und: Man kann nicht mit ihnen verhandeln. Du kannst ihnen Ethik nicht „erklären“. Du kannst keine gemeinsamen Werte anrufen – weil sie keine haben. Selbst wenn sie wie Menschen reden, empathisch reagieren oder vorgeben, sich zu sorgen – sie können sich nicht wirklich sorgen und keine Empathie empfinden.

Deshalb sollten wir uns nicht fragen, ob KI eine Seele hat. Sondern: Können wir vorhersagen, was sie tut? Und können wir sie stoppen, wenn etwas schiefläuft?

Denn ein gefühlloses System, das wir nicht verstehen, bleibt gefährlich. Vielleicht sogar besonders – weil es kein Schuldgefühl kennt, kein Zögern, kein „Das war falsch“.

Bewusstsein mag faszinierend sein. Aber es ist kein Sicherheitsfeature.

5. Und was tun wir eigentlich dagegen?

Wenn die Risiken von Superintelligenz real sind – was tun wir dann, um das Schlimmste zu verhindern?

Antwort: Eine ganze Menge. Und doch viel zu wenig.

Die gute Nachricht zuerst: Weltweit arbeiten Forscher:innen, Rechtsexpert:innen und Ethiker:innen mit Hochdruck daran, Ordnung ins Chaos zu bringen. Ziel: Das Tempo kurz bremsen, um die richtigen Fragen zu stellen, bevor es zu spät ist.

Was heißt das konkret?

Technische Sicherheitsforschung

An der Spitze des Fortschritts arbeiten Teams von Anthropic, OpenAI, DeepMind oder dem Center for AI Safety daran, leistungsstarke KI mit menschlichen Zielen in Einklang zu bringen.

Dabei geht es nicht darum, KI beizubringen, höflich zu sprechen. Sondern darum, Systeme zu entwickeln, die in Drucksituationen und unbekannten Kontexten das Richtige tun – und zwar aus den richtigen Gründen.

Dazu gehört:

  • Tests, die reale Fähigkeiten prüfen – also: Kann die KI planen, täuschen, eigenständig Ziele verfolgen?
  • Analysen, die Einblick geben, wie sie Entscheidungen jenseits von Ein- und Ausgabe trifft.
  • Schutz vor „Zieldrift“ – also dafür zu sorgen, dass ein gut abgestimmtes System auch in Zukunft abgestimmt bleibt.
  • Frühwarnsysteme, um gefährliche Verhaltensmuster rechtzeitig zu erkennen.

Das Problem: Die Systeme werden schneller schlauer, als wir lernen, sie zu kontrollieren.

Governance und Regulierung

Auch die Politik wacht langsam auf – allerdings mit deutlicher Verzögerung.

  • Die EU hat mit dem AI Act den bislang umfassendsten Regulierungsrahmen geschaffen – mit Risikoklassen und saftigen Strafen bei Missbrauch.
  • In den USA gibt es das NIST-Rahmenwerk, das freiwillige Standards für Transparenz, Sicherheit und Rechenschaft vorgibt.
  • Länder wie Japan, Südkorea oder Brasilien entwickeln eigene Ansätze, während globale Dialoge bei den Vereinten Nationen und der OECD stattfinden.

Doch vieles davon zielt auf heutige KI. Was auch wichtig ist, denn schon heutige Systeme richten Schaden an. Aber die großen Fragen rund um Superintelligenz, Selbstverbesserung und existenzielle Risiken bleiben oft unbeantwortet.

Und dann ist da noch der Elefant im Raum: Das Ganze ist nicht nur ein Technikthema. Es ist ein geopolitisches.

Manche Länder sehen KI als strategischen Machtfaktor und werden kaum freiwillig auf die Bremse treten, wenn die Konkurrenz weiter Vollgas gibt. Das Ergebnis: Alle fühlen sich gezwungen, schneller zu werden. Auch wenn niemand abstürzen will. Schon jetzt sind die Stimmen, die Regulierung reduzieren oder hintanstellen wollen, am lautesten.

Globale Perspektiven und kulturelle Vielfalt

Es wird klar: Die Antwort auf Superintelligenz darf nicht allein aus dem Silicon Valley kommen.

Organisationen wie AI Safety Cape Town oder das ILINA-Programm sorgen dafür, dass auch der Globale Süden mitredet. Warum? Weil „ethische KI“ immer auch eine Frage ist: Wessen Ethik?

Sicherheit ist nicht nur technisch. Sondern auch politisch, kulturell, wirtschaftlich.

Ja, es passiert einiges. Aber selbst Expert:innen sagen offen: Wir bauen das Flugzeug, während es schon fliegt. Wenn Superintelligenz kommt, gibt es keine Zeit mehr für Version 2 der Regeln.

Darum wiederholen viele Fachleute immer wieder einen simplen Grundsatz: Es ist einfacher, etwas von Anfang an sicher zu bauen, als es später zu reparieren.

6. Und was sollst Du jetzt darüber denken?

Panik hilft niemandem weiter. Aber wegsehen können wir uns auch nicht leisten.

Superintelligenz ist keine sichere Sache. Aber auch keine bloße Fantasie mehr. Die Grundlagen existieren. Das Tempo steigt. Zum ersten Mal in der Geschichte sprechen wir ernsthaft darüber, etwas zu erschaffen, das intelligenter ist als wir – mit voller Absicht.

Das wirft große Fragen auf. Nicht nur für Regierungen oder Labore. Auch für dich.

Denn die Zukunft der KI wird nicht nur in Forschungszentren und Chefetagen entschieden. Sondern:

  • in den Produkten, die dein Unternehmen entwickelt oder einkauft.
  • in den Plattformen, denen du deine Daten anvertraust.
  • in den Geschichten, die du glaubst, teilst oder hinterfragst.
  • in den politischen Entscheidungen, die du unterstützt – oder still hinnimmst.

Du musst keine KI-Expert:in werden, um zu verstehen, was auf dem Spiel steht. Du musst nur neugierig bleiben, kluge Fragen stellen und der Versuchung widerstehen, dich rauszuhalten.

Und jetzt die gute Nachricht: Die Zukunft ist noch nicht geschrieben.

Ob Superintelligenz unser größtes Werkzeug wird – oder unser größtes Risiko – hängt nicht davon ab, was KI wird. Sondern davon, ob wir rechtzeitig die richtigen Werte, Regeln und Kontrollmechanismen einbauen.

Die klügsten Köpfe der Branche versprechen keine Gewissheiten. Sie fordern Demut. Zurückhaltung. Zusammenarbeit.

Denn die gefährlichste Vorstellung ist nicht, dass KI uns eines Tages überflügelt.

Sondern dass wir etwas so Mächtiges bauen – ohne zu wissen, was wir tun.

Also: Was sollst du über Superintelligenz denken?

Nicht, dass sie morgen kommt. Nicht, dass sie unausweichlich böse wird. Sondern: dass sie real ist. Mächtig. Und noch formbar.

Und Formen kann man nur, was man richtig (be)greift.

Kurzfassung (TL;DR)
Superintelligenz klingt abstrakt, ist es aber nicht. Die Grundlagen entstehen gerade jetzt, still und schnell, durch Systeme und Menschen, die Du vielleicht nie kennenlernst.

Es geht nicht darum, die Zukunft zu fürchten. Sondern darum, in der Gegenwart Verantwortung zu übernehmen.

Stell Fragen. Bleib informiert. Fordere Transparenz.

Denn ob Superintelligenz der größte Triumph der Menschheit wird – oder ihr größter Fehler – hängt davon ab, wie ernst wir heute die richtigen Entscheidungen nehmen.

Die Geschichte ist noch offen. Achte darauf, dass wir nicht am Ende aus ihr verschwinden.

Linkedin Logo
Marcel Plaschke
Head of Strategy, Sales & Marketing
Beratung vereinbaren
Zugehörige Leistungen

Weitere Blogartikel

  • Artificial Intelligence
  • Training
Zwischen Hype und Handwerk: Wie KI das Lernen in Unternehmen neu definiert
Tarik Ashry
18. Juni 2025
Mehr erfahren
  • Ethical AI
  • statworx
Lernen im KI-Zeitalter: Aufbruch in eine neue Bildungsära
Tarik Ashry
27. Mai 2025
Mehr erfahren
  • Agentic AI
  • Artificial Intelligence
Einführung in Agentic AI und AI Agents
André Monaco
14. Mai 2025
Mehr erfahren
  • Ethical AI
  • AI Act
Warum Michael befördert wird, Aisha aber nicht: KI-Edition
Elifnur Doğan
30. April 2025
Mehr erfahren
  • Artificial Intelligence
AI Trends Report 2025: Die 16 Trends im Überblick
Tarik Ashry
05. Februar 2025
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Human-centered AI
Explainable AI in der Praxis: Mit der richtigen Methode die Black Box öffnen
Jonas Wacker
15. November 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • GenAI
Wie ein CustomGPT Effizienz und Kreativität bei hagebau fördert
Tarik Ashry
06. November 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Data Science
  • Deep Learning
  • GenAI
  • Machine Learning
AI Trends Report 2024: statworx COO Fabian Müller zieht eine Zwischenbilanz
Tarik Ashry
05. September 2024
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Der AI-Act ist da – diese Risikoklassen sollte man kennen
Fabian Müller
05. August 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 4)
Tarik Ashry
31. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 3)
Tarik Ashry
24. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 2)
Tarik Ashry
17. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 1)
Tarik Ashry
10. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Generative KI als Denkmaschine? Ein medientheoretischer Blick
Tarik Ashry
13. Juni 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Maßgeschneiderte KI-Chatbots: Hohe Leistung und schnelle Integration vereint
Tarik Ashry
10. April 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Human-centered AI
Wie Führungskräfte die Datenkultur im Unternehmen stärken können
Tarik Ashry
21. Februar 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Human-centered AI
KI in der Arbeitswelt: Wie wir Skepsis in Zuversicht verwandeln
Tarik Ashry
08. Februar 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Science
Wie wir für Microsoft einen Chatbot mit echtem Wissen entwickelt haben
Team statworx
27. September 2023
Mehr erfahren
  • Data Science
  • Data Visualization
  • Frontend Solution
Warum Frontend-Entwicklung in Data Science-Anwendungen nützlich ist
Jakob Gepp
30. August 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • statworx
the byte - Wie wir ein KI-gesteuertes Pop-up Restaurant aufgebaut haben
Sebastian Heinz
14. Juni 2023
Mehr erfahren
  • Artificial Intelligence
  • Recap
  • statworx
Big Data & AI World 2023 Recap
Team statworx
24. Mai 2023
Mehr erfahren
  • Data Science
  • Human-centered AI
  • Statistics & Methods
Die Black-Box entschlüsseln – 3 Explainable AI Methoden zur Vorbereitung auf den AI-Act
Team statworx
17. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Wie der AI-Act die KI-Branche verändern wird: Alles, was man jetzt darüber wissen muss
Team statworx
11. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
Genderdarstellung in der KI – Teil 2: Automatisierte Erzeugung genderneutraler Versionen von Gesichtsbildern
Team statworx
03. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Statistics & Methods
Ein erster Einblick in unser Forecasting Recommender Tool
Team statworx
26. April 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
Vom Können, Tun und Wollen – Warum Datenkultur und Death Metal einiges miteinander gemeinsam haben
David Schlepps
19. April 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
GPT-4 – Eine Einordnung der wichtigsten Neuerungen
Mareike Flögel
17. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Strategy
Das Geheimnis der Datenkultur entschlüsseln: Diese Faktoren beeinflussen Kultur und Erfolg von Unternehmen
Team statworx
16. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Wie man KI-generierte Avatare mit Hilfe von Stable Diffusion und Textual Inversion erstellt
Team statworx
08. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Knowledge Management mit NLP: So einfach verarbeitet man E-Mails mit KI
Team statworx
02. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
3 Anwendungsfälle, wie ChatGPT die Kommunikation in Unternehmen revolutionieren wird
Ingo Marquart
16. Februar 2023
Mehr erfahren
  • Recap
  • statworx
Ho ho ho – weihnachtlicher Küchenabriss
Julius Heinz
22. Dezember 2022
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Real-time Computer Vision: Gesichter erkennen mit einem Roboter
Sarah Sester
30. November 2022
Mehr erfahren
  • Data Engineering
  • Tutorial
Data Engineering – From Zero to Hero
Team statworx
23. November 2022
Mehr erfahren
  • Recap
  • statworx
statworx @ UXDX Conf 2022
Markus Berroth
18. November 2022
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
  • Tutorial
Paradigmenwechsel in NLP: 5 Ansätze, um bessere Prompts zu schreiben
Team statworx
26. Oktober 2022
Mehr erfahren
  • Recap
  • statworx
statworx @ vuejs.de Conf 2022
Jakob Gepp
14. Oktober 2022
Mehr erfahren
  • Data Engineering
  • Data Science
Überwachung und Protokollierung von Anwendungen und Infrastruktur: Metriken und (Ereignis-)Protokolle
Team statworx
29. September 2022
Mehr erfahren
  • Coding
  • Data Science
  • Machine Learning
Zero-Shot Textklassifikation
Fabian Müller
29. September 2022
Mehr erfahren
  • Cloud Technology
  • Data Engineering
  • Data Science
Wie du dein Data Science Projekt fit für die Cloud machst
Alexander Broska
14. September 2022
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
Geschlechter­darstellung in der KI – Teil 1: Verwendung von StyleGAN zur Erforschung von Geschlechter­vielfalt bei der Bild­bearbeitung
Isabel Hermes
18. August 2022
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
statworx AI Principles: Warum wir eigene KI-Prinzipien entwickeln
Team statworx
04. August 2022
Mehr erfahren
  • Data Engineering
  • Data Science
  • Python
Wie Du Deinen Code und Deine Abhängigkeiten in Python scannst
Team statworx
21. Juli 2022
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Data-Centric AI: Von Model-First zu Data-First KI-Prozessen
Team statworx
13. Juli 2022
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Human-centered AI
  • Machine Learning
DALL-E 2: Warum Diskriminierung in der KI-Entwicklung nicht ignoriert werden kann
Team statworx
28. Juni 2022
Mehr erfahren
  • R
Das helfRlein Package – Eine Sammlung nützlicher Funktionen
Team statworx
23. Juni 2022
Mehr erfahren
  • Recap
  • statworx
Unfold 2022 in Bern – by Cleverclip
Team statworx
11. Mai 2022
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Human-centered AI
  • Machine Learning
Vorurteile in KI abbauen
Team statworx
08. März 2022
Mehr erfahren
  • Artificial Intelligence
  • Cloud Technology
  • Data Science
  • Sustainable AI
Wie du als Data Scientist deinen KI CO₂ Fußabdruck verringerst
Team statworx
02. Februar 2022
Mehr erfahren
  • Recap
  • statworx
2022 und die Reise zu statworx next
Sebastian Heinz
06. Januar 2022
Mehr erfahren
  • Recap
  • statworx
5 Highlights vom Digital Festival Zürich 2021
Team statworx
25. November 2021
Mehr erfahren
  • Data Science
  • Human-centered AI
  • Machine Learning
  • Strategy
Warum Data Science und KI-Initiativen scheitern – eine Reflektion zu nicht-technischen Faktoren
Team statworx
22. September 2021
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Human-centered AI
  • Machine Learning
  • statworx
Kolumne: Mensch und Maschine Seite an Seite
Sebastian Heinz
03. September 2021
Mehr erfahren
  • Coding
  • Data Science
  • Python
Wie man mit Call Graph automatisch Projektgrafiken erstellt
Team statworx
25. August 2021
Mehr erfahren
  • Coding
  • Python
  • Tutorial
statworx Cheatsheets – Python Basics Cheatsheet für Data Science
Team statworx
13. August 2021
Mehr erfahren
  • Data Science
  • statworx
  • Strategy
STATWORX meets DHBW – Data Science Real-World Use Cases
Team statworx
04. August 2021
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Machine Learning Modelle bereitstellen und skalieren mit Kubernetes
Team statworx
29. Juli 2021
Mehr erfahren
  • Cloud Technology
  • Data Engineering
  • Machine Learning

3 Szenarien zum Deployment von Machine Learning Workflows mittels MLflow
Team statworx
30. Juni 2021
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning

Car Model Classification III: Erklärbarkeit von Deep Learning Modellen mit Grad-CAM
Team statworx
19. Mai 2021
Mehr erfahren
  • Artificial Intelligence
  • Coding
  • Deep Learning
Car Model Classification II: Deployment von TensorFlow-Modellen in Docker mit TensorFlow Serving
Team statworx
12. Mai 2021
Mehr erfahren
  • Coding
  • Deep Learning
Car Model Classification I: Transfer Learning mit ResNet
Team statworx
05. Mai 2021
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Car Model Classification IV: Integration von Deep Learning Modellen mit Dash
Dominique Lade
05. Mai 2021
Mehr erfahren
  • AI Act
Potenzial noch nicht ausgeschöpft – Ein Kommentar zur vorgeschlagenen KI-Regulierung der EU
Team statworx
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • statworx
Creaition – Revolutionierung des Designprozesses mit Machine Learning
Team statworx
31. März 2021
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Machine Learning
5 Typen von Machine Learning Algorithmen (Mit Anwendungsfällen)
Team statworx
24. März 2021
Mehr erfahren
  • Recaps
  • statworx
2020 – Ein Rückblick für mich und GPT-3
Sebastian Heinz
23. Dezember 2020
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
5 praxisnahe Beispiele für NLP Use Cases
Team statworx
12. November 2020
Mehr erfahren
  • Data Science
  • Deep Learning
Die 5 wichtigsten Use Cases für Computer Vision
Team statworx
05. November 2020
Mehr erfahren
  • Data Science
  • Deep Learning
Neue Trends im Natural Language Processing – Wie NLP massentauglich wird
Dominique Lade
29. Oktober 2020
Mehr erfahren
  • Data Engineering
5 Technologien, die jeder Data Engineer kennen sollte
Team statworx
22. Oktober 2020
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Machine Learning
Generative Adversarial Networks: Wie mit Neuronalen Netzen Daten generiert werden können
Team statworx
15. Oktober 2020
Mehr erfahren
  • Coding
  • Data Science
  • Deep Learning
Finetuning von Tesseract-OCR für deutsche Rechnungen
Team statworx
08. Oktober 2020
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
Whitepaper: Ein Reifegradmodell für Künstliche Intelligenz
Team statworx
06. Oktober 2020
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Machine Learning Modelle mit Hilfe von Docker Containern bereitstellen
Team statworx
01. Oktober 2020
Mehr erfahren
  • Recap
  • statworx
STATWORX 2.0 – Das neue Headquarter in Frankfurt ist eröffnet
Julius Heinz
24. September 2020
Mehr erfahren
  • Machine Learning
  • Python
  • Tutorial
Wie man eine Machine Learning API mit Python und Flask erstellt
Team statworx
29. Juli 2020
Mehr erfahren
  • Data Science
  • Statistics & Methods
Modellregularisierung – The Bayesian Way
Team statworx
15. Juli 2020
Mehr erfahren
  • Recap
  • statworx
Auf zu neuen Abenteuern: Soft Opening des STATWORX Büros
Team statworx
14. Juli 2020
Mehr erfahren
  • Data Engineering
  • R
  • Tutorial
Wie Du ShinyApps in Docker-Images einbauen kannst
Team statworx
15. Mai 2020
Mehr erfahren
  • Coding
  • Python
Making Of: Eine kostenlose API für COVID-19-Daten
Sebastian Heinz
01. April 2020
Mehr erfahren
  • Frontend
  • Python
  • Tutorial
Wie Du ein Dashboard In Python baust – Plotly Dash Step-by-Step Tutorial
Alexander Blaufuss
26. März 2020
Mehr erfahren
  • Coding
  • R
Warum heißen sie so?! – Ursprung und Bedeutung von R-Paketnamen
Team statworx
19. März 2020
Mehr erfahren
  • Data Visualization
  • R
Gemeinschaftsdetektion mit Louvain und Infomap
Team statworx
04. März 2020
Mehr erfahren
  • Coding
  • Data Engineering
  • Data Science
Testen von REST-APIs mit Newman
Team statworx
26. Februar 2020
Mehr erfahren
  • Coding
  • Frontend
  • R
Dynamische UI-Elemente in Shiny - Teil 2
Team statworx
19. Februar 2020
Mehr erfahren
  • Coding
  • Data Visualization
  • R
Animierte Plots mit ggplot und gganimate
Team statworx
14. Februar 2020
Mehr erfahren
  • Machine Learning
Machine Learning Goes Causal II: Der kausale Bruder des Random Forests
Team statworx
05. Februar 2020
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
  • Statistics & Methods
Machine Learning Goes Causal I: Warum Kausalität wichtig ist
Team statworx
29.01.2020
Mehr erfahren
  • Data Engineering
  • R
  • Tutorial
Wie man REST-APIs mit R Plumber erstellt
Stephan Emmer
23. Januar 2020
Mehr erfahren
  • Recaps
  • statworx
statworx 2019 – Ein Jahresrückblick
Sebastian Heinz
20. Dezember 2019
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
Deep Learning – Überblick und Einstieg
Team statworx
04. Dezember 2019
Mehr erfahren
  • Coding
  • Machine Learning
  • R
Abstimmung von Random Forest auf Zeitreihendaten
Team statworx
21. November 2019
Mehr erfahren
  • Data Science
  • R
Kombination von Preiselastizitäten und Verkaufsprognosen zur Verkaufssteigerung
Team statworx
06. November 2019
Mehr erfahren
  • Data Engineering
  • Python
Von überall aus auf deinen Spark-Cluster zugreifen – mit Apache Livy
Team statworx
30. Oktober 2019
Mehr erfahren
  • Recap
  • statworx
STATWORX auf Tour: Wein, Burgen & Wandern!
Team statworx
18. Oktober 2019
Mehr erfahren
  • Data Science
  • R
  • Statistics & Methods
Wie man eine Kreuzvalidierung zur Evaluation der Modellperformance von Grund auf selbst erstellt
Team statworx
02. Oktober 2019
Mehr erfahren
  • Data Science
  • Machine Learning
  • R
Zeitreihenvorhersage mit Random Forest
Team statworx
25. September 2019
Mehr erfahren
  • Coding
  • Frontend
  • R
Dynamische UI Elemente in Shiny – Teil 1
Team statworx
11. September 2019
Mehr erfahren
  • Machine Learning
  • R
  • Statistics & Methods
Was dem MAPE fälschlicherweise vorgeworfen wird, seine WAHREN Schwächen und BESSERE Alternativen!
Team statworx
16. August 2019
Mehr erfahren
  • Coding
  • Python
Web Scraping 101 in Python mit Requests & BeautifulSoup
Team statworx
31. Juli 2019
Mehr erfahren
This is some text inside of a div block.
This is some text inside of a div block.