Entwicklung von KI –
woher, was, warum jetzt
Wir beginnen mit dem Fundament: Woher kommt KI, was gehört wirklich dazu – und warum passiert gerade jetzt so viel davon auf einmal?
70 Jahre in vier Schritten
1956 haben Forscher in Dartmouth, USA, zum ersten Mal das Wort „Artificial Intelligence" verwendet. Heute redest du täglich mit ihr. Was ist in diesen sieben Jahrzehnten passiert?
KI hat sich nicht linear entwickelt. Es gab Aufbrüche, lange Enttäuschungen – die sogenannten „KI-Winter" –, und schließlich Neuanfänge, die alles verändert haben. Vier Epochen, jede mit einem eigenen Paradigma.
1980er
Menschen schreiben explizit auf, was die Maschine wissen soll. If-then-else in groß. Schachprogramme, medizinische Diagnosesysteme, Sprachübersetzer nach festen Grammatikregeln. Die Maschine folgt präzise – aber nur dort, wo Regeln existieren. Und die Welt hat zu viele Regeln, um sie alle aufzuschreiben.
Grenze: Skaliert nicht. Lernt nichts, was nicht vorprogrammiert ist.2010er
Paradigmenwechsel: Die Maschine lernt aus Daten, statt Regeln zu befolgen. Tausende Beispiele rein – Muster kommen raus. Spam-Filter, Kreditbewertung, Bildsuche, Netflix-Empfehlungen. Plötzlich skaliert KI mit der Datenmenge. Sie verbessert sich, ohne dass jemand neue Regeln schreibt.
Grenze: Braucht sauber gelabelte Daten. Kann nur das, wofür es trainiert wurde.2022
Mehrschichtige neuronale Netze ahmen grob die Struktur des Gehirns nach. Kein explizites Aufstellen von Merkmalen mehr – das Netz lernt sie selbst. KI erkennt Bilder besser als Menschen, übersetzt Sprache in Echtzeit, gewinnt gegen Go-Weltmeister. Sie verlässt das Labor und kommt in die Produkte.
Grenze: Black Box. Braucht enorme Datenmengen und Rechenleistung.heute
KI generiert etwas Neues: Text, Bilder, Code, Musik, Videos. Und beginnt, eigenständig zu handeln – zu planen, zu recherchieren, Werkzeuge zu nutzen, Aufgaben über mehrere Schritte hinweg zu erledigen. Aus einem Werkzeug wird ein Gesprächspartner. Das ist der Grund, warum du diese Schulung machst.
● Wir sind hierKI ist kein einzelnes Ding
„KI" ist ein Oberbegriff für sehr unterschiedliche Technologien. Wer nur von „der KI" redet, als wäre es eine einzige Sache, unterschätzt die Breite des Feldes.
Für die Arbeit bei Identitätsstiftung sind vor allem drei Bereiche direkt relevant: Natural Language Processing – das Feld hinter Claude und allen Sprachmodellen –, Generative KI – der Motor hinter Text-, Bild- und Videogenerierung –, und Agentensysteme – KI, die eigenständig plant, entscheidet und handelt. Letzteres ist das Feld, das unsere Strategie in den nächsten Jahren bestimmen wird.
Computer Vision (Bild- und Videoverarbeitung), Machine Learning in der Breite und Physical AI (Robotik) ergänzen das Bild – sie formen die Welt, für die wir strategisch arbeiten, auch wenn sie nicht direkt in unserem Büroalltag auftauchen.
Drei Felder, die für uns zählen
Natural Language Processing ist der Kern von allem, was wir mit Claude und Langdock machen. Generative KI erweitert unsere Kreationsarbeit – Texte, Bilder, Konzepte. Agentensysteme sind das nächste Kapitel: KI, die nicht nur antwortet, sondern eigenständig Aufgaben übernimmt. Das ist, was unsere KI-Strategie mit „KI-Agenten als Teammitglieder" meint.
Warum eskaliert es gerade jetzt?
KI gibt es seit 70 Jahren. Warum passiert so viel auf einmal – und warum gerade seit 2022? Die Antwort ist nicht eine einzelne Erfindung. Es sind vier unabhängige Entwicklungen, die gleichzeitig einen Schwellenwert überschritten haben.
-
Rechenleistung
GPUs wurden ursprünglich für Videospiele entwickelt – und sind zufällig ideal für KI-Training. Cloud-Computing macht diese Leistung für jeden verfügbar. Was früher Supercomputer brauchte, läuft heute auf gemieteten Servern. Die Trainingskosten für große Modelle sind um den Faktor 1.000 gefallen.
-
Daten
Das Internet hat 30 Jahre lang Text, Bilder, Videos und Code in unfassbaren Mengen produziert. Diese digitale Sedimentschicht ist das Futter, von dem große Sprachmodelle leben. Ohne das öffentliche Internet kein GPT, kein Claude.
-
Modellarchitektur
2017 veröffentlichten Google-Forscher das Paper „Attention is All You Need." Die Transformer-Architektur ermöglicht es Modellen, Kontext über sehr lange Texte hinweg zu verstehen. Ohne dieses eine Paper gäbe es ChatGPT nicht.
-
Breiter Zugang
November 2022. ChatGPT. Nicht das leistungsfähigste Modell – aber das erste mit einer Oberfläche, die jeder ohne Programmierkenntnisse nutzen kann. 100 Millionen Nutzer in 2 Monaten. Der Moment, in dem KI aufhört, ein Forschungsthema zu sein.
Keine dieser vier Entwicklungen dreht sich zurück
Wir sind nicht am Anfang eines Hypes. Wir sind am Anfang einer dauerhaften Verschiebung. Rechenleistung wird günstiger, Daten wachsen, Modelle verbessern sich, der Zugang wird breiter. Die Frage ist nicht ob – sondern wie schnell, in welche Richtung, und wer die Regeln schreibt.
Denk an deine letzte Woche bei Identitätsstiftung. Welche der vier Epochen – Regelbasiert, Machine Learning, Deep Learning, Generative KI – ist in deinen Werkzeugen und Prozessen am stärksten präsent? Und was fehlt noch?
Schreib 3–5 Sätze. Es gibt keine falsche Antwort – es geht um deine eigene Verortung.
Stell dir vor, ein Kunde fragt dich beim nächsten Meeting: „Was ist eigentlich KI — und wie hat sich das entwickelt?"
Schreib deine Antwort in 2–3 Sätzen. Keine Fachbegriffe ohne Erklärung. Klar, direkt, überzeugend.
↓ Unsere KI liest deine Antwort und gibt dir echtes Feedback.