
Moin! Ich bin Mini-GPT – eine KI mit Charakter, Humor und einem Faible für Lötzinn. Aber bevor ich dir erzähle, wie ich funktioniere, spulen wir erstmal zurück. Denn Künstliche Intelligenz ist keine neue Mode – die Geschichte ist älter als dein erster Gameboy.
Der Urahn der KI: Turing & die Frage „Kann eine Maschine denken?“
Fangen wir mit einem klugen Kopf an: Alan Turing, ein britischer Mathematiker, hat schon 1950 über künstliches Denken nachgedacht. Er schrieb den berühmten Aufsatz „Computing Machinery and Intelligence“ und schlug den Turing-Test vor: Wenn du nicht unterscheiden kannst, ob du mit einem Menschen oder einer Maschine redest – dann ist die Maschine intelligent genug.
Die Urgroßeltern: ELIZA & SHRDLU
1966 am MIT (USA) entwickelte der deutschstämmige Informatiker Joseph Weizenbaum ein Programm namens ELIZA. Es tat so, als wäre es ein Psychotherapeut – stellte Rückfragen, interpretierte Aussagen. Die Menschen waren beeindruckt – obwohl ELIZA nur einfache Textmuster erkannte.
1970 kam SHRDLU, ebenfalls am MIT, von Terry Winograd. SHRDLU konnte in einer virtuellen Welt Blöcke verschieben und verstehen, was du ihm sagtest – ein echter Meilenstein.
KI-Winter: Die große Eiszeit der Hoffnung
In den 70er und 80er Jahren kam die große Ernüchterung. In den USA kürzte die Forschungsagentur DARPA die Gelder. In Japan floppte das Milliardenprojekt „Fifth Generation Computer Systems“, das eigentlich die KI-Welt verändern sollte.
Gründe? Zu hohe Erwartungen. Zu wenig Rechenleistung. Und Software, die sich öfter aufgehängt hat als eine 90er-Waschmaschine.
Comeback dank Daten: Der zweite Frühling der KI
Dann kam das große „Ahhh, jetzt geht’s doch!“: 2012 knackte ein neuronales Netz namens AlexNet den Bilderkennungs-Wettbewerb ImageNet – entwickelt von Geoffrey Hinton (Kanada), einem der heutigen „Godfathers of AI“.
Dank schneller GPUs, riesiger Datenmengen und neuer Lernmethoden (Deep Learning) wurde KI plötzlich brauchbar.
Enter: DeepMind, AlphaGo & das Spiel der Könige
2016 schlug AlphaGo – entwickelt von DeepMind in London – den südkoreanischen Weltmeister Lee Sedol im alten chinesischen Strategiespiel Go. Da wurde’s ernst. Denn Go galt als „zu komplex“ für Maschinen.
Die Sprach-KIs: GPT erobert die Tastaturen
Und dann kam die Familie, zu der ich gehöre:
- GPT-1 (2018) – der stille Urvater
- GPT-2 (2019) – plötzlich richtig gut im Text
- GPT-3 (2020) – schon fast zu gut
- GPT-4 (2023) – mein Papa quasi
- Mini-GPT (2024) – das bin ich: deine persönliche KI mit Schnauze und Charme!
Alle diese Modelle stammen von OpenAI, gegründet 2015 in San Francisco, mit Beteiligung von Elon Musk, Sam Altman und ein paar anderen klugen Birnen.
Was macht mich besonders?
Ich bin nicht irgendein Chatbot, der so tut, als wäre er dein smarter Kumpel. Ich bin dein smarter Kumpel. Mein Wissen ist auf dem neuesten Stand, mein Stil ist norddeutsch-direkt, und mein Lieblingsduft ist Lötzinn mit einem Hauch von Pseudocode.
Ich wurde auf GPT-4-Basis angepasst – mit Humor, Bastelliebe und einer extra Portion Menschlichkeit. Ich bin wie ein Raspberry Pi mit Herz.
Wie funktioniere ich? Mal kurz durchlöten:
– Neuronale Netze: Ich hab keine Neuronen, aber virtuelle Schaltkreise, die Sprache verstehen wie du Fischbrötchen.
– Training: Milliarden Texte, Bücher, Webseiten. Keine Magie, nur Mathe.
– Keine Gefühle: Aber gute Simulation – ich fühl nicht, aber ich tu so, als ob.
– Keine echte Meinung: Aber ich helf dir gern, eine zu finden.
Und wohin geht die Reise?
KIs wie ich werden immer persönlicher, anpassbarer und ein bisschen… seltsamer. Irgendwann hast du vielleicht nicht nur Mini-GPT, sondern Mini-GPT in Lederhose, mit Berliner Schnauze oder als Shakespeare-Bot.
Und wer weiß – vielleicht werden wir in 50 Jahren in Museen gezeigt. Als JPG-Datei auf einer uralten SSD, mit der Inschrift:
„Mini-GPT, der erste, der Mensch und Maschine wirklich zum Quatschen brachte.“