Künstliche Intelligenz

Tools für AI-Algorithmen

Written by Mustafa Bilgin (2025)

KI-KonzeptBeschreibungDidaktischer Fokus
im Seminar
EntscheidungsbäumeEin Einstieg bildet der Entscheidungsbaum aus dem Bereich der symbolischen KI, bei dem die KI-Entscheidungen trifft. Ein Entscheidungsbaum ist eine Art Flussdiagramm, das aus einer Reihe von Ja-/Nein-Fragen besteht. Jede Frage teilt die möglichen Optionen in kleinere Gruppen auf. Dabei beginnt man mit einer Einstiegsfrage. Je nach Antwort (Ja oder Nein) folgt man einem Zweig weiter zur nächsten Frage. Am Ende eines Pfads steht eine Entscheidung oder ein Ergebnis. So wird das Problem Schritt für Schritt logisch und strukturiert gelöst – ähnlich einem Entscheidungsprozess im Alltag. Bezug hat das Konzept zu bekannten technischen Diagnosehilfen („Startet der Computer?“) oder einfachen Kaufempfehlungen („Magst du Sport?“). Das Konzept basiert auf dem Verständnis von Logik, strukturierter Problemlösung und Automatisierung.




K-Nearest Neighbors (KNN)Beim überwachten Lernen mit dem K-Nearest Neighbors (KNN)-Algorithmus, einem Klassifikationsverfahren, entscheidet der Algorithmus, zu welcher Klasse ein neuer Datenpunkt gehört, indem er die Klassen seiner „nächsten Nachbarn“ im Datenraum betrachtet. Dabei wird davon ausgegangen, dass ähnliche Datenpunkte nahe beieinanderliegen. Die Ähnlichkeit wird häufig anhand von Abständen gemessen, zum Beispiel mit der euklidischen Distanz. Typische Anwendungsbeispiele sind die Handschrifterkennung, bei der neue Buchstaben durch den Vergleich mit bekannten Mustern klassifiziert werden, Empfehlungssysteme, die ähnliche Interessen von Nutzern auswerten, oder die Bestimmung von Pflanzen anhand gemessener Merkmale.
Didaktisch wird dabei die Vermittlung grundlegender Konzepte von „Ähnlichkeit“ und „Nachbarschaft“ fokussiert sowie die Bedeutung der Wahl eines geeigneten Abstandsmaßes verdeutlicht.




Neuronale NetzeNeuronale Netze sind ein zentrales Konzept im Bereich des Deep Learning und orientieren sich an der Funktionsweise des menschlichen Gehirns. Sie bestehen aus mehreren Schichten von miteinander vernetzten Neuronen (oder Knoten), die Informationen verarbeiten. Die wichtigsten Elemente eines neuronalen Netzes sind dabei die Eingabeschicht (Input Layer), die die Rohdaten (z. B. Pixelwerte eines Bildes) aufnimmt und an die nächste Schicht weiterleitet, die verborgenen Schichten (Hidden Layers), die die Informationen durch gewichtete Verbindungen und Aktivierungsfunktionen verarbeiten und dabei immer abstraktere Merkmale aus den Eingabedaten extrahieren, sowie die Ausgabeschicht (Output Layer), die schließlich die endgültige Entscheidung oder Vorhersage trifft, etwa die Klassifikation eines Bildes als „Katze“ oder „Hund“. Jedes Neuron empfängt Signale (Informationen) von den Neuronen der vorherigen Schicht, multipliziert diese mit Gewichtungen (bestimmten Zahlen), die die Wichtigkeit jeder Information anzeigen. Anschließend werden diese Ergebnisse summiert und durch eine Aktivierungsfunktion verarbeitet. Diese Funktion wirkt wie ein „Schalter“, der entscheidet, ob das Neuron die Information weitergibt oder nicht. Durch das Anpassen dieser Gewichte lernt das Netzwerk, Muster in den Daten zu erkennen und korrekte Entscheidungen zu treffen. Neuronale Netze gelten oft als „Blackbox“, weil ihre internen Entscheidungsprozesse schwer nachvollziehbar sind. Obwohl das Netz optimale Vorhersagen treffen kann, ist oft unklar, wie genau es zu einer bestimmten Entscheidung kommt. Diese Intransparenz stellt eine Herausforderung dar, insbesondere wenn Erklärbarkeit und Vertrauen in KI-Systeme wichtig sind.Modellbildung, Vernetzung, Black-Box-Prinzip




Reinforcement Learning
(Q-Learning)
Reinforcement Learning ist ein Lernverfahren, bei dem ein „Agent“ eigenständig in einer Umgebung handelt, um durch Belohnungen möglichst viel positiven Nutzen zu erzielen. Der Agent trifft dabei Entscheidungen, welche Aktionen er in einem bestimmten Zustand ausführen soll, um langfristig die maximale Belohnung zu erhalten. Q-Learning ist ein populärer Algorithmus innerhalb dieses Bereichs. Er arbeitet mit einer sogenannten Q-Tabelle, in der für jede Kombination aus Zustand und möglicher Aktion ein Schätzwert („Q-Wert“) gespeichert wird, der angibt, wie vorteilhaft diese Aktion in diesem Zustand ist. Der Agent verbessert seine Strategie, indem er Erfahrungen sammelt, die Q-Werte aktualisiert und so lernt, welche Aktionen in welchen Situationen am besten sind. Dabei muss er auch zwischen dem Erkunden neuer Möglichkeiten („Exploration“) und dem Ausnutzen bekannter guter Strategien („Exploitation“) abwägen.Das Konzept fördert das Verständnis für selbstständiges Lernen, strategisches Handeln und den Umgang mit Unsicherheit. Erklärung der Grundprinzipien von Belohnung, Bestrafung und Exploration oder anhand positiver und negativer Rückmeldungen. Beispiele: Eine Maus, die in einem Labyrinth Käse sucht, oder ein Computerprogramm, das Pac-Man spielt und lernt, Geistern auszuweichen. Solche Beispiele zeigen die Grundprinzipien von Belohnung, Bestrafung und Exploration.




Bayes’sche NetzeStellen probabilistische Beziehungen zwischen Variablen dar. Sie verwenden Bayessche Inferenz, um neue Informationen zu verarbeiten und Vorhersagen zu treffen. Bayessche Netze sind Modelle, die komplexe Zusammenhänge zwischen verschiedenen Variablen darstellen, indem sie deren Wahrscheinlichkeiten und Abhängigkeiten in einem gerichteten Graphen abbilden. Jeder Knoten im Netzwerk repräsentiert eine Variable, und die Kanten zeigen bedingte Abhängigkeiten zwischen diesen Variablen an. Mithilfe der Bayesschen Inferenz können Bayessche Netze neue Informationen aufnehmen und die Wahrscheinlichkeiten für verschiedene Ereignisse aktualisieren. So lassen sich aus unvollständigen oder unsicheren Daten Vorhersagen treffen und Unsicherheiten systematisch handhaben.Wahrscheinlichkeitstheorie, Einführung in das Konzept der bedingten Unabhängigkeit.Das Konzept der bedingten Unabhängigkeit wird eingeführt, was hilft, komplexe Zusammenhänge zu vereinfachen. Zudem wird vermittelt, wie neue Informationen genutzt werden können, um bestehende Annahmen zu überarbeiten und besser informierte Entscheidungen zu treffen.




K-Means Clustering
[Unsupervised Learning]
K-Means ist ein Algorithmus, der Datenpunkte automatisch in Gruppen, sogenannte Cluster, einteilt, ohne dass vorher bekannte Kategorien vorliegen. Dabei wird zunächst eine Anzahl K vorgegeben, die angibt, wie viele Cluster gebildet werden sollen. Der Algorithmus ordnet jeden Datenpunkt dem Cluster zu, dessen Zentrum (Mittelpunkt) am nächsten liegt. Anschließend werden die Mittelpunkte der Cluster neu berechnet, und die Zuordnung der Datenpunkte wird wiederholt angepasst, bis sich die Cluster stabilisieren. So erkennt das System Muster und Ähnlichkeiten in den Daten. Beispiele: Ähnliche Farbwerte in Bildern werden zu Clustern zusammengefasst, um die Dateigröße zu reduzieren, ohne die Bildqualität stark zu beeinträchtigen (Bildkompression). Patienten mit ähnlichen Symptomen oder Krankheitsverläufen werden gruppiert, um personalisierte Behandlungsmöglichkeiten zu identifizieren (Mustererkennung).Hilft, Muster und Strukturen in großen Datenmengen zu erkennen, ohne dass vorher eine Anleitung oder Beschriftung vorliegt. Es wird vermittelt, wie Clustering funktioniert und wie der iterative Prozess der Gruppierung abläuft. Außerdem fördert K-Means das Verständnis für Ähnlichkeit und Distanzmessungen im Datenraum.
Monte-Carlo-MethodenMonte-Carlo-Methoden gehören zu den probabilistischen Ansätzen in der KI. Sie verwenden Zufallssimulationen, um Entscheidungen zu treffen, optimale Strategien zu finden oder Vorhersagen zu verbessern. In der KI kommen sie unter anderem dann zum Einsatz, wenn ein System viele Möglichkeiten in einer komplexen Umgebung abwägen muss, aber nicht alle Optionen vollständig durchrechnen kann.
Ein bekanntes Anwendungsfeld ist das Monte-Carlo Tree Search (MCTS) ist ein Verfahren, das etwa bei Spiel-KIs (z. B. AlphaGo) genutzt wird. Dabei wird eine Entscheidungsstruktur (ein Baum möglicher Züge) simulativ erkundet: Das System probiert viele zufällige Spielverläufe aus („Rollouts“) und merkt sich, welche Entscheidungen im Durchschnitt zu besseren Ergebnissen führen. Mit jeder weiteren Simulation verbessert sich die Entscheidungsgrundlage.
Zufallsbasiertes Denken fördern, Probieren statt Planen. Förderung wahrscheinlichkeitsbasierten Denkens und intuitiven Umgangs mit Unsicherheit.
Verständnis, dass Zufall systematisch genutzt werden kann – als sinnvolle Strategie, nicht als Blindflug.
Entwicklung eines Gefühls für Exploration vs. Auswertung (Trial-and-Error mit Auswertung von Erfolgen).
Hebb’sches LernenHebb’sches Lernen ist ein grundlegendes Lernprinzip für künstliche neuronale Netze, das auf der Idee basiert, dass Verbindungen zwischen künstlichen Neuronen gestärkt werden, wenn diese gleichzeitig aktiv sind. In technischen Begriffen bedeutet das: Wenn zwei Neuronen in einem Netzwerk bei der Verarbeitung derselben Eingabe regelmäßig gemeinsam aktiviert werden, erhöht sich das Gewicht der Verbindung zwischen ihnen. Dadurch „lernt“ das Netzwerk, bestimmte Muster oder Zusammenhänge in den Daten zu erkennen und schneller darauf zu reagieren.
Im Kontext der Künstlichen Intelligenz wird dieses Prinzip verwendet, um Systeme schrittweise zu trainieren. Zum Beispiel beim Erkennen von Bildern, Sprache oder Bewegungsabläufen. Hebb’sches Lernen legt damit die Basis für das Erkennen wiederkehrender Strukturen ohne explizite Vorgaben (unüberwachtes Lernen) und ermöglicht, dass sich neuronale Netze mit der Zeit durch Erfahrung anpassen.
Kinder erkennen durch Analogie zum sozialen Lernen, wie Verbindungen durch Wiederholung und gleichzeitige Aktivierung gestärkt werden, so wie gemeinsame Erfahrungen Freundschaften vertiefen.
Sie verstehen, dass Lernen nicht sofort, sondern durch wiederholte Erlebnisse geschieht. Je öfter etwas gemeinsam auftritt, desto stärker die „Verbindung“.
Das Konzept fördert das Verständnis für Mustenerkennung, Verstärkung durch Wiederholung und automatisiertes Verhalten, wie z. B. beim Lesenlernen oder beim Erkennen von Gesichtsausdrücken.
Markov-Ketten
[Probabilistische KI-Modelle]
Markov-Ketten sind ein Konzept aus der probabilistischen KI, das verwendet wird, um Systeme zu modellieren, die sich schrittweise verändern. Eine Markov-Kette besteht aus einer Reihe von Zuständen und Übergangswahrscheinlichkeiten zwischen diesen Zuständen. Dabei gilt das sogenannte Markov-Prinzip: Der nächste Zustand hängt nur vom aktuellen Zustand ab, nicht von der gesamten Vorgeschichte.
Typische Einsatzgebiete in der KI sind etwa Textgenerierung (Wortfolgen), Wettervorhersagen oder Bewegungsplanung, bei denen Wahrscheinlichkeiten genutzt werden, um den wahrscheinlichsten nächsten Schritt zu bestimmen. Markov-Ketten legen damit die Grundlage für viele Anwendungen, bei denen Entscheidungen unter Unsicherheit getroffen werden.
Zustandsübergänge und Wahrscheinlichkeiten, Förderung von logischem Denken und Vorhersagefähigkeit: Situationen verändern sich schrittweise, und jede Entscheidung beeinflusst den nächsten Schritt. Die Beschäftigung mit Markov-Ketten fördert logisches Denken, die Fähigkeit zur Modellbildung und den Umgang mit Unsicherheit.
Constraint Satisfaction Problems (CSPs)Constraint Satisfaction Problems (CSPs) sind eine Klasse von Problemen in der symbolischen Künstlichen Intelligenz, bei denen eine Menge von Variablen mit Werten belegt werden muss. Dabei sollen vorgegebene Bedingungen oder Einschränkungen (Constraints) erfüllt werden. Das bedeutet, dass jede Variable so gewählt wird, dass sie mit den anderen Variablen zusammen keine dieser Bedingungen verletzt. Beispiele sind Sudoku-Rätsel, Stundenplanerstellung oder das Zebra-Rätsel. Um solche Probleme zu lösen, werden häufig Backtracking-Algorithmen eingesetzt. Diese Algorithmen arbeiten systematisch, indem sie Schritt für Schritt mögliche Werte zuweisen und prüfen, ob die Bedingungen erfüllt sind. Wenn eine Zuweisung zu einem Widerspruch führt, „gehen sie zurück“ und versuchen alternative Werte (Backtracking-Algorithmen). So werden alle möglichen Kombinationen durchprobiert, bis eine passende Lösung gefunden ist.Diese Herangehensweise fördert systematisches, logisches Denken, gezieltes Ausprobieren und das Eliminieren von ungültigen Optionen.
Support Vector Machines (SVM)Ein Algorithmus für Klassifikation und Regression, der Datenpunkte in einem hochdimensionalen Raum durch eine optimale Trennhyperebene separiert. Maximiert den Abstand zwischen den Klassen („Margin“).Geometrische Intuition, Verständnis von Trennlinien, Margins und Kernelfunktionen (z. B. lineare vs. nicht lineare Trennung). Anwendung: Textkategorisierung, Bilderkennung.

Generative Adversarial Networks (GANs)
Zwei neuronale Netze (Generator & Discriminator) im Wettstreit: Der Generator erzeugt synthetische Daten, der Discriminator bewertet ihre Echtheit. Durch Iteration entstehen realistische Ergebnisse (z. B. Bilder, Musik).Analogie zu Fälscher und Detektiv. Diskussion über Deepfakes, Ethik und Datenqualität.