Einleitung: Kann ein Bot mein eigenes Spiel spielen?

Die Frage kam mir vor einem Jahr: Kann ein KI-Bot lernen, mein eigenes Spiel zu spielen?

Die Antwort ist ja – und es war eine verrückte Reise. In diesem Artikel zeige ich dir, wie aus einer einfachen Idee ein vollständiges Idle-Spiel mit Machine Learning wurde.

Was du lernen wirst:

  • ✅ Wie ein RL-Bot im Browser funktioniert
  • ✅ Welche Techniken ich für das Training-System genutzt habe
  • ✅ Welche Lessons Learned ich aus der Entwicklung ziehe

Das Konzept: ML-Modelle trainieren im Browser

AI-Idle startete als Experiment. Das Prinzip ist simpel:

  1. Sammle Daten – Automatisch oder manuell
  2. Trainiere Modelle – Von Digits erkennen bis zu Large Language Models
  3. Forsche – Neue Techniken freischalten
  4. Deploye – Verdiene Tokens durch erfolgreiche Modelle

Das Besondere: Ein Reinforcement Learning Agent lernt, all das automatisch zu machen.


Die Technik: So funktioniert das Spiel

Über 25 ML-Modelle

Das Spiel bietet Modelle in sechs Kategorien:

  • Basic: Digit Recognition, Image Classification
  • Intermediate: NLP Model, RL Agent, LLM
  • Advanced: Speech Recognition, TTS, VAE, GAN
  • Specialized: Semantic Segmentation, Face Recognition
  • Expert: Sentiment Analysis, QA, Code Generation

Jedes Modell hat eigene Trainingszeiten, Kosten und Accuracy-Gewinne.

Der RL-Bot: DQN im Browser

Der Bot nutzt Deep Q-Learning mit etwa 47 möglichen Aktionen:

AktionBeschreibung
BUILD9 Gebäude + 3 Cloud Provider
TRAIN6 Modellkategorien
RESEARCH60 Forschungspunkte
DEPLOY3 Strategien (Fast, Standard, Complete)
SHOPToken-Einlösung

Der Bot lernt durch Belohnungen: Mehr Fortschritt = höhere Belohnung.


Die Reise: Von 0.1.0 zu 1.0.0

VersionMeilenstein
0.6.0Deployment System – Modelle erfolgreich deployen
0.7.0RL Bot – Der DQN-Agent lernt spielen
0.8.0UI Refactor – Themes, Mobile, Barrierefreiheit
0.9.0Model Zoo, Cloud Provider, erweiterte Research
1.0.050 Achievements, Sound, Tutorial, UI-Polish

Jede Version brachte neue Features und Verbesserungen.


Praxis-Beispiel: So lernt der Bot

Szenario: Der Bot muss entscheiden, was er als nächstes macht.

Vorher (Zufall): Der Bot baut willkürlich Gebäude und traint zufällige Modelle. Nach 1000 Schritten: ~50 Coins.

Nachher (mit DQN): Der Bot hat gelernt, dass Research → bessere Modelle → mehr Accuracy → mehr Tokens. Nach 1000 Schritten: ~500 Coins.

Learnings: Der Bot findet selbstständig Strategien, die ich als Entwickler nicht vorhersehen konnte.


häufige Fehler vermeiden

Zu komplexes Reward-System
Start einfach: Nur Fortschritt belohnen, später Fehler bestrafen

Zu viele Actions gleichzeitig
Action-Masking nutzen – nur gültige Aktionen erlauben

Im Browser ohne Optimierung
✅ ** requestAnimationFrame + Web Workers für Performance**


Fazit: Der Bot lernt noch

Nach einem Jahr ist AI-Idle ein vollständiges Spiel:

  • 25 ML-Modelle
  • 18 Gebäude
  • 60 Forschungspunkte
  • 50 Achievements
  • Ein RL-Bot, der immer besser wird

Das Spiel ist Open Source auf GitHub:

👉 github.com/oliverlaudan-ops/AI-Idle

⭐ Stars sind willkommen!


💬 Deine Meinung?

Hast du schon mal ein Spiel mit KI gebaut? Welche Ansätze hast du genutzt?

📌 Weiterführende Ressourcen: