Skip to main content

Ein autonomer KI-Entwicklungsassistent mit lokalem Ollama-Backend.

Project description

🔥 CODIAC Code

Autonomer KI-Entwicklungsassistent mit lokalem Ollama-Backend

CODIAC ist ein intelligenter, autonomer KI-Agent, der Aufgaben vollständig und selbstständig ausführt - genau wie Claude Code, aber mit lokalen Ollama-Modellen.


Was ist CODIAC?

CODIAC Code ist ein minimalistisches Terminal-Interface mit einem hochintelligenten KI-Agenten, der:

  • 🤖 Autonom arbeitet - Führt Aufgaben vollständig aus ohne weitere Nachfragen
  • 🖋️ Live-Typewriter - Elegante Echtzeit-Textausgabe mit Cursor-Animation
  • 🚀 Performance-optimiert - Conversation-Caching für längere Gespräche
  • 🔒 Sicher - Sandbox-Modus standardmäßig aktiv
  • ⚡ Ollama-nativ - Funktioniert ausschließlich mit lokalen Modellen

🎯 Hauptfeatures

Autonome Ausführung

Du: "Erstelle eine Python-Funktion für Fibonacci-Zahlen"
CODIAC: Analysiert → Schreibt Code → Testet → Optimiert → Fertig!

Live-Typewriter-Effekt

  • Immer aktiv, kein Umschalten nötig
  • Oranges Glühen (CODIAC-Farbe: #E67E22)
  • Blinkender Cursor ▌ während der Eingabe

Smart Performance

  • Conversation-Caching: Optimierte Kontextverwaltung
  • Token-Limiting: Automatisches Kürzen langer Gespräche
  • Live-Metriken: Tokens/Sekunde, Gesamt-Tokens, Timer

Terminal-Ästhetik

  • Glassmorphism-Design aus dem AgentSuite-Projekt
  • Kompakte, minimalistische UI
  • Responsive für alle Bildschirmgrößen

🚀 Quick Start

Voraussetzungen

# 1. Ollama installieren
# https://ollama.ai

# 2. Modell herunterladen
ollama pull deepseek-coder-v2:16b

# 3. Ollama starten
ollama serve

Installation

# Dependencies installieren
pip install -r requirements.txt

# Atlas starten
python main.py

CODIAC öffnet sich automatisch unter: http://localhost:8080


💬 Verwendung

Einfach schreiben und Enter drücken

Nachricht an CODIAC eingeben...

Keine Kommandos, keine Modi - einfach natürlich schreiben!

Beispiel-Gespräche

Du: Wie heißt du?
CODIAC: Ich bin CODIAC, dein Entwicklungsassistent.

Du: Erstelle eine REST API in Python
CODIAC: [Schreibt vollständigen Flask-Code mit Endpunkten]

Du: Verbessere die Performance 
CODIAC: [Analysiert Code, optimiert, testet Änderungen]

Shortcuts

  • Enter → Nachricht senden
  • ESC → Verarbeitung abbrechen
  • Auto-Scroll zu neuen Nachrichten

🔧 Technische Details

Architektur

CODIAC Code
├── Backend (Python + Eel)
│   ├── CodiacAgent - Konversations-Management  
│   ├── Ollama-Integration - Streaming + Tokens
│   └── Conversation-Cache - Performance
└── Frontend (Vanilla JS + CSS)
    ├── Terminal-Interface
    ├── Typewriter-Effekt
    └── Live-Token-Tracking

Performance-Optimierungen

  • Conversation-Cache: Begrenzt auf 50 Nachrichten
  • Token-Throttling: Updates alle 100ms
  • Context-Limiting: Nur relevante Historie (8 letzte Nachrichten)
  • Memory-Management: Automatisches Cache-Cleanup

Sicherheit

  • Sandbox-Standard: Arbeitet in workspace/ Verzeichnis
  • Kontrollierte Ausführung: Code wird nur nach Bestätigung ausgeführt
  • Lokale Modelle: Keine externen API-Calls

⚙️ Konfiguration

Modell ändern

# In main.py
MODEL_NAME = "dein-bevorzugtes-modell"

Performance tunen

# Konversationslänge anpassen
MAX_CONVERSATION_LENGTH = 50  # Standard

# Token-Update-Intervall
last_token_update = 0.1  # 100ms (Standard)

Sandbox deaktivieren

CODIAC kann auf Vollzugriff umgestellt werden, läuft aber standardmäßig sicher im Sandbox-Modus.


📊 Token-Metriken

Die Status-Bar zeigt Live-Metriken:

🔥 CODIAC bereit | 📁 Sandbox | Live: 42T | Total: 1337T | 15/s | 02:45
  • Live: Tokens der aktuellen Antwort
  • Total: Session-Gesamt-Tokens
  • Speed: Tokens pro Sekunde
  • Timer: Session-Dauer

🎨 Design-Prinzipien

CODIAC-Identität

  • Farbe: Orange (#E67E22) mit Glüh-Effekt
  • Name: "CODIAC" - kurz, prägnant, stark
  • Verhalten: Autonom, vollständig, hilfreich

Terminal-Authentizität

  • Monospace-Fonts für Code
  • Glassmorphism-Effekte
  • Minimalistisch und fokussiert
  • Keine überflüssigen UI-Elemente

Performance-First

  • Kompakte Bundle-Größe (kein Tailwind)
  • Optimierte DOM-Struktur
  • Effiziente Event-Handling

🔄 Unterschiede zu Claude Code

Feature Claude Code CODIAC Code
Backend Anthropic API Lokale Ollama-Modelle
Modelle Claude-Familie Beliebige Ollama-Modelle
UI Sidebar + Chat Terminal-Interface
Identität Claude CODIAC
Performance Cloud-basiert Lokal optimiert
Autonomie ✅ Vollständig ✅ Vollständig

🛠️ Erweiterte Features

Conversation-Management

# Automatisches Context-Management
def build_conversation_context(self, new_message: str) -> str:
    # Intelligente Kontextverkürzung
    # Performance-optimierte Historie
    # Relevanz-basierte Filterung

Smart Token-Tracking

def realistic_token_count(text):
    # GPT-ähnliche Tokenisierung
    # Subwort-Unterstützung
    # Deutsche Sprache optimiert

Live-Updates

// Echtzeit Token-Updates
function token_update(data) {
    // Throttled auf 100ms
    // Smooth UI-Updates
    // Performance-Monitoring
}

🎯 Roadmap

  • Multi-Model-Support: Wechsel zwischen verschiedenen Ollama-Modellen
  • Plugin-System: Erweiterbare Funktionalitäten
  • Export-Features: Chat-Verlauf und Code-Snippets exportieren
  • Themes: Anpassbare UI-Themes
  • Mobile-App: Native Mobile-Version

🤝 Entwicklung

Debugging

# Backend-Logs
python main.py

# Frontend-Entwicklung  
# Browser DevTools (F12)

Testing

# Ollama-Verbindung testen
curl http://localhost:11434/api/tags

# Modell-Status prüfen
ollama list

📄 Lizenz

MIT-Lizenz - Siehe LICENSE für Details.


🙏 Credits

  • Ollama - Lokale LLM-Infrastruktur
  • Eel - Python-JavaScript-Bridge
  • AgentSuite - Terminal-Design-Inspiration
  • Claude Code - Autonomie-Konzept-Inspiration

CODIAC Code - Dein autonomer Entwicklungsassistent. Lokal. Intelligent. Vollständig. 🔥

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

ollama_code-0.5.2.tar.gz (100.0 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

ollama_code-0.5.2-py3-none-any.whl (128.4 kB view details)

Uploaded Python 3

File details

Details for the file ollama_code-0.5.2.tar.gz.

File metadata

  • Download URL: ollama_code-0.5.2.tar.gz
  • Upload date:
  • Size: 100.0 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/6.1.0 CPython/3.11.9

File hashes

Hashes for ollama_code-0.5.2.tar.gz
Algorithm Hash digest
SHA256 de1fbe084268cc6976fb54a38ce14b8fc0cee570b639ec76a644f9b8029b6c7d
MD5 820cbc32279f535627a17a14fbb44667
BLAKE2b-256 1a59a8a6805423cc10db9ebe60c2a826ec37e57926e67299dec7d5bf779cd435

See more details on using hashes here.

File details

Details for the file ollama_code-0.5.2-py3-none-any.whl.

File metadata

  • Download URL: ollama_code-0.5.2-py3-none-any.whl
  • Upload date:
  • Size: 128.4 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/6.1.0 CPython/3.11.9

File hashes

Hashes for ollama_code-0.5.2-py3-none-any.whl
Algorithm Hash digest
SHA256 4e476730a44b96a38d7955e84cea5e206a871b604763501ac4e5259fa2c337ec
MD5 d324c43c41caa203649a2b1f048a8102
BLAKE2b-256 f12793c7f8f9788083b97377657823c179e7a18abacb0e518673d3e33000f6f6

See more details on using hashes here.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page