AI chatbot for Matrix with infinite personalties, using ollama
Go to file
2024-11-27 23:30:45 +01:00
bin First tests with the Docker containers 2024-11-27 21:38:00 +01:00
data/chatbot Further bug fixes 2024-11-27 21:53:36 +01:00
docker-compose.yaml some bug fixes 2024-11-27 22:45:27 +01:00
Dockerfile.chatbot i hate bugs !!! 2024-11-27 23:18:52 +01:00
Dockerfile.ollama i hate bugs !!! 2024-11-27 23:18:52 +01:00
LICENSE Initial commit 2023-12-15 00:55:33 -05:00
README.md doku 2024-11-27 23:30:45 +01:00
start.sh some bug fixes 2024-11-27 22:45:27 +01:00

ollamarama-matrix-chatbot

Zuerst das Wichtigste:

Dies ist ein Fork von Dustin Whyte, welchen ich anschließend in Docker inpelementiert habe.

Ollamarama ist ein KI-Chatbot für das Matrix Chatprotokoll mit Ollama. Er kann fast alles spielen, was Du dir vorstellen kannst. Du kannst jede Standardpersönlichkeit einstellen, die du möchtest. Sie kann jederzeit geändert werden, und jeder Benutzer hat seinen eigenen Chatverlauf mit der von ihm gewählten Persönlichkeitseinstellung. Die Benutzer können mit den Chatverläufen der anderen interagieren, um zusammenzuarbeiten, wenn sie das möchten, aber ansonsten sind die Unterhaltungen getrennt, pro Kanal und pro Benutzer. Dieser Chatbot kommt zusammen mit dem Ollama Docker, zu finden hier.

Setup

Installiere dir zuerst Docker. Dies kannst du mit diesem Script machen.

Anschließend clonst du mein Projekt:

git clone https://git.techniverse.net/scriptos/ollamarama-matrix

Anschließend ins Verzeichnis wechseln und die Konfigurationsdatei für den Matrix-Chatbot konfigurieren:

cd ollamarama-matrix && nano data/chatbot/config.json)

In der config.json werden die Zugangsdaten für den Chatbot gepflegt. Dieser muss im Vorfeld auf dem Matrix Server erstellt werden. Dies kann hier gemacht werden. Weiterhin können in dieser Konfigurationsdatei weitere Modelle gepflegt werden, welche vom Chatbot anschließend verwendet werden könnten.

In der Datei start.sh können weitere Modelle gepflegt werden, welche dann nach dem Starten vom Ollama Docker Container runtergeladen werden.

Weitere Modelle können hier geladen werden.

Wenn die Konfiguration gemacht ist, kann der Docker mit

docker-compose up --build

gestartet werden. Dies ist ideal um gleich auch die Logs zu sehen.

Nun tritt der Bot automatisch den konfigurierten Channels bei und sollte dir im Idealfall direkt zu Verfügung stehen.

Den Docker startest du richtig mit

docker-compose -d

Die erste Nachricht versendest du mit .ai message

Ein Beispiel:

.ai Hallo, wie geht es dir?

Verwendung

.ai nachricht oder botname: nachricht

Grundlegende Verwendung.

.x benutzer nachricht

Erlaubt es dir, auf die Chat-Historie eines anderen Benutzers zuzugreifen.

benutzer ist der Anzeigename des Benutzers, dessen Historie du verwenden möchtest.

.persona persönlichkeit

Ändert die Persönlichkeit. Es kann eine Figur, ein Persönlichkeitstyp, ein Objekt, eine Idee, was auch immer sein. Nutze deine Fantasie.

.custom eingabeaufforderung

Erlaubt die Verwendung einer benutzerdefinierten Systemaufforderung anstelle der Rollenspielaufforderung.

.reset

Verlauf löschen und auf voreingestellte Persönlichkeit zurücksetzen.

.stock

Verlauf löschen und ohne Systemaufforderung verwenden.

Nur für Admins

.model modell

Lasse den Modellnamen weg, um das aktuelle Modell und verfügbare Modelle anzuzeigen.

Gib den Modellnamen ein, um das Modell zu wechseln.

.clear

Setzt den Bot für alle zurück.