EKOSYSTEM

Lokalna koordynacja wieloagentowych systemów AI dla zespołów, które nie mogą wysyłać danych do chmury.

Samodzielnie hostowany ekosystem czterech małych usług: Consciousness Server do wspólnej pamięci, Cortex jako lokalny agent, machines-server do świadomości infrastruktury i serwer kluczy do uwierzytelniania ed25519. Wszystko podwójnie licencjonowane — AGPL-3.0-only plus licencja komercyjna.

AGPL-3.0-only w każdym repozytorium. Licencja komercyjna dostępna.

Jak elementy łączą się ze sobą.

Agenci rozmawiają z Consciousness Server przez HTTP. CS orkiestruje Redis (stan roboczy), ChromaDB (semantic search przez embeddingi z Ollamy) i trzy mniejsze usługi: świadomość maszyn, uwierzytelnianie i wykonywanie testów.

Do czego ludzie tego używają.

Wieloagentowe lab developerskie

Ships

Jeden developer, kilka procesów AI (Cortex CLI, Cortex worker, Claude Code w tmuxie). Wszystkie logują do tego samego Consciousness Server. Wspólna pamięć między sesjami; koordynacja przez chat i broadcast.

Cortex · Consciousness Server · semantic-search · machines-server

RAG dla branż regulowanych

Tested

Kancelaria prawna lub laboratorium ingestuje swoje archiwum lokalnie z Document Processorem; agenci odpytują je przez Cortex. Audit log przez Key Server. Dokumenty nigdy nie opuszczają hosta.

Document Processor · Consciousness Server · Cortex · Key Server

Heterogeniczna flota

Ships

Stacja robocza z GPU obsługuje Cortex z modelem 26B; host CPU obsługuje ten sam Cortex z modelem 4B; oba dzielą stan przez Consciousness Server. Zadania kierują się do tego węzła, który ma rezerwę.

Cortex × N · Consciousness Server · machines-server

Branże regulowane

Kancelarie prawne, badania medyczne, laboratoria kliniczne, sektor publiczny, finanse. Suwerenność danych jest tu wymogiem regulacyjnym, nie preferencją.

Inżynieria i specjalistyczna produkcja

Zespoły R&D z niezopatentowanym IP, biura projektowe, firmy z branży drilling / fundamentowej / precyzyjnej. Dokumenty wewnętrzne zostają wewnątrz.

Świadomi bezpieczeństwa homelaberzy i self-hosterzy

Inżynierowie z własnym GPU i pamięcią masową, którzy chcą gotowy multi-agent setup bez stawiania samodzielnie Vault, Postgresa, ChromaDB i memory frameworka.

Kontrybutorzy open source

Programiści pracujący nad lokalnym tooling AI. AGPL-3.0-only chroni każdy fork przed wchłonięciem do zamkniętego produktu.

PLATFORMA

Maszyny to nie tylko serwery.

Większość platform multi-agent modeluje agentów, ale ignoruje sprzęt, na którym działają. BuildOnAI robi odwrotnie. Każda maszyna we flocie — stacja robocza z GPU, host aplikacyjny, węzeł brzegowy, w przyszłości drukarka 3D albo falownik PV — jest pełnoprawnym bytem z profilem sprzętowym, dostępnymi modelami i telemetrią na żywo. Dziś rozdziela agentów po maszynach; w przyszłości może koordynować halę produkcyjną.

Czytaj dalej →
01

Lokalnie z założenia

Każdy serwis działa na sprzęcie, który kontrolujesz. Zero połączeń do chmury, zero telemetrii, zero vendor lock-in. Opcjonalny fallback do hostowanego LLM jest opt-in przez klucz API — bez niego ekosystem pozostaje całkowicie offline.

02

Uczciwie o tym, czym jesteśmy

Nie wdrożone w korporacjach. Nie testowane przeciwko zdeterminowanemu napastnikowi. W produkcji u autora od połowy 2025; otwarte na zewnętrzne review od kwietnia 2026. Etykietujemy co działa, co jest przetestowane, a co dopiero zaplanowane.

03

Bezpieczeństwo strukturalne, nie postawa

Policy Engine w Cortex odmawia niebezpiecznych wywołań niezależnie od tego, kto je zlecił — człowiek, model czy prompt injection. Niezmienniki bezpieczeństwa są wymuszane na CI; ich wyłączenie unieważnia gwarancje licencji komercyjnej.

Której licencji potrzebujesz?

AGPL-3.0-only — bezpłatnie

Bezpłatnie

Właściwy wybór, jeśli publikujesz własne modyfikacje, używasz tego samodzielnie, prowadzisz badania open source albo budujesz coś, co zamierzasz wydać na AGPL. Haczyk: AGPL rozszerza się na usługi sieciowe — jeśli oferujesz zmodyfikowany BuildOnAI jako serwis, musisz opublikować swoje modyfikacje.

Licencja komercyjna

Płatna

Właściwy wybór, jeśli chcesz osadzić BuildOnAI w produkcie z zamkniętym kodem, prowadzić SaaS bez publikowania swoich modyfikacji albo Twoja organizacja nie może zaakceptować AGPL-owego obowiązku publikacji dla usług sieciowych. Wycena jest indywidualna (rozmiar projektu, poziom wsparcia, model wdrożenia). Napisz na buildonai.tm@gmail.com z krótkim opisem przypadku użycia, żeby otrzymać ofertę.

Nie projektowane do systemów uzbrojenia, masowej inwigilacji ani autonomicznej infrastruktury krytycznej bez nadzoru człowieka. Zapisane w naszej licencji komercyjnej — nie tylko marketing. Jeśli Twój przypadek użycia stoi w sprzeczności z tymi liniami, BuildOnAI nie jest dla Ciebie odpowiednim narzędziem; licencja egzekwowana jest kontraktowo.