produkt

zwei layer
die die arbeit machen.

zwei layer. einer läuft unter allem und strukturiert, was dein unternehmen weiß. der andere bringt das zu jedem AI-tool, das dein team nutzt.

architektur

ein gedächtnis.
jede oberfläche.

klick auf einen node. der divider pulsiert. der retrieval-layer liest aus dem gleichen memory, in das jede ingestion-quelle schreibt.

retrieval-layer
claude
chatgpt
cursor
slack
web app
api
ingestion-layer
slack
notion
drive
gmail
hubspot
meetings
fähigkeiten

multimodale fähigkeiten.

multimodale inputs werden nativ verarbeitet. text, bilder, video, audio. verträge, decks, gescannte dokumente und meeting-aufnahmen werden abfragbarer content.

text

dokumente, notizen, nachrichten

verträge, memos, slack-threads, notion-seiten — alle geparst, verlinkt und zitierbar.

bilder

screenshots, diagramme, scans

gescannte dokumente, whiteboard-fotos und produkt-screenshots werden abfragbar.

video

aufnahmen & demos

aufgenommene calls und produkt-walkthroughs werden transkribiert, zusammengefasst und indiziert.

audio

sprachnotizen & diktat

sprachmemos und podcast-clips fließen in denselben knowledge-layer wie text.

pdf

verträge, decks, reports

layout-aware parsing extrahiert struktur aus pdfs — tabellen, klauseln, abbildungen.

meetings

transkripte mit sprechern

wer hat was wann gesagt. entscheidungen und zusagen sichtbar und mit dem account verlinkt.

offene standards & portabilität

offen by design.

markdown-repo als source of truth. postgres mit vector-search für retrieval. offene standards für das interface. jeder layer ist offen. kein proprietärer lock-in. du kannst den knowledge-layer mitnehmen, wenn du gehst.

faq

produkt & technik.

wie unterscheidet sich das von einem rag-setup oder einem internen wiki?

rag leitet wissen bei jeder anfrage neu ab. ein wiki liegt rum, bis jemand es aktualisiert. der knowledge-layer kompiliert einmal, bleibt automatisch aktuell, baut querverweise vor, markiert widersprüche beim ingest und wird mit der zeit stärker.

wie sieht die zugrundeliegende architektur aus?

markdown-repo als source of truth, postgres mit vector-search für retrieval, offene standards für das interface. jeder layer ist offen. kein proprietärer lock-in. du kannst den knowledge-layer mitnehmen, wenn du gehst.

kann das pdfs, bilder und meeting-videos lesen?

ja. multimodale inputs werden nativ verarbeitet. text, bilder, video, audio. verträge, decks, gescannte dokumente und meeting-aufnahmen werden abfragbarer content.

sieh es auf deinen quellen.

90 minuten mit deinem leadership-team. wir mappen deine quellen, deine AI-nutzung und die drei queries, die den größten hebel bringen. du gehst raus mit scope und schriftlichem plan innerhalb von 48 stunden.