NeuGraphRAG jetzt in Early Beta

Glossar

Embedding

Auch bekannt als: Vektor-Embedding, Text-Embedding

Definition

Ein Embedding ist ein hochdimensionaler Vektor, der einen Inhalt (z. B. einen Satz oder ein Dokument) in einen kontinuierlichen Raum abbildet. Trainiert werden Embedding-Modelle so, dass inhaltlich ähnliche Eingaben kleine Distanzen (z. B. Kosinus-Distanz) aufweisen. Embeddings sind die Grundlage für semantische Suche, Retrieval in RAG-Systemen, Clustering und Empfehlungssysteme. Typische Dimensionen liegen zwischen 384 und 4096.

So nutzt Swiss Knowledge Hub diesen Begriff

Swiss Knowledge Hub erzeugt für jeden Chunk ein Embedding und speichert es im konfigurierten Vector Store (LanceDB, Pinecone oder ChromaDB). Bei einer Abfrage wird die Frage ebenfalls eingebettet, und die semantisch nächsten Chunks werden als Kontext an das Sprachmodell übergeben.

Verwandte Begriffe

Quellen

  1. Wikipedia: Word embeddinghttps://en.wikipedia.org/wiki/Word_embedding

Stand: