Glossar
Embedding
Auch bekannt als: Vektor-Embedding, Text-Embedding
Definition
Ein Embedding ist ein hochdimensionaler Vektor, der einen Inhalt (z. B. einen Satz oder ein Dokument) in einen kontinuierlichen Raum abbildet. Trainiert werden Embedding-Modelle so, dass inhaltlich ähnliche Eingaben kleine Distanzen (z. B. Kosinus-Distanz) aufweisen. Embeddings sind die Grundlage für semantische Suche, Retrieval in RAG-Systemen, Clustering und Empfehlungssysteme. Typische Dimensionen liegen zwischen 384 und 4096.
So nutzt Swiss Knowledge Hub diesen Begriff
Swiss Knowledge Hub erzeugt für jeden Chunk ein Embedding und speichert es im konfigurierten Vector Store (LanceDB, Pinecone oder ChromaDB). Bei einer Abfrage wird die Frage ebenfalls eingebettet, und die semantisch nächsten Chunks werden als Kontext an das Sprachmodell übergeben.
Verwandte Begriffe
Quellen
- Wikipedia: Word embedding — https://en.wikipedia.org/wiki/Word_embedding
Stand: