Was ist Word Embedding?
Ein Word Embedding ist ein Modell, dass trainiert ist, Worte so in einen Vektorraum einzubetten, dass ähnliche Worte ähnliche Vektor-Darstellungen bekommen. Die bekanntesten Vertreter für solche Modelle sind Word2Vec und Glove.