Konstrukte:Generalisierungen:Eigenschaften:Hinreichende Bedingungen:Involvierte Definitionen:Veranstaltung: IRReferenz: @wagenpfeil2024 (KE2, p. 6)
⠀
Definition: Term (Tokenization)
Als Term bezeichnen wir gewissermaßen normalisierte Tokens. Eine Strategie zur Normalisierung könnte bspw. das “kleinschreiben” des Wortes oder die Reduktion eines Wortes auf den
Singularsein.Bspw.
Romans→romanFriends→friend