mirror of
https://github.com/usememos/memos.git
synced 2025-06-05 22:09:59 +02:00
28
plugin/gomark/parser/tokenizer/tokenizer.go
Normal file
28
plugin/gomark/parser/tokenizer/tokenizer.go
Normal file
@ -0,0 +1,28 @@
|
||||
package tokenizer
|
||||
|
||||
func tokenize(text string) []*Token {
|
||||
tokens := []*Token{}
|
||||
for _, c := range text {
|
||||
switch c {
|
||||
case '_':
|
||||
tokens = append(tokens, NewToken(Underline, "_"))
|
||||
case '*':
|
||||
tokens = append(tokens, NewToken(Star, "*"))
|
||||
case '\n':
|
||||
tokens = append(tokens, NewToken(Newline, "\n"))
|
||||
case ' ':
|
||||
tokens = append(tokens, NewToken(Space, " "))
|
||||
default:
|
||||
var lastToken *Token
|
||||
if len(tokens) > 0 {
|
||||
lastToken = tokens[len(tokens)-1]
|
||||
}
|
||||
if lastToken == nil || lastToken.Type != Text {
|
||||
tokens = append(tokens, NewToken(Text, string(c)))
|
||||
} else {
|
||||
lastToken.Value += string(c)
|
||||
}
|
||||
}
|
||||
}
|
||||
return tokens
|
||||
}
|
Reference in New Issue
Block a user