mirror of https://github.com/usememos/memos
chore: implement list nodes
parent
a10b3d3821
commit
b00443c222
@ -0,0 +1,54 @@
|
|||||||
|
package parser
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
|
||||||
|
"github.com/usememos/memos/plugin/gomark/ast"
|
||||||
|
"github.com/usememos/memos/plugin/gomark/parser/tokenizer"
|
||||||
|
)
|
||||||
|
|
||||||
|
type OrderedListParser struct{}
|
||||||
|
|
||||||
|
func NewOrderedListParser() *OrderedListParser {
|
||||||
|
return &OrderedListParser{}
|
||||||
|
}
|
||||||
|
|
||||||
|
func (*OrderedListParser) Match(tokens []*tokenizer.Token) (int, bool) {
|
||||||
|
if len(tokens) < 4 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
if tokens[0].Type != tokenizer.Number || tokens[1].Type != tokenizer.Dot || tokens[2].Type != tokenizer.Space {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
contentTokens := []*tokenizer.Token{}
|
||||||
|
for _, token := range tokens[3:] {
|
||||||
|
contentTokens = append(contentTokens, token)
|
||||||
|
if token.Type == tokenizer.Newline {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
if len(contentTokens) == 0 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
return len(contentTokens) + 3, true
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p *OrderedListParser) Parse(tokens []*tokenizer.Token) (ast.Node, error) {
|
||||||
|
size, ok := p.Match(tokens)
|
||||||
|
if size == 0 || !ok {
|
||||||
|
return nil, errors.New("not matched")
|
||||||
|
}
|
||||||
|
|
||||||
|
contentTokens := tokens[3:size]
|
||||||
|
children, err := ParseInline(contentTokens)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
return &ast.OrderedList{
|
||||||
|
Number: tokens[0].Value,
|
||||||
|
Children: children,
|
||||||
|
}, nil
|
||||||
|
}
|
@ -0,0 +1,58 @@
|
|||||||
|
package parser
|
||||||
|
|
||||||
|
import (
|
||||||
|
"testing"
|
||||||
|
|
||||||
|
"github.com/stretchr/testify/require"
|
||||||
|
|
||||||
|
"github.com/usememos/memos/plugin/gomark/ast"
|
||||||
|
"github.com/usememos/memos/plugin/gomark/parser/tokenizer"
|
||||||
|
)
|
||||||
|
|
||||||
|
func TestOrderedListParser(t *testing.T) {
|
||||||
|
tests := []struct {
|
||||||
|
text string
|
||||||
|
node ast.Node
|
||||||
|
}{
|
||||||
|
{
|
||||||
|
text: "1.asd",
|
||||||
|
node: nil,
|
||||||
|
},
|
||||||
|
{
|
||||||
|
text: "1. Hello World",
|
||||||
|
node: &ast.OrderedList{
|
||||||
|
Number: "1",
|
||||||
|
Children: []ast.Node{
|
||||||
|
&ast.Text{
|
||||||
|
Content: "Hello World",
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
{
|
||||||
|
text: "1aa. Hello World",
|
||||||
|
node: nil,
|
||||||
|
},
|
||||||
|
{
|
||||||
|
text: "22. Hello *World*",
|
||||||
|
node: &ast.OrderedList{
|
||||||
|
Number: "22",
|
||||||
|
Children: []ast.Node{
|
||||||
|
&ast.Text{
|
||||||
|
Content: "Hello ",
|
||||||
|
},
|
||||||
|
&ast.Italic{
|
||||||
|
Symbol: "*",
|
||||||
|
Content: "World",
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, test := range tests {
|
||||||
|
tokens := tokenizer.Tokenize(test.text)
|
||||||
|
node, _ := NewOrderedListParser().Parse(tokens)
|
||||||
|
require.Equal(t, StringifyNodes([]ast.Node{test.node}), StringifyNodes([]ast.Node{node}))
|
||||||
|
}
|
||||||
|
}
|
@ -0,0 +1,55 @@
|
|||||||
|
package parser
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
|
||||||
|
"github.com/usememos/memos/plugin/gomark/ast"
|
||||||
|
"github.com/usememos/memos/plugin/gomark/parser/tokenizer"
|
||||||
|
)
|
||||||
|
|
||||||
|
type UnorderedListParser struct{}
|
||||||
|
|
||||||
|
func NewUnorderedListParser() *UnorderedListParser {
|
||||||
|
return &UnorderedListParser{}
|
||||||
|
}
|
||||||
|
|
||||||
|
func (*UnorderedListParser) Match(tokens []*tokenizer.Token) (int, bool) {
|
||||||
|
if len(tokens) < 3 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
symbolToken := tokens[0]
|
||||||
|
if (symbolToken.Type != tokenizer.Hyphen && symbolToken.Type != tokenizer.Asterisk && symbolToken.Type != tokenizer.PlusSign) || tokens[1].Type != tokenizer.Space {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
contentTokens := []*tokenizer.Token{}
|
||||||
|
for _, token := range tokens[2:] {
|
||||||
|
if token.Type == tokenizer.Newline {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
contentTokens = append(contentTokens, token)
|
||||||
|
}
|
||||||
|
if len(contentTokens) == 0 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
return len(contentTokens) + 2, true
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p *UnorderedListParser) Parse(tokens []*tokenizer.Token) (ast.Node, error) {
|
||||||
|
size, ok := p.Match(tokens)
|
||||||
|
if size == 0 || !ok {
|
||||||
|
return nil, errors.New("not matched")
|
||||||
|
}
|
||||||
|
|
||||||
|
symbolToken := tokens[0]
|
||||||
|
contentTokens := tokens[2:size]
|
||||||
|
children, err := ParseInline(contentTokens)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
return &ast.UnorderedList{
|
||||||
|
Symbol: symbolToken.Type,
|
||||||
|
Children: children,
|
||||||
|
}, nil
|
||||||
|
}
|
@ -0,0 +1,51 @@
|
|||||||
|
package parser
|
||||||
|
|
||||||
|
import (
|
||||||
|
"testing"
|
||||||
|
|
||||||
|
"github.com/stretchr/testify/require"
|
||||||
|
|
||||||
|
"github.com/usememos/memos/plugin/gomark/ast"
|
||||||
|
"github.com/usememos/memos/plugin/gomark/parser/tokenizer"
|
||||||
|
)
|
||||||
|
|
||||||
|
func TestUnorderedListParser(t *testing.T) {
|
||||||
|
tests := []struct {
|
||||||
|
text string
|
||||||
|
node ast.Node
|
||||||
|
}{
|
||||||
|
{
|
||||||
|
text: "*asd",
|
||||||
|
node: nil,
|
||||||
|
},
|
||||||
|
{
|
||||||
|
text: "+ Hello World",
|
||||||
|
node: &ast.UnorderedList{
|
||||||
|
Symbol: tokenizer.PlusSign,
|
||||||
|
Children: []ast.Node{
|
||||||
|
&ast.Text{
|
||||||
|
Content: "Hello World",
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
{
|
||||||
|
text: "* **Hello**",
|
||||||
|
node: &ast.UnorderedList{
|
||||||
|
Symbol: tokenizer.Asterisk,
|
||||||
|
Children: []ast.Node{
|
||||||
|
&ast.Bold{
|
||||||
|
Symbol: "*",
|
||||||
|
Content: "Hello",
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, test := range tests {
|
||||||
|
tokens := tokenizer.Tokenize(test.text)
|
||||||
|
node, _ := NewUnorderedListParser().Parse(tokens)
|
||||||
|
require.Equal(t, StringifyNodes([]ast.Node{test.node}), StringifyNodes([]ast.Node{node}))
|
||||||
|
}
|
||||||
|
}
|
Loading…
Reference in New Issue