mirror of https://github.com/usememos/memos
feat: implement table parser
parent
70e6b2bb82
commit
aecffe3402
@ -0,0 +1,164 @@
|
|||||||
|
package parser
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
|
||||||
|
"github.com/usememos/memos/plugin/gomark/ast"
|
||||||
|
"github.com/usememos/memos/plugin/gomark/parser/tokenizer"
|
||||||
|
)
|
||||||
|
|
||||||
|
type TableParser struct{}
|
||||||
|
|
||||||
|
func NewTableParser() *TableParser {
|
||||||
|
return &TableParser{}
|
||||||
|
}
|
||||||
|
|
||||||
|
func (*TableParser) Match(tokens []*tokenizer.Token) (int, bool) {
|
||||||
|
headerTokens := []*tokenizer.Token{}
|
||||||
|
for _, token := range tokens {
|
||||||
|
if token.Type == tokenizer.Newline {
|
||||||
|
break
|
||||||
|
} else {
|
||||||
|
headerTokens = append(headerTokens, token)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if len(headerTokens) < 5 || len(tokens) < len(headerTokens)+3 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
alignTokens := []*tokenizer.Token{}
|
||||||
|
for _, token := range tokens[len(headerTokens)+1:] {
|
||||||
|
if token.Type == tokenizer.Newline {
|
||||||
|
break
|
||||||
|
} else {
|
||||||
|
alignTokens = append(alignTokens, token)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if len(alignTokens) < 5 || len(tokens) < len(headerTokens)+len(alignTokens)+3 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
rowTokens := []*tokenizer.Token{}
|
||||||
|
for index, token := range tokens[len(headerTokens)+len(alignTokens)+2:] {
|
||||||
|
temp := len(headerTokens) + len(alignTokens) + 2 + index
|
||||||
|
if token.Type == tokenizer.Newline && temp != len(tokens)-1 && tokens[temp+1].Type != tokenizer.Pipe {
|
||||||
|
break
|
||||||
|
} else {
|
||||||
|
rowTokens = append(rowTokens, token)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if len(rowTokens) < 5 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
// Check header.
|
||||||
|
if len(headerTokens) < 5 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
headerCells, ok := matchTableCellTokens(headerTokens)
|
||||||
|
if headerCells == 0 || !ok {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
// Check align.
|
||||||
|
if len(alignTokens) < 5 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
alignCells, ok := matchTableCellTokens(alignTokens)
|
||||||
|
if alignCells != headerCells || !ok {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
for _, t := range tokenizer.Split(alignTokens, tokenizer.Pipe) {
|
||||||
|
delimiterTokens := t[1 : len(t)-1]
|
||||||
|
if len(delimiterTokens) < 3 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
for _, token := range delimiterTokens {
|
||||||
|
if token.Type != tokenizer.Hyphen {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Check rows.
|
||||||
|
if len(rowTokens) < 5 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
rows := tokenizer.Split(rowTokens, tokenizer.Newline)
|
||||||
|
if len(rows) == 0 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
for _, row := range rows {
|
||||||
|
cells, ok := matchTableCellTokens(row)
|
||||||
|
if cells != headerCells || !ok {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return len(headerTokens) + len(alignTokens) + len(rowTokens) + 2, true
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p *TableParser) Parse(tokens []*tokenizer.Token) (ast.Node, error) {
|
||||||
|
size, ok := p.Match(tokens)
|
||||||
|
if size == 0 || !ok {
|
||||||
|
return nil, errors.New("not matched")
|
||||||
|
}
|
||||||
|
|
||||||
|
rawRows := tokenizer.Split(tokens[:size-1], tokenizer.Newline)
|
||||||
|
headerTokens := rawRows[0]
|
||||||
|
alignTokens := rawRows[1]
|
||||||
|
rowTokens := rawRows[2:]
|
||||||
|
header := make([]string, 0)
|
||||||
|
delimiter := make([]int, 0)
|
||||||
|
rows := make([][]string, 0)
|
||||||
|
|
||||||
|
for _, t := range tokenizer.Split(headerTokens, tokenizer.Pipe) {
|
||||||
|
header = append(header, tokenizer.Stringify(t[1:len(t)-1]))
|
||||||
|
}
|
||||||
|
for _, t := range tokenizer.Split(alignTokens, tokenizer.Pipe) {
|
||||||
|
delimiter = append(delimiter, len(t[1:len(t)-1]))
|
||||||
|
}
|
||||||
|
for _, row := range rowTokens {
|
||||||
|
cells := make([]string, 0)
|
||||||
|
for _, t := range tokenizer.Split(row, tokenizer.Pipe) {
|
||||||
|
cells = append(cells, tokenizer.Stringify(t[1:len(t)-1]))
|
||||||
|
}
|
||||||
|
rows = append(rows, cells)
|
||||||
|
}
|
||||||
|
|
||||||
|
return &ast.Table{
|
||||||
|
Header: header,
|
||||||
|
Delimiter: delimiter,
|
||||||
|
Rows: rows,
|
||||||
|
}, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func matchTableCellTokens(tokens []*tokenizer.Token) (int, bool) {
|
||||||
|
if len(tokens) == 0 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
|
||||||
|
pipes := 0
|
||||||
|
for _, token := range tokens {
|
||||||
|
if token.Type == tokenizer.Pipe {
|
||||||
|
pipes++
|
||||||
|
}
|
||||||
|
}
|
||||||
|
cells := tokenizer.Split(tokens, tokenizer.Pipe)
|
||||||
|
if len(cells) != pipes-1 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
for _, cellTokens := range cells {
|
||||||
|
if len(cellTokens) == 0 {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
if cellTokens[0].Type != tokenizer.Space {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
if cellTokens[len(cellTokens)-1].Type != tokenizer.Space {
|
||||||
|
return 0, false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return len(cells), true
|
||||||
|
}
|
@ -0,0 +1,45 @@
|
|||||||
|
package parser
|
||||||
|
|
||||||
|
import (
|
||||||
|
"testing"
|
||||||
|
|
||||||
|
"github.com/stretchr/testify/require"
|
||||||
|
"github.com/usememos/memos/plugin/gomark/ast"
|
||||||
|
"github.com/usememos/memos/plugin/gomark/parser/tokenizer"
|
||||||
|
"github.com/usememos/memos/plugin/gomark/restore"
|
||||||
|
)
|
||||||
|
|
||||||
|
func TestTableParser(t *testing.T) {
|
||||||
|
tests := []struct {
|
||||||
|
text string
|
||||||
|
table ast.Node
|
||||||
|
}{
|
||||||
|
{
|
||||||
|
text: "| header |\n| --- |\n| cell |\n",
|
||||||
|
table: &ast.Table{
|
||||||
|
Header: []string{"header"},
|
||||||
|
Delimiter: []int{3},
|
||||||
|
Rows: [][]string{
|
||||||
|
{"cell"},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
{
|
||||||
|
text: "| header1 | header2 |\n| --- | ---- |\n| cell1 | cell2 |\n| cell3 | cell4 |",
|
||||||
|
table: &ast.Table{
|
||||||
|
Header: []string{"header1", "header2"},
|
||||||
|
Delimiter: []int{3, 4},
|
||||||
|
Rows: [][]string{
|
||||||
|
{"cell1", "cell2"},
|
||||||
|
{"cell3", "cell4"},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, test := range tests {
|
||||||
|
tokens := tokenizer.Tokenize(test.text)
|
||||||
|
node, _ := NewTableParser().Parse(tokens)
|
||||||
|
require.Equal(t, restore.Restore([]ast.Node{test.table}), restore.Restore([]ast.Node{node}))
|
||||||
|
}
|
||||||
|
}
|
Loading…
Reference in New Issue