mirror of https://github.com/usememos/memos
feat: implement table parser
parent
70e6b2bb82
commit
aecffe3402
@ -0,0 +1,164 @@
|
||||
package parser
|
||||
|
||||
import (
|
||||
"errors"
|
||||
|
||||
"github.com/usememos/memos/plugin/gomark/ast"
|
||||
"github.com/usememos/memos/plugin/gomark/parser/tokenizer"
|
||||
)
|
||||
|
||||
type TableParser struct{}
|
||||
|
||||
func NewTableParser() *TableParser {
|
||||
return &TableParser{}
|
||||
}
|
||||
|
||||
func (*TableParser) Match(tokens []*tokenizer.Token) (int, bool) {
|
||||
headerTokens := []*tokenizer.Token{}
|
||||
for _, token := range tokens {
|
||||
if token.Type == tokenizer.Newline {
|
||||
break
|
||||
} else {
|
||||
headerTokens = append(headerTokens, token)
|
||||
}
|
||||
}
|
||||
if len(headerTokens) < 5 || len(tokens) < len(headerTokens)+3 {
|
||||
return 0, false
|
||||
}
|
||||
|
||||
alignTokens := []*tokenizer.Token{}
|
||||
for _, token := range tokens[len(headerTokens)+1:] {
|
||||
if token.Type == tokenizer.Newline {
|
||||
break
|
||||
} else {
|
||||
alignTokens = append(alignTokens, token)
|
||||
}
|
||||
}
|
||||
if len(alignTokens) < 5 || len(tokens) < len(headerTokens)+len(alignTokens)+3 {
|
||||
return 0, false
|
||||
}
|
||||
|
||||
rowTokens := []*tokenizer.Token{}
|
||||
for index, token := range tokens[len(headerTokens)+len(alignTokens)+2:] {
|
||||
temp := len(headerTokens) + len(alignTokens) + 2 + index
|
||||
if token.Type == tokenizer.Newline && temp != len(tokens)-1 && tokens[temp+1].Type != tokenizer.Pipe {
|
||||
break
|
||||
} else {
|
||||
rowTokens = append(rowTokens, token)
|
||||
}
|
||||
}
|
||||
if len(rowTokens) < 5 {
|
||||
return 0, false
|
||||
}
|
||||
|
||||
// Check header.
|
||||
if len(headerTokens) < 5 {
|
||||
return 0, false
|
||||
}
|
||||
headerCells, ok := matchTableCellTokens(headerTokens)
|
||||
if headerCells == 0 || !ok {
|
||||
return 0, false
|
||||
}
|
||||
|
||||
// Check align.
|
||||
if len(alignTokens) < 5 {
|
||||
return 0, false
|
||||
}
|
||||
alignCells, ok := matchTableCellTokens(alignTokens)
|
||||
if alignCells != headerCells || !ok {
|
||||
return 0, false
|
||||
}
|
||||
for _, t := range tokenizer.Split(alignTokens, tokenizer.Pipe) {
|
||||
delimiterTokens := t[1 : len(t)-1]
|
||||
if len(delimiterTokens) < 3 {
|
||||
return 0, false
|
||||
}
|
||||
for _, token := range delimiterTokens {
|
||||
if token.Type != tokenizer.Hyphen {
|
||||
return 0, false
|
||||
}
|
||||
}
|
||||
}
|
||||
|
||||
// Check rows.
|
||||
if len(rowTokens) < 5 {
|
||||
return 0, false
|
||||
}
|
||||
rows := tokenizer.Split(rowTokens, tokenizer.Newline)
|
||||
if len(rows) == 0 {
|
||||
return 0, false
|
||||
}
|
||||
for _, row := range rows {
|
||||
cells, ok := matchTableCellTokens(row)
|
||||
if cells != headerCells || !ok {
|
||||
return 0, false
|
||||
}
|
||||
}
|
||||
|
||||
return len(headerTokens) + len(alignTokens) + len(rowTokens) + 2, true
|
||||
}
|
||||
|
||||
func (p *TableParser) Parse(tokens []*tokenizer.Token) (ast.Node, error) {
|
||||
size, ok := p.Match(tokens)
|
||||
if size == 0 || !ok {
|
||||
return nil, errors.New("not matched")
|
||||
}
|
||||
|
||||
rawRows := tokenizer.Split(tokens[:size-1], tokenizer.Newline)
|
||||
headerTokens := rawRows[0]
|
||||
alignTokens := rawRows[1]
|
||||
rowTokens := rawRows[2:]
|
||||
header := make([]string, 0)
|
||||
delimiter := make([]int, 0)
|
||||
rows := make([][]string, 0)
|
||||
|
||||
for _, t := range tokenizer.Split(headerTokens, tokenizer.Pipe) {
|
||||
header = append(header, tokenizer.Stringify(t[1:len(t)-1]))
|
||||
}
|
||||
for _, t := range tokenizer.Split(alignTokens, tokenizer.Pipe) {
|
||||
delimiter = append(delimiter, len(t[1:len(t)-1]))
|
||||
}
|
||||
for _, row := range rowTokens {
|
||||
cells := make([]string, 0)
|
||||
for _, t := range tokenizer.Split(row, tokenizer.Pipe) {
|
||||
cells = append(cells, tokenizer.Stringify(t[1:len(t)-1]))
|
||||
}
|
||||
rows = append(rows, cells)
|
||||
}
|
||||
|
||||
return &ast.Table{
|
||||
Header: header,
|
||||
Delimiter: delimiter,
|
||||
Rows: rows,
|
||||
}, nil
|
||||
}
|
||||
|
||||
func matchTableCellTokens(tokens []*tokenizer.Token) (int, bool) {
|
||||
if len(tokens) == 0 {
|
||||
return 0, false
|
||||
}
|
||||
|
||||
pipes := 0
|
||||
for _, token := range tokens {
|
||||
if token.Type == tokenizer.Pipe {
|
||||
pipes++
|
||||
}
|
||||
}
|
||||
cells := tokenizer.Split(tokens, tokenizer.Pipe)
|
||||
if len(cells) != pipes-1 {
|
||||
return 0, false
|
||||
}
|
||||
for _, cellTokens := range cells {
|
||||
if len(cellTokens) == 0 {
|
||||
return 0, false
|
||||
}
|
||||
if cellTokens[0].Type != tokenizer.Space {
|
||||
return 0, false
|
||||
}
|
||||
if cellTokens[len(cellTokens)-1].Type != tokenizer.Space {
|
||||
return 0, false
|
||||
}
|
||||
}
|
||||
|
||||
return len(cells), true
|
||||
}
|
@ -0,0 +1,45 @@
|
||||
package parser
|
||||
|
||||
import (
|
||||
"testing"
|
||||
|
||||
"github.com/stretchr/testify/require"
|
||||
"github.com/usememos/memos/plugin/gomark/ast"
|
||||
"github.com/usememos/memos/plugin/gomark/parser/tokenizer"
|
||||
"github.com/usememos/memos/plugin/gomark/restore"
|
||||
)
|
||||
|
||||
func TestTableParser(t *testing.T) {
|
||||
tests := []struct {
|
||||
text string
|
||||
table ast.Node
|
||||
}{
|
||||
{
|
||||
text: "| header |\n| --- |\n| cell |\n",
|
||||
table: &ast.Table{
|
||||
Header: []string{"header"},
|
||||
Delimiter: []int{3},
|
||||
Rows: [][]string{
|
||||
{"cell"},
|
||||
},
|
||||
},
|
||||
},
|
||||
{
|
||||
text: "| header1 | header2 |\n| --- | ---- |\n| cell1 | cell2 |\n| cell3 | cell4 |",
|
||||
table: &ast.Table{
|
||||
Header: []string{"header1", "header2"},
|
||||
Delimiter: []int{3, 4},
|
||||
Rows: [][]string{
|
||||
{"cell1", "cell2"},
|
||||
{"cell3", "cell4"},
|
||||
},
|
||||
},
|
||||
},
|
||||
}
|
||||
|
||||
for _, test := range tests {
|
||||
tokens := tokenizer.Tokenize(test.text)
|
||||
node, _ := NewTableParser().Parse(tokens)
|
||||
require.Equal(t, restore.Restore([]ast.Node{test.table}), restore.Restore([]ast.Node{node}))
|
||||
}
|
||||
}
|
Loading…
Reference in New Issue