python - 为类 Markdown 语言实现解析器

标签 python parsing grammar markup ebnf

我有类似于 markdown 和 SO 使用的标记语言。

旧版解析器基于正则表达式,维护起来简直就是噩梦,所以我提出了自己的基于 EBNF 语法的解决方案,并通过 mxTextTools/SimpleParse 实现。

但是,某些可能相互包含的 token 存在问题,我没有看到“正确”的方法。

这是我的语法的一部分:

newline          := "\r\n"/"\n"/"\r"
indent           := ("\r\n"/"\n"/"\r"), [ \t]
number           := [0-9]+
whitespace       := [ \t]+
symbol_mark      := [*_>#`%]
symbol_mark_noa  := [_>#`%]
symbol_mark_nou  := [*>#`%]
symbol_mark_nop  := [*_>#`]
punctuation      := [\(\)\,\.\!\?]
noaccent_code    := -(newline / '`')+
accent_code      := -(newline / '``')+
symbol           := -(whitespace / newline)
text             := -newline+
safe_text        := -(newline / whitespace / [*_>#`] / '%%' / punctuation)+/whitespace
link             := 'http' / 'ftp', 's'?, '://', (-[ \t\r\n<>`^'"*\,\.\!\?]/([,\.\?],?-[ \t\r\n<>`^'"*]))+
strikedout       := -[ \t\r\n*_>#`^]+
ctrlw            := '^W'+
ctrlh            := '^H'+
strikeout        := (strikedout, (whitespace, strikedout)*, ctrlw) / (strikedout, ctrlh)
strong           := ('**', (inline_nostrong/symbol), (inline_safe_nostrong/symbol_mark_noa)* , '**') / ('__' , (inline_nostrong/symbol), (inline_safe_nostrong/symbol_mark_nou)*, '__')
emphasis              := ('*',?-'*', (inline_noast/symbol), (inline_safe_noast/symbol_mark_noa)*, '*') / ('_',?-'_', (inline_nound/symbol), (inline_safe_nound/symbol_mark_nou)*, '_')
inline_code           := ('`' , noaccent_code , '`') / ('``' , accent_code , '``')
inline_spoiler        := ('%%', (inline_nospoiler/symbol), (inline_safe_nop/symbol_mark_nop)*, '%%')
inline                := (inline_code / inline_spoiler / strikeout / strong / emphasis / link)
inline_nostrong       := (?-('**'/'__'),(inline_code / reference / signature / inline_spoiler / strikeout / emphasis / link))
inline_nospoiler       := (?-'%%',(inline_code / emphasis / strikeout / emphasis / link))
inline_noast          := (?-'*',(inline_code / inline_spoiler / strikeout / strong / link))
inline_nound          := (?-'_',(inline_code / inline_spoiler / strikeout / strong / link))
inline_safe           := (inline_code / inline_spoiler / strikeout / strong / emphasis / link / safe_text / punctuation)+
inline_safe_nostrong  := (?-('**'/'__'),(inline_code / inline_spoiler / strikeout / emphasis / link / safe_text / punctuation))+
inline_safe_noast     := (?-'*',(inline_code / inline_spoiler / strikeout / strong / link / safe_text / punctuation))+
inline_safe_nound     := (?-'_',(inline_code / inline_spoiler / strikeout / strong / link / safe_text / punctuation))+
inline_safe_nop        := (?-'%%',(inline_code / emphasis / strikeout / strong / link / safe_text / punctuation))+
inline_full           := (inline_code / inline_spoiler / strikeout / strong / emphasis / link / safe_text / punctuation / symbol_mark / text)+
line                  := newline, ?-[ \t], inline_full?
sub_cite              := whitespace?, ?-reference, '>'
cite                  := newline, whitespace?, '>', sub_cite*, inline_full?
code                  := newline, [ \t], [ \t], [ \t], [ \t], text
block_cite            := cite+
block_code            := code+
all                   := (block_cite / block_code / line / code)+

第一个问题是,剧透、强壮和强调可以以任意顺序相互包含。以后我可能需要更多这样的内联标记。

我目前的解决方案只涉及为每个组合(inline_noast、inline_nostrong 等)创建单独的标记,但显然,随着标记元素数量的增加,此类组合的数量增长太快。

第二个问题是,在一些像 __._.__*__.__...____._.____.__**____** *(大量随机放置的标记符号)。解析几 kb 的此类随机文本需要几分钟。

是我的语法有问题还是我应该使用其他类型的解析器来完成这项任务?

最佳答案

如果一个事物包含另一个事物,那么通常您将它们视为单独的标记,然后将它们嵌套在语法中。 Lepl(我写的 http://www.acooke.org/lepl)和 PyParsing(这可能是最流行的纯 Python 解析器)都允许您递归嵌套。

所以在 Lepl 中你可以编写如下代码:

# these are tokens (defined as regexps)
stg_marker = Token(r'\*\*')
emp_marker = Token(r'\*') # tokens are longest match, so strong is preferred if possible
spo_marker = Token(r'%%')
....
# grammar rules combine tokens
contents = Delayed() # this will be defined later and lets us recurse
strong = stg_marker + contents + stg_marker
emphasis = emp_marker + contents + emp_marker
spoiler = spo_marker + contents + spo_marker
other_stuff = .....
contents += strong | emphasis | spoiler | other_stuff # this defines contents recursively

我希望你能看到内容如何匹配强、强调等的嵌套使用。

最终解决方案要做的远不止这些,效率可能是任何纯 Python 解析器中的一个问题(有些解析器是用 C 实现的,但可以从 Python 调用。这些会更快,但可能使用起来比较棘手;我不能推荐任何一种,因为我没有使用过它们)。

关于python - 为类 Markdown 语言实现解析器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3535706/

相关文章:

python - 在pip安装elasticsearch之后修改config/elasticsearch.yml

c - 是否有 sscanf 的变体,它带有指向输入字符串而不是缓冲区的指针?

java - Jsoup获取标签的值(value)

grammar - 如何将 Grammar::Tracer 与单元范围语法一起使用?

c++ - C++ 语法演化是如何管理的?

python - 添加语法导致语音识别失败

python - 从 NumPy ndarray 中选择行

Python Tkinter 布局管理

python - 我可以在 RPM 中省略 .pyo 和 .pyc 文件吗?

python - Python中的Perl兼容正则表达式(PCRE)