pythontokenizer是什么_python.pdf
PyTokenizer是Python源代码中的词法分析器,负责将源程序分解成Token。以下是PyTokenizer的知识点总结: 1. PyTokenizer的定义:PyTokenizer是一种词法分析器,负责将源程序分解成Token。它是Python源代码中的一个重要组件。 2. 工作流程:PyTokenizer的工作流程可以分为五个步骤:词法分析、语法分析、语义分析、目标代码生成和执行。 3. 词法分析:词法分析是PyTokenizer的主要功能,将源程序的字符分解成Token。例如,sum=0可以分解成三个Token,'sum', '=', '0'。 4. Whitespace处理:Whitespace在PyTokenizer中通常被忽略,但是Tab/Space需要用来分析程序的缩进。 5. 实现机制:PyTokenizer的实现机制是在Parser目录下的tokenizer.h和tokenizer.cpp中。 6. 函数定义:PyTokenizer提供了四个函数:PyTokenizer_FromString、PyTokenizer_FromFile、PyTokenizer_Free和PyTokenizer_Get。这些函数以PyTokenizer开头,都是PyTokenizer的成员函数。 7. PyTokenizer对象:PyTokenizer对象内部状态储存在tok_state之中,tok_state等价于PyTokenizer这个class本身的状态。 8. tok_state结构体:tok_state结构体中定义了多个字段,例如buf、cur、inp、end、start等,这些字段直接决定了缓冲区的内容。 9. 缓冲区处理:PyTokenizer以行为单位进行处理,每一行的内容存储在从buf到inp之间,包括\n。PyTokenizer会直接从缓冲区中取下一个字符,一旦到达inp所指向的位置,就会准备取下一行。 10. 模式支持:PyTokenizer支持三种模式:字符串、交互和文件。PyTokenizer_FromString和PyTokenizer_FromFile是PyTokenizer的构造函数,可以根据不同的模式调用不同的函数。
剩余12页未读,继续阅读
- 粉丝: 1
- 资源: 41
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助