# Go 言語で作るインタプリタ

# Lexical Analysis(字句解析)

https://en.wikipedia.org/wiki/Lexical_analysis (opens new window)

lexer, tokenizer 又は scanner などと呼ばれるものを使って、ソースコード等(sequence of characters)をトークン(sequence of tokens)に変換すること

別名、lexing 又は tokenization ともいう。

lex x = 5 + 5;

上記をトークンで表すと、例えば次のような形になる。

[
  LET,
  IDENTIFIER("X"),
  EQUAL_SIGN,
  INTEGER(5),
  PLUS_SIGN,
  INTEGER(5),
  SEMICOLON
]

# トークンの定義

出現が予想されるトークンを定義する。

package token

type TokenType string

type Token struct {
  Type    TokenType
  Literal string
}

const (
  ILLEGAL = "ILLEGAL" // 解析不能な字句
  EOF     = "EOF"

  // 識別子
  IDENT = "IDENT" // x, y など

  // リテラル
  INT = "INT" // 整数 1, 2, 3 など

  // 演算子
  ASSIGN = "="
  PLUS   = "+"

  // デリミタ
  COMMA     = ","
  SEMICOLON = ";"
  LPAREN    = "("
  RPAREN    = ")"
  LBRACE    = "{"
  RBRACE    = "}"

  // キーワード
  FUNCTION = "FUNCTION"
  LET      = "LET"
)

# Lexer(字句解析器)

ソース参照

# Parse(構文解析)

Lexer によって生成されたトークンを基に、何らかのデータ構造を構築する。

JSON.parse()も立派な構文解析器であり、プログラミング言語の構文解析器と基本的な作りは変わらない。

# データ構造

  • Syntax Tree(構文木)
  • Abstract Syntax Tree; AST(抽象構文木)

Syntax Tree から、セミコロンや改行といった補助的なものを取り除いたものが AST である。

# memo

  • 式 expression --- 値を生成する
  • 文 statement --- 値を生成しない