Compare commits
20 Commits
1f505e484d
...
b0ad0a0768
| Author | SHA1 | Date | |
|---|---|---|---|
|
|
b0ad0a0768 | ||
|
|
ccf8f41544 | ||
|
|
6da00dd3c8 | ||
|
|
d4cb86b50b | ||
|
|
c7d4db8528 | ||
|
|
de0d43a1d6 | ||
|
|
4d718ef12b | ||
|
|
4b57728072 | ||
|
|
2c0723b8a3 | ||
|
|
c6e5c44755 | ||
|
|
1d2c85b19c | ||
|
|
52e100cab3 | ||
|
|
5010a9584c | ||
|
|
4b6f6a127f | ||
|
|
38eaed490c | ||
|
|
16cb47ddcc | ||
|
|
a5b2802c0c | ||
|
|
1b80a159c5 | ||
|
|
109c7ff9f6 | ||
| 49919e9f85 |
|
|
@ -1,7 +1,7 @@
|
||||||
#!/usr/bin/env bun
|
#!/usr/bin/env bun
|
||||||
|
|
||||||
import { colors, globals as prelude } from '../src/prelude'
|
import { colors, globals as prelude } from '../src/prelude'
|
||||||
import { treeToString } from '../src/utils/tree'
|
import { treeToString2 } from '../src/utils/tree'
|
||||||
import { runCode, runFile, compileFile, parseCode } from '../src'
|
import { runCode, runFile, compileFile, parseCode } from '../src'
|
||||||
import { resolve } from 'path'
|
import { resolve } from 'path'
|
||||||
import { bytecodeToString } from 'reefvm'
|
import { bytecodeToString } from 'reefvm'
|
||||||
|
|
@ -143,7 +143,7 @@ async function main() {
|
||||||
process.exit(1)
|
process.exit(1)
|
||||||
}
|
}
|
||||||
const input = readFileSync(file, 'utf-8')
|
const input = readFileSync(file, 'utf-8')
|
||||||
console.log(treeToString(parseCode(input), input))
|
console.log(treeToString2(parseCode(input), input))
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
|
||||||
|
|
@ -1,9 +1,10 @@
|
||||||
import { CompilerError } from '#compiler/compilerError.ts'
|
import { CompilerError } from '#compiler/compilerError.ts'
|
||||||
|
import { parse } from '#parser/parser2'
|
||||||
|
import { SyntaxNode, Tree } from '#parser/node'
|
||||||
import { parser } from '#parser/shrimp.ts'
|
import { parser } from '#parser/shrimp.ts'
|
||||||
import * as terms from '#parser/shrimp.terms'
|
import * as terms from '#parser/shrimp.terms'
|
||||||
import { setGlobals } from '#parser/tokenizer'
|
import { setGlobals } from '#parser/tokenizer'
|
||||||
import { tokenizeCurlyString } from '#parser/curlyTokenizer'
|
import { tokenizeCurlyString } from '#parser/curlyTokenizer'
|
||||||
import type { SyntaxNode, Tree } from '@lezer/common'
|
|
||||||
import { assert, errorMessage } from '#utils/utils'
|
import { assert, errorMessage } from '#utils/utils'
|
||||||
import { toBytecode, type Bytecode, type ProgramItem, bytecodeToString } from 'reefvm'
|
import { toBytecode, type Bytecode, type ProgramItem, bytecodeToString } from 'reefvm'
|
||||||
import {
|
import {
|
||||||
|
|
@ -63,13 +64,14 @@ export class Compiler {
|
||||||
constructor(public input: string, globals?: string[] | Record<string, any>) {
|
constructor(public input: string, globals?: string[] | Record<string, any>) {
|
||||||
try {
|
try {
|
||||||
if (globals) setGlobals(Array.isArray(globals) ? globals : Object.keys(globals))
|
if (globals) setGlobals(Array.isArray(globals) ? globals : Object.keys(globals))
|
||||||
const cst = parser.parse(input)
|
const ast = parse(input)
|
||||||
const errors = checkTreeForErrors(cst)
|
const cst = new Tree(ast)
|
||||||
|
// const errors = checkTreeForErrors(cst)
|
||||||
|
|
||||||
const firstError = errors[0]
|
// const firstError = errors[0]
|
||||||
if (firstError) {
|
// if (firstError) {
|
||||||
throw firstError
|
// throw firstError
|
||||||
}
|
// }
|
||||||
|
|
||||||
this.#compileCst(cst, input)
|
this.#compileCst(cst, input)
|
||||||
this.bytecode = toBytecode(this.instructions)
|
this.bytecode = toBytecode(this.instructions)
|
||||||
|
|
|
||||||
|
|
@ -23,15 +23,15 @@ describe('multi line function blocks', () => {
|
||||||
test('work with no args', () => {
|
test('work with no args', () => {
|
||||||
expect(`
|
expect(`
|
||||||
trap = do x: x end
|
trap = do x: x end
|
||||||
trap:
|
trap:
|
||||||
true
|
true
|
||||||
end`).toEvaluateTo(true)
|
end`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('work with one arg', () => {
|
test('work with one arg', () => {
|
||||||
expect(`
|
expect(`
|
||||||
trap = do x y: [ x (y) ] end
|
trap = do x y: [ x (y) ] end
|
||||||
trap EXIT:
|
trap EXIT:
|
||||||
true
|
true
|
||||||
end`).toEvaluateTo(['EXIT', true])
|
end`).toEvaluateTo(['EXIT', true])
|
||||||
})
|
})
|
||||||
|
|
@ -39,7 +39,7 @@ end`).toEvaluateTo(['EXIT', true])
|
||||||
test('work with named args', () => {
|
test('work with named args', () => {
|
||||||
expect(`
|
expect(`
|
||||||
attach = do signal fn: [ signal (fn) ] end
|
attach = do signal fn: [ signal (fn) ] end
|
||||||
attach signal='exit':
|
attach signal='exit':
|
||||||
true
|
true
|
||||||
end`).toEvaluateTo(['exit', true])
|
end`).toEvaluateTo(['exit', true])
|
||||||
})
|
})
|
||||||
|
|
@ -48,8 +48,8 @@ end`).toEvaluateTo(['exit', true])
|
||||||
test('work with dot-get', () => {
|
test('work with dot-get', () => {
|
||||||
expect(`
|
expect(`
|
||||||
signals = [trap=do x y: [x (y)] end]
|
signals = [trap=do x y: [x (y)] end]
|
||||||
signals.trap 'EXIT':
|
signals.trap 'EXIT':
|
||||||
true
|
true
|
||||||
end`).toEvaluateTo(['EXIT', true])
|
end`).toEvaluateTo(['EXIT', true])
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
|
||||||
|
|
@ -1,16 +1,17 @@
|
||||||
import { CompilerError } from '#compiler/compilerError.ts'
|
import { CompilerError } from '#compiler/compilerError.ts'
|
||||||
import * as terms from '#parser/shrimp.terms'
|
import * as terms from '#parser/shrimp.terms'
|
||||||
import type { SyntaxNode, Tree } from '@lezer/common'
|
import type { SyntaxNode, Tree } from '#parser/node'
|
||||||
|
|
||||||
export const checkTreeForErrors = (tree: Tree): CompilerError[] => {
|
export const checkTreeForErrors = (tree: Tree): CompilerError[] => {
|
||||||
const errors: CompilerError[] = []
|
const errors: CompilerError[] = []
|
||||||
tree.iterate({
|
|
||||||
enter: (node) => {
|
// tree.iterate({
|
||||||
if (node.type.isError) {
|
// enter: (node) => {
|
||||||
errors.push(new CompilerError(`Unexpected syntax.`, node.from, node.to))
|
// if (node.type.isError) {
|
||||||
}
|
// errors.push(new CompilerError(`Unexpected syntax.`, node.from, node.to))
|
||||||
},
|
// }
|
||||||
})
|
// },
|
||||||
|
// })
|
||||||
|
|
||||||
return errors
|
return errors
|
||||||
}
|
}
|
||||||
|
|
|
||||||
14
src/index.ts
14
src/index.ts
|
|
@ -1,15 +1,15 @@
|
||||||
import { readFileSync } from 'fs'
|
import { readFileSync } from 'fs'
|
||||||
import { VM, fromValue, toValue, isValue, type Bytecode } from 'reefvm'
|
import { VM, fromValue, toValue, isValue, type Bytecode } from 'reefvm'
|
||||||
import { type Tree } from '@lezer/common'
|
|
||||||
import { Compiler } from '#compiler/compiler'
|
import { Compiler } from '#compiler/compiler'
|
||||||
import { parser } from '#parser/shrimp'
|
import { parse } from '#parser/parser2'
|
||||||
|
import { type SyntaxNode, Tree } from '#parser/node'
|
||||||
import { globals as parserGlobals, setGlobals as setParserGlobals } from '#parser/tokenizer'
|
import { globals as parserGlobals, setGlobals as setParserGlobals } from '#parser/tokenizer'
|
||||||
import { globals as prelude } from '#prelude'
|
import { globals as prelude } from '#prelude'
|
||||||
|
|
||||||
export { Compiler } from '#compiler/compiler'
|
export { Compiler } from '#compiler/compiler'
|
||||||
export { parser } from '#parser/shrimp'
|
export { parse } from '#parser/parser2'
|
||||||
|
export { type SyntaxNode, Tree } from '#parser/node'
|
||||||
export { globals as prelude } from '#prelude'
|
export { globals as prelude } from '#prelude'
|
||||||
export type { Tree } from '@lezer/common'
|
|
||||||
export { type Value, type Bytecode } from 'reefvm'
|
export { type Value, type Bytecode } from 'reefvm'
|
||||||
export { toValue, fromValue, isValue, Scope, VM, bytecodeToString } from 'reefvm'
|
export { toValue, fromValue, isValue, Scope, VM, bytecodeToString } from 'reefvm'
|
||||||
|
|
||||||
|
|
@ -41,7 +41,7 @@ export class Shrimp {
|
||||||
return isValue(result) ? fromValue(result, this.vm) : result
|
return isValue(result) ? fromValue(result, this.vm) : result
|
||||||
}
|
}
|
||||||
|
|
||||||
parse(code: string): Tree {
|
parse(code: string): SyntaxNode {
|
||||||
return parseCode(code, this.globals)
|
return parseCode(code, this.globals)
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
@ -105,8 +105,8 @@ export function parseCode(code: string, globals?: Record<string, any>): Tree {
|
||||||
const globalNames = [...Object.keys(prelude), ...(globals ? Object.keys(globals) : [])]
|
const globalNames = [...Object.keys(prelude), ...(globals ? Object.keys(globals) : [])]
|
||||||
|
|
||||||
setParserGlobals(globalNames)
|
setParserGlobals(globalNames)
|
||||||
const result = parser.parse(code)
|
const result = parse(code)
|
||||||
setParserGlobals(oldGlobals)
|
setParserGlobals(oldGlobals)
|
||||||
|
|
||||||
return result
|
return new Tree(result)
|
||||||
}
|
}
|
||||||
|
|
@ -1,5 +1,6 @@
|
||||||
import { parser } from '#parser/shrimp.ts'
|
import { parser } from '#parser/shrimp.ts'
|
||||||
import type { SyntaxNode } from '@lezer/common'
|
import { parse } from '#parser/parser2'
|
||||||
|
import type { SyntaxNode } from '#parser/node'
|
||||||
import { isIdentStart, isIdentChar } from './tokenizer'
|
import { isIdentStart, isIdentChar } from './tokenizer'
|
||||||
|
|
||||||
// Turns a { curly string } into strings and nodes for interpolation
|
// Turns a { curly string } into strings and nodes for interpolation
|
||||||
|
|
@ -37,7 +38,7 @@ export const tokenizeCurlyString = (value: string): (string | [string, SyntaxNod
|
||||||
}
|
}
|
||||||
|
|
||||||
const input = value.slice(start + 2, pos) // skip '$('
|
const input = value.slice(start + 2, pos) // skip '$('
|
||||||
tokens.push([input, parser.parse(input).topNode])
|
tokens.push([input, parse(input)])
|
||||||
start = ++pos // skip ')'
|
start = ++pos // skip ')'
|
||||||
} else {
|
} else {
|
||||||
char = value[++pos]
|
char = value[++pos]
|
||||||
|
|
@ -48,7 +49,7 @@ export const tokenizeCurlyString = (value: string): (string | [string, SyntaxNod
|
||||||
char = value[++pos]
|
char = value[++pos]
|
||||||
|
|
||||||
const input = value.slice(start + 1, pos) // skip '$'
|
const input = value.slice(start + 1, pos) // skip '$'
|
||||||
tokens.push([input, parser.parse(input).topNode])
|
tokens.push([input, parse(input)])
|
||||||
start = pos-- // backtrack and start over
|
start = pos-- // backtrack and start over
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
|
||||||
425
src/parser/node.ts
Normal file
425
src/parser/node.ts
Normal file
|
|
@ -0,0 +1,425 @@
|
||||||
|
import { type Token, TokenType } from './tokenizer2'
|
||||||
|
import * as term from './shrimp.terms'
|
||||||
|
|
||||||
|
export type NodeType =
|
||||||
|
| 'Program'
|
||||||
|
| 'Block'
|
||||||
|
|
||||||
|
| 'FunctionCall'
|
||||||
|
| 'FunctionCallOrIdentifier'
|
||||||
|
| 'FunctionCallWithBlock'
|
||||||
|
| 'PositionalArg'
|
||||||
|
| 'NamedArg'
|
||||||
|
|
||||||
|
| 'FunctionDef'
|
||||||
|
| 'Params'
|
||||||
|
| 'NamedParam'
|
||||||
|
|
||||||
|
| 'Null'
|
||||||
|
| 'Boolean'
|
||||||
|
| 'Number'
|
||||||
|
| 'String'
|
||||||
|
| 'StringFragment'
|
||||||
|
| 'CurlyString'
|
||||||
|
| 'DoubleQuote'
|
||||||
|
| 'EscapeSeq'
|
||||||
|
| 'Interpolation'
|
||||||
|
| 'Regex'
|
||||||
|
| 'Identifier'
|
||||||
|
| 'AssignableIdentifier'
|
||||||
|
| 'IdentifierBeforeDot'
|
||||||
|
| 'Word'
|
||||||
|
| 'Array'
|
||||||
|
| 'Dict'
|
||||||
|
| 'Comment'
|
||||||
|
|
||||||
|
| 'BinOp'
|
||||||
|
| 'ConditionalOp'
|
||||||
|
| 'ParenExpr'
|
||||||
|
| 'Assign'
|
||||||
|
| 'CompoundAssign'
|
||||||
|
| 'DotGet'
|
||||||
|
| 'PipeExpr'
|
||||||
|
|
||||||
|
| 'IfExpr'
|
||||||
|
| 'ElseIfExpr'
|
||||||
|
| 'ElseExpr'
|
||||||
|
| 'WhileExpr'
|
||||||
|
| 'TryExpr'
|
||||||
|
| 'CatchExpr'
|
||||||
|
| 'FinallyExpr'
|
||||||
|
| 'Throw'
|
||||||
|
|
||||||
|
| 'Eq'
|
||||||
|
| 'Modulo'
|
||||||
|
| 'Plus'
|
||||||
|
| 'Star'
|
||||||
|
| 'Slash'
|
||||||
|
|
||||||
|
| 'Import'
|
||||||
|
| 'Do'
|
||||||
|
| 'Underscore'
|
||||||
|
| 'colon'
|
||||||
|
| 'keyword'
|
||||||
|
| 'operator'
|
||||||
|
|
||||||
|
// TODO: remove this when we switch from lezer
|
||||||
|
export const operators: Record<string, any> = {
|
||||||
|
// Logic
|
||||||
|
'and': 'And',
|
||||||
|
'or': 'Or',
|
||||||
|
|
||||||
|
// Bitwise
|
||||||
|
'band': 'Band',
|
||||||
|
'bor': 'Bor',
|
||||||
|
'bxor': 'Bxor',
|
||||||
|
'>>>': 'Ushr',
|
||||||
|
'>>': 'Shr',
|
||||||
|
'<<': 'Shl',
|
||||||
|
|
||||||
|
// Comparison
|
||||||
|
'>=': 'Gte',
|
||||||
|
'<=': 'Lte',
|
||||||
|
'>': 'Gt',
|
||||||
|
'<': 'Lt',
|
||||||
|
'!=': 'Neq',
|
||||||
|
'==': 'EqEq',
|
||||||
|
|
||||||
|
// Compound assignment operators
|
||||||
|
'??=': 'NullishEq',
|
||||||
|
'+=': 'PlusEq',
|
||||||
|
'-=': 'MinusEq',
|
||||||
|
'*=': 'StarEq',
|
||||||
|
'/=': 'SlashEq',
|
||||||
|
'%=': 'ModuloEq',
|
||||||
|
|
||||||
|
// Nullish coalescing
|
||||||
|
'??': 'NullishCoalesce',
|
||||||
|
|
||||||
|
// Math
|
||||||
|
'*': 'Star',
|
||||||
|
'**': 'StarStar',
|
||||||
|
'=': 'Eq',
|
||||||
|
'/': 'Slash',
|
||||||
|
'+': 'Plus',
|
||||||
|
'-': 'Minus',
|
||||||
|
'%': 'Modulo',
|
||||||
|
|
||||||
|
// Dotget
|
||||||
|
'.': 'Dot',
|
||||||
|
|
||||||
|
// Pipe
|
||||||
|
'|': 'operator',
|
||||||
|
}
|
||||||
|
|
||||||
|
export class Tree {
|
||||||
|
constructor(public topNode: SyntaxNode) { }
|
||||||
|
|
||||||
|
get length(): number {
|
||||||
|
return this.topNode.to
|
||||||
|
}
|
||||||
|
|
||||||
|
cursor() {
|
||||||
|
return {
|
||||||
|
type: this.topNode.type,
|
||||||
|
from: this.topNode.from,
|
||||||
|
to: this.topNode.to,
|
||||||
|
node: this.topNode,
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// TODO: TEMPORARY SHIM
|
||||||
|
class SyntaxNodeType {
|
||||||
|
constructor(public nodeType: NodeType) { }
|
||||||
|
|
||||||
|
is(other: string) {
|
||||||
|
return this.nodeType === other
|
||||||
|
}
|
||||||
|
|
||||||
|
get id(): number {
|
||||||
|
switch (this.nodeType) {
|
||||||
|
case 'Program':
|
||||||
|
return term.Program
|
||||||
|
|
||||||
|
case 'Block':
|
||||||
|
return term.Block
|
||||||
|
|
||||||
|
case 'FunctionCall':
|
||||||
|
return term.FunctionCall
|
||||||
|
|
||||||
|
case 'FunctionCallOrIdentifier':
|
||||||
|
return term.FunctionCallOrIdentifier
|
||||||
|
|
||||||
|
case 'FunctionCallWithBlock':
|
||||||
|
return term.FunctionCallWithBlock
|
||||||
|
|
||||||
|
case 'PositionalArg':
|
||||||
|
return term.PositionalArg
|
||||||
|
|
||||||
|
case 'NamedArg':
|
||||||
|
return term.NamedArg
|
||||||
|
|
||||||
|
case 'FunctionDef':
|
||||||
|
return term.FunctionDef
|
||||||
|
|
||||||
|
case 'Params':
|
||||||
|
return term.Params
|
||||||
|
|
||||||
|
case 'NamedParam':
|
||||||
|
return term.NamedParam
|
||||||
|
|
||||||
|
case 'Null':
|
||||||
|
return term.Null
|
||||||
|
|
||||||
|
case 'Boolean':
|
||||||
|
return term.Boolean
|
||||||
|
|
||||||
|
case 'Number':
|
||||||
|
return term.Number
|
||||||
|
|
||||||
|
case 'String':
|
||||||
|
return term.String
|
||||||
|
|
||||||
|
case 'StringFragment':
|
||||||
|
return term.StringFragment
|
||||||
|
|
||||||
|
case 'CurlyString':
|
||||||
|
return term.CurlyString
|
||||||
|
|
||||||
|
case 'DoubleQuote':
|
||||||
|
return term.DoubleQuote
|
||||||
|
|
||||||
|
case 'EscapeSeq':
|
||||||
|
return term.EscapeSeq
|
||||||
|
|
||||||
|
case 'Interpolation':
|
||||||
|
return term.Interpolation
|
||||||
|
|
||||||
|
case 'Regex':
|
||||||
|
return term.Regex
|
||||||
|
|
||||||
|
case 'Identifier':
|
||||||
|
return term.Identifier
|
||||||
|
|
||||||
|
case 'AssignableIdentifier':
|
||||||
|
return term.AssignableIdentifier
|
||||||
|
|
||||||
|
case 'IdentifierBeforeDot':
|
||||||
|
return term.IdentifierBeforeDot
|
||||||
|
|
||||||
|
case 'Word':
|
||||||
|
return term.Word
|
||||||
|
|
||||||
|
case 'Array':
|
||||||
|
return term.Array
|
||||||
|
|
||||||
|
case 'Dict':
|
||||||
|
return term.Dict
|
||||||
|
|
||||||
|
case 'Comment':
|
||||||
|
return term.Comment
|
||||||
|
|
||||||
|
case 'BinOp':
|
||||||
|
return term.BinOp
|
||||||
|
|
||||||
|
case 'ConditionalOp':
|
||||||
|
return term.ConditionalOp
|
||||||
|
|
||||||
|
case 'ParenExpr':
|
||||||
|
return term.ParenExpr
|
||||||
|
|
||||||
|
case 'Assign':
|
||||||
|
return term.Assign
|
||||||
|
|
||||||
|
case 'CompoundAssign':
|
||||||
|
return term.CompoundAssign
|
||||||
|
|
||||||
|
case 'DotGet':
|
||||||
|
return term.DotGet
|
||||||
|
|
||||||
|
case 'PipeExpr':
|
||||||
|
return term.PipeExpr
|
||||||
|
|
||||||
|
case 'IfExpr':
|
||||||
|
return term.IfExpr
|
||||||
|
|
||||||
|
case 'ElseIfExpr':
|
||||||
|
return term.ElseIfExpr
|
||||||
|
|
||||||
|
case 'ElseExpr':
|
||||||
|
return term.ElseExpr
|
||||||
|
|
||||||
|
case 'WhileExpr':
|
||||||
|
return term.WhileExpr
|
||||||
|
|
||||||
|
case 'TryExpr':
|
||||||
|
return term.TryExpr
|
||||||
|
|
||||||
|
case 'CatchExpr':
|
||||||
|
return term.CatchExpr
|
||||||
|
|
||||||
|
case 'FinallyExpr':
|
||||||
|
return term.FinallyExpr
|
||||||
|
|
||||||
|
case 'Throw':
|
||||||
|
return term.Throw
|
||||||
|
|
||||||
|
case 'Eq':
|
||||||
|
return term.Eq
|
||||||
|
|
||||||
|
case 'Modulo':
|
||||||
|
return term.Modulo
|
||||||
|
|
||||||
|
case 'Plus':
|
||||||
|
return term.Plus
|
||||||
|
|
||||||
|
case 'Star':
|
||||||
|
return term.Star
|
||||||
|
|
||||||
|
case 'Slash':
|
||||||
|
return term.Slash
|
||||||
|
|
||||||
|
case 'Import':
|
||||||
|
return term.Import
|
||||||
|
|
||||||
|
case 'Do':
|
||||||
|
return term.Do
|
||||||
|
|
||||||
|
case 'Underscore':
|
||||||
|
return term.Underscore
|
||||||
|
|
||||||
|
case 'colon':
|
||||||
|
return term.colon
|
||||||
|
|
||||||
|
case 'keyword':
|
||||||
|
return term.keyword
|
||||||
|
|
||||||
|
}
|
||||||
|
return 0
|
||||||
|
}
|
||||||
|
|
||||||
|
get name(): string {
|
||||||
|
return this.nodeType
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
export class SyntaxNode {
|
||||||
|
#type: NodeType
|
||||||
|
from: number
|
||||||
|
to: number
|
||||||
|
parent: SyntaxNode | null
|
||||||
|
children: SyntaxNode[] = []
|
||||||
|
|
||||||
|
constructor(type: NodeType, from: number, to: number, parent: SyntaxNode | null = null) {
|
||||||
|
this.#type = type
|
||||||
|
this.from = from
|
||||||
|
this.to = to
|
||||||
|
this.parent = parent
|
||||||
|
}
|
||||||
|
|
||||||
|
static from(token: Token, parent?: SyntaxNode): SyntaxNode {
|
||||||
|
return new SyntaxNode(TokenType[token.type] as NodeType, token.from, token.to, parent ?? null)
|
||||||
|
}
|
||||||
|
|
||||||
|
get type(): SyntaxNodeType {
|
||||||
|
return new SyntaxNodeType(this.#type)
|
||||||
|
}
|
||||||
|
|
||||||
|
set type(name: NodeType) {
|
||||||
|
this.#type = name
|
||||||
|
}
|
||||||
|
|
||||||
|
get name(): string {
|
||||||
|
return this.type.name
|
||||||
|
}
|
||||||
|
|
||||||
|
get isError(): boolean {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
|
||||||
|
get firstChild(): SyntaxNode | null {
|
||||||
|
return this.children[0] ?? null
|
||||||
|
}
|
||||||
|
|
||||||
|
get lastChild(): SyntaxNode | null {
|
||||||
|
return this.children.at(-1) ?? null
|
||||||
|
}
|
||||||
|
|
||||||
|
get nextSibling(): SyntaxNode | null {
|
||||||
|
if (!this.parent) return null
|
||||||
|
const siblings = this.parent.children
|
||||||
|
const index = siblings.indexOf(this)
|
||||||
|
return index >= 0 && index < siblings.length - 1 ? siblings[index + 1]! : null
|
||||||
|
}
|
||||||
|
|
||||||
|
get prevSibling(): SyntaxNode | null {
|
||||||
|
if (!this.parent) return null
|
||||||
|
const siblings = this.parent.children
|
||||||
|
const index = siblings.indexOf(this)
|
||||||
|
return index > 0 ? siblings[index - 1]! : null
|
||||||
|
}
|
||||||
|
|
||||||
|
add(node: SyntaxNode) {
|
||||||
|
node.parent = this
|
||||||
|
this.children.push(node)
|
||||||
|
}
|
||||||
|
|
||||||
|
push(...nodes: SyntaxNode[]): SyntaxNode {
|
||||||
|
nodes.forEach(child => child.parent = this)
|
||||||
|
this.children.push(...nodes)
|
||||||
|
return this
|
||||||
|
}
|
||||||
|
|
||||||
|
toString(): string {
|
||||||
|
return this.type.name
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Operator precedence (binding power) - higher = tighter binding
|
||||||
|
export const precedence: Record<string, number> = {
|
||||||
|
// Logical
|
||||||
|
'or': 10,
|
||||||
|
'and': 20,
|
||||||
|
|
||||||
|
// Comparison
|
||||||
|
'==': 30,
|
||||||
|
'!=': 30,
|
||||||
|
'<': 30,
|
||||||
|
'>': 30,
|
||||||
|
'<=': 30,
|
||||||
|
'>=': 30,
|
||||||
|
|
||||||
|
// Nullish coalescing
|
||||||
|
'??': 35,
|
||||||
|
|
||||||
|
// Bitwise shifts (lower precedence than addition)
|
||||||
|
'<<': 37,
|
||||||
|
'>>': 37,
|
||||||
|
'>>>': 37,
|
||||||
|
|
||||||
|
// Addition/Subtraction
|
||||||
|
'+': 40,
|
||||||
|
'-': 40,
|
||||||
|
|
||||||
|
// Bitwise AND/OR/XOR (higher precedence than addition)
|
||||||
|
'band': 45,
|
||||||
|
'bor': 45,
|
||||||
|
'bxor': 45,
|
||||||
|
|
||||||
|
// Multiplication/Division/Modulo
|
||||||
|
'*': 50,
|
||||||
|
'/': 50,
|
||||||
|
'%': 50,
|
||||||
|
|
||||||
|
// Exponentiation (right-associative)
|
||||||
|
'**': 60,
|
||||||
|
}
|
||||||
|
|
||||||
|
export const conditionals = new Set([
|
||||||
|
'==', '!=', '<', '>', '<=', '>=', '??', 'and', 'or'
|
||||||
|
])
|
||||||
|
|
||||||
|
export const compounds = [
|
||||||
|
'??=', '+=', '-=', '*=', '/=', '%='
|
||||||
|
]
|
||||||
930
src/parser/parser2.ts
Normal file
930
src/parser/parser2.ts
Normal file
|
|
@ -0,0 +1,930 @@
|
||||||
|
import { Scanner, type Token, TokenType } from './tokenizer2'
|
||||||
|
import { SyntaxNode, operators, precedence, conditionals, compounds } from './node'
|
||||||
|
import { globals } from './tokenizer'
|
||||||
|
import { parseString } from './stringParser'
|
||||||
|
|
||||||
|
const $T = TokenType
|
||||||
|
|
||||||
|
export const parse = (input: string): SyntaxNode => {
|
||||||
|
const parser = new Parser()
|
||||||
|
return parser.parse(input)
|
||||||
|
}
|
||||||
|
|
||||||
|
class Scope {
|
||||||
|
parent?: Scope
|
||||||
|
set = new Set<string>()
|
||||||
|
|
||||||
|
constructor(parent?: Scope) {
|
||||||
|
this.parent = parent
|
||||||
|
|
||||||
|
// no parent means this is global scope
|
||||||
|
if (!parent) for (const name of globals) this.add(name)
|
||||||
|
}
|
||||||
|
|
||||||
|
add(key: string) {
|
||||||
|
this.set.add(key)
|
||||||
|
}
|
||||||
|
|
||||||
|
has(key: string): boolean {
|
||||||
|
return this.set.has(key) || this.parent?.has(key) || false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
export class Parser {
|
||||||
|
tokens: Token[] = []
|
||||||
|
pos = 0
|
||||||
|
inParens = 0
|
||||||
|
input = ''
|
||||||
|
scope = new Scope
|
||||||
|
inTestExpr = false
|
||||||
|
|
||||||
|
parse(input: string): SyntaxNode {
|
||||||
|
const scanner = new Scanner()
|
||||||
|
this.tokens = scanner.tokenize(input)
|
||||||
|
this.pos = 0
|
||||||
|
this.input = input
|
||||||
|
this.scope = new Scope()
|
||||||
|
this.inTestExpr = false
|
||||||
|
|
||||||
|
const node = new SyntaxNode('Program', 0, input.length)
|
||||||
|
|
||||||
|
while (!this.isEOF()) {
|
||||||
|
if (this.is($T.Newline) || this.is($T.Semicolon)) {
|
||||||
|
this.next()
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
const prevPos = this.pos
|
||||||
|
const stmt = this.statement()
|
||||||
|
if (stmt) node.add(stmt)
|
||||||
|
|
||||||
|
if (this.pos === prevPos && !this.isEOF())
|
||||||
|
throw "parser didn't advance - you need to call next()\n\n ${this.input}\n"
|
||||||
|
}
|
||||||
|
|
||||||
|
return node
|
||||||
|
}
|
||||||
|
|
||||||
|
//
|
||||||
|
// parse foundation nodes - statements, expressions
|
||||||
|
//
|
||||||
|
|
||||||
|
// statement is a line of code
|
||||||
|
statement(): SyntaxNode | null {
|
||||||
|
if (this.is($T.Comment))
|
||||||
|
return this.comment()
|
||||||
|
|
||||||
|
while (this.is($T.Newline) || this.is($T.Semicolon))
|
||||||
|
this.next()
|
||||||
|
|
||||||
|
if (this.isEOF() || this.isExprEndKeyword())
|
||||||
|
return null
|
||||||
|
|
||||||
|
return this.expression()
|
||||||
|
}
|
||||||
|
|
||||||
|
// expressions can be found in four places:
|
||||||
|
// 1. line of code
|
||||||
|
// 2. right side of assignment
|
||||||
|
// 3. if/while conditions
|
||||||
|
// 4. inside (parens)
|
||||||
|
expression(allowPipe = true): SyntaxNode {
|
||||||
|
let expr
|
||||||
|
|
||||||
|
// x = value
|
||||||
|
if (this.is($T.Identifier) && (
|
||||||
|
this.nextIs($T.Operator, '=') || compounds.some(x => this.nextIs($T.Operator, x))
|
||||||
|
))
|
||||||
|
expr = this.assign()
|
||||||
|
|
||||||
|
// if, while, do, etc
|
||||||
|
else if (this.is($T.Keyword))
|
||||||
|
expr = this.keywords()
|
||||||
|
|
||||||
|
// dotget
|
||||||
|
else if (this.nextIs($T.Operator, '.'))
|
||||||
|
expr = this.dotGetFunctionCall()
|
||||||
|
|
||||||
|
// echo hello world
|
||||||
|
else if (this.is($T.Identifier) && !this.nextIs($T.Operator) && !this.nextIsExprEnd())
|
||||||
|
expr = this.functionCall()
|
||||||
|
|
||||||
|
// bare-function-call
|
||||||
|
else if (this.is($T.Identifier) && this.nextIsExprEnd())
|
||||||
|
expr = this.functionCallOrIdentifier()
|
||||||
|
|
||||||
|
// everything else
|
||||||
|
else
|
||||||
|
expr = this.exprWithPrecedence()
|
||||||
|
|
||||||
|
// check for destructuring
|
||||||
|
if (expr.type.is('Array') && this.is($T.Operator, '='))
|
||||||
|
return this.destructure(expr)
|
||||||
|
|
||||||
|
// check for parens function call
|
||||||
|
// ex: (ref my-func) my-arg
|
||||||
|
if (expr.type.is('ParenExpr') && !this.isExprEnd())
|
||||||
|
expr = this.functionCall(expr)
|
||||||
|
|
||||||
|
// if dotget is followed by binary operator, continue parsing as binary expression
|
||||||
|
if (expr.type.is('DotGet') && this.is($T.Operator) && !this.is($T.Operator, '|'))
|
||||||
|
expr = this.dotGetBinOp(expr)
|
||||||
|
|
||||||
|
// one | echo
|
||||||
|
if (allowPipe && this.isPipe())
|
||||||
|
return this.pipe(expr)
|
||||||
|
|
||||||
|
// regular
|
||||||
|
else
|
||||||
|
return expr
|
||||||
|
}
|
||||||
|
|
||||||
|
// piping | stuff | is | cool
|
||||||
|
pipe(left: SyntaxNode): SyntaxNode {
|
||||||
|
const canLookPastNewlines = this.inParens === 0
|
||||||
|
const parts: SyntaxNode[] = [left]
|
||||||
|
|
||||||
|
while (this.isPipe()) {
|
||||||
|
// consume newlines before pipe (only if not in parens)
|
||||||
|
if (canLookPastNewlines) {
|
||||||
|
while (this.is($T.Newline)) this.next()
|
||||||
|
}
|
||||||
|
|
||||||
|
const pipeOp = this.op('|')
|
||||||
|
pipeOp.type = 'operator'
|
||||||
|
parts.push(pipeOp)
|
||||||
|
|
||||||
|
// consume newlines after pipe (only if not in parens)
|
||||||
|
if (canLookPastNewlines) {
|
||||||
|
while (this.is($T.Newline)) this.next()
|
||||||
|
}
|
||||||
|
|
||||||
|
// parse right side - don't allow nested pipes
|
||||||
|
parts.push(this.expression(false))
|
||||||
|
}
|
||||||
|
|
||||||
|
const node = new SyntaxNode('PipeExpr', parts[0]!.from, parts.at(-1)!.to)
|
||||||
|
return node.push(...parts)
|
||||||
|
}
|
||||||
|
|
||||||
|
// Pratt parser - parses expressions with precedence climbing
|
||||||
|
// bp = binding precedence
|
||||||
|
exprWithPrecedence(minBp = 0): SyntaxNode {
|
||||||
|
let left = this.value()
|
||||||
|
|
||||||
|
// infix operators with precedence
|
||||||
|
while (this.is($T.Operator)) {
|
||||||
|
const op = this.current().value!
|
||||||
|
const bp = precedence[op]
|
||||||
|
|
||||||
|
// operator has lower precedence than required, stop
|
||||||
|
if (bp === undefined || bp < minBp) break
|
||||||
|
|
||||||
|
const opNode = this.op()
|
||||||
|
|
||||||
|
// right-associative operators (like **) use same bp, others use bp + 1
|
||||||
|
const nextMinBp = op === '**' ? bp : bp + 1
|
||||||
|
|
||||||
|
// parse right-hand side with higher precedence
|
||||||
|
const right = this.exprWithPrecedence(nextMinBp)
|
||||||
|
|
||||||
|
const nodeType = conditionals.has(op) ? 'ConditionalOp' : 'BinOp'
|
||||||
|
const node = new SyntaxNode(nodeType, left.from, right.to)
|
||||||
|
|
||||||
|
node.push(left, opNode, right)
|
||||||
|
left = node
|
||||||
|
}
|
||||||
|
|
||||||
|
return left
|
||||||
|
}
|
||||||
|
|
||||||
|
// if, while, do, etc
|
||||||
|
keywords(): SyntaxNode {
|
||||||
|
if (this.is($T.Keyword, 'if'))
|
||||||
|
return this.if()
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'while'))
|
||||||
|
return this.while()
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'do'))
|
||||||
|
return this.do()
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'try'))
|
||||||
|
return this.try()
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'throw'))
|
||||||
|
return this.throw()
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'import'))
|
||||||
|
return this.import()
|
||||||
|
|
||||||
|
return this.expect($T.Keyword, 'if/while/do/import') as never
|
||||||
|
}
|
||||||
|
|
||||||
|
// value can be an atom or a (parens that gets turned into an atom)
|
||||||
|
// values are used in a few places:
|
||||||
|
// 1. function arguments
|
||||||
|
// 2. array/dict members
|
||||||
|
// 3. binary operations
|
||||||
|
// 4. anywhere an expression can be used
|
||||||
|
value(): SyntaxNode {
|
||||||
|
if (this.is($T.OpenParen))
|
||||||
|
return this.parens()
|
||||||
|
|
||||||
|
if (this.is($T.OpenBracket))
|
||||||
|
return this.arrayOrDict()
|
||||||
|
|
||||||
|
// dotget
|
||||||
|
if (this.nextIs($T.Operator, '.'))
|
||||||
|
return this.dotGet()
|
||||||
|
|
||||||
|
return this.atom()
|
||||||
|
}
|
||||||
|
|
||||||
|
//
|
||||||
|
// parse specific nodes
|
||||||
|
//
|
||||||
|
|
||||||
|
// raw determines whether we just want the SyntaxNodes or we want to
|
||||||
|
// wrap them in a PositionalArg
|
||||||
|
arg(raw = false): SyntaxNode {
|
||||||
|
// 'do' is a special function arg - it doesn't need to be wrapped
|
||||||
|
// in parens. otherwise, args are regular value()s
|
||||||
|
const val = this.is($T.Keyword, 'do') ? this.do() : this.value()
|
||||||
|
|
||||||
|
if (raw) {
|
||||||
|
return val
|
||||||
|
} else {
|
||||||
|
const arg = new SyntaxNode('PositionalArg', val.from, val.to)
|
||||||
|
arg.add(val)
|
||||||
|
return arg
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// [ 1 2 3 ]
|
||||||
|
array(): SyntaxNode {
|
||||||
|
const open = this.expect($T.OpenBracket)
|
||||||
|
|
||||||
|
const values = []
|
||||||
|
while (!this.is($T.CloseBracket) && !this.isEOF()) {
|
||||||
|
if (this.is($T.Semicolon) || this.is($T.Newline)) {
|
||||||
|
this.next()
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
if (this.is($T.Comment)) {
|
||||||
|
values.push(this.comment())
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
values.push(this.value())
|
||||||
|
}
|
||||||
|
|
||||||
|
const close = this.expect($T.CloseBracket)
|
||||||
|
|
||||||
|
const node = new SyntaxNode('Array', open.from, close.to)
|
||||||
|
return node.push(...values)
|
||||||
|
}
|
||||||
|
|
||||||
|
// which are we dealing with? ignores leading newlines and comments
|
||||||
|
arrayOrDict(): SyntaxNode {
|
||||||
|
let peek = 1
|
||||||
|
let curr = this.peek(peek++)
|
||||||
|
let isDict = false
|
||||||
|
|
||||||
|
while (curr && curr.type !== $T.CloseBracket) {
|
||||||
|
// definitely a dict
|
||||||
|
if (curr.type === $T.NamedArgPrefix) {
|
||||||
|
isDict = true
|
||||||
|
break
|
||||||
|
}
|
||||||
|
|
||||||
|
// empty dict
|
||||||
|
if (curr.type === $T.Operator && curr.value === '=') {
|
||||||
|
isDict = true
|
||||||
|
break
|
||||||
|
}
|
||||||
|
|
||||||
|
// probably an array
|
||||||
|
if (curr.type !== $T.Comment && curr.type !== $T.Semicolon && curr.type !== $T.Newline)
|
||||||
|
break
|
||||||
|
|
||||||
|
curr = this.peek(peek++)
|
||||||
|
}
|
||||||
|
|
||||||
|
return isDict ? this.dict() : this.array()
|
||||||
|
}
|
||||||
|
|
||||||
|
// x = true
|
||||||
|
assign(): SyntaxNode {
|
||||||
|
const ident = this.assignableIdentifier()
|
||||||
|
const opToken = this.current()!
|
||||||
|
const op = this.op()
|
||||||
|
const expr = this.expression()
|
||||||
|
|
||||||
|
const node = new SyntaxNode(
|
||||||
|
opToken.value === '=' ? 'Assign' : 'CompoundAssign',
|
||||||
|
ident.from,
|
||||||
|
expr.to
|
||||||
|
)
|
||||||
|
|
||||||
|
return node.push(ident, op, expr)
|
||||||
|
}
|
||||||
|
|
||||||
|
// identifier used in assignment (TODO: legacy lezer quirk)
|
||||||
|
assignableIdentifier(): SyntaxNode {
|
||||||
|
const token = this.expect($T.Identifier)
|
||||||
|
this.scope.add(token.value!)
|
||||||
|
const node = SyntaxNode.from(token)
|
||||||
|
node.type = 'AssignableIdentifier'
|
||||||
|
return node
|
||||||
|
}
|
||||||
|
|
||||||
|
// atoms are the basic building blocks: literals, identifiers, words
|
||||||
|
atom(): SyntaxNode {
|
||||||
|
if (this.is($T.String))
|
||||||
|
return this.string()
|
||||||
|
|
||||||
|
if (this.isAny($T.Null, $T.Boolean, $T.Number, $T.Identifier, $T.Word, $T.Regex, $T.Underscore))
|
||||||
|
return SyntaxNode.from(this.next())
|
||||||
|
|
||||||
|
const next = this.next()
|
||||||
|
throw `[atom] unexpected token ${TokenType[next.type]}: ${JSON.stringify(next)}\n\n ${this.input}\n`
|
||||||
|
}
|
||||||
|
|
||||||
|
// blocks in if, do, special calls, etc
|
||||||
|
// `: something end`
|
||||||
|
//
|
||||||
|
// `blockNode` determines whether we return [colon, BlockNode, end] or
|
||||||
|
// just a list of statements like [colon, stmt1, stmt2, end]
|
||||||
|
block(blockNode = true): SyntaxNode[] {
|
||||||
|
const stmts: SyntaxNode[] = []
|
||||||
|
const colon = this.colon()
|
||||||
|
|
||||||
|
while (!this.isExprEndKeyword() && !this.isEOF()) {
|
||||||
|
const stmt = this.statement()
|
||||||
|
if (stmt) stmts.push(stmt)
|
||||||
|
}
|
||||||
|
|
||||||
|
const out = [colon]
|
||||||
|
|
||||||
|
if (blockNode) {
|
||||||
|
const block = new SyntaxNode('Block', stmts[0]!.from, stmts.at(-1)!.to)
|
||||||
|
block.push(...stmts)
|
||||||
|
out.push(block)
|
||||||
|
} else {
|
||||||
|
out.push(...stmts)
|
||||||
|
}
|
||||||
|
|
||||||
|
return out
|
||||||
|
}
|
||||||
|
|
||||||
|
// catch err: block
|
||||||
|
catch(): SyntaxNode {
|
||||||
|
const keyword = this.keyword('catch')
|
||||||
|
|
||||||
|
let catchVar
|
||||||
|
if (this.is($T.Identifier))
|
||||||
|
catchVar = this.identifier()
|
||||||
|
|
||||||
|
const block = this.block()
|
||||||
|
|
||||||
|
const node = new SyntaxNode('CatchExpr', keyword.from, block.at(-1)!.to)
|
||||||
|
|
||||||
|
node.push(keyword)
|
||||||
|
if (catchVar) node.push(catchVar)
|
||||||
|
return node.push(...block)
|
||||||
|
}
|
||||||
|
|
||||||
|
// colon
|
||||||
|
colon(): SyntaxNode {
|
||||||
|
const colon = SyntaxNode.from(this.expect($T.Colon))
|
||||||
|
colon.type = 'colon' // TODO lezer legacy
|
||||||
|
return colon
|
||||||
|
}
|
||||||
|
|
||||||
|
// # comment
|
||||||
|
comment(): SyntaxNode {
|
||||||
|
return SyntaxNode.from(this.expect($T.Comment))
|
||||||
|
}
|
||||||
|
|
||||||
|
// [ a b c ] = [ 1 2 3 ]
|
||||||
|
destructure(array: SyntaxNode): SyntaxNode {
|
||||||
|
const eq = this.op('=')
|
||||||
|
const val = this.expression()
|
||||||
|
|
||||||
|
for (const ident of array.children) {
|
||||||
|
const varName = this.input.slice(ident.from, ident.to)
|
||||||
|
this.scope.add(varName)
|
||||||
|
}
|
||||||
|
|
||||||
|
const node = new SyntaxNode('Assign', array.from, val.to)
|
||||||
|
return node.push(array, eq, val)
|
||||||
|
}
|
||||||
|
|
||||||
|
// [ a=1 b=true c='three' ]
|
||||||
|
dict(): SyntaxNode {
|
||||||
|
const open = this.expect($T.OpenBracket)
|
||||||
|
|
||||||
|
// empty dict [=] or [ = ]
|
||||||
|
if (this.is($T.Operator, '=') && this.nextIs($T.CloseBracket)) {
|
||||||
|
const _op = this.next()
|
||||||
|
const close = this.next()
|
||||||
|
return new SyntaxNode('Dict', open.from, close.to)
|
||||||
|
}
|
||||||
|
|
||||||
|
const values = []
|
||||||
|
while (!this.is($T.CloseBracket) && !this.isEOF()) {
|
||||||
|
if (this.is($T.Semicolon) || this.is($T.Newline)) {
|
||||||
|
this.next()
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
if (this.is($T.Comment)) {
|
||||||
|
values.push(this.comment())
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
values.push(this.is($T.NamedArgPrefix) ? this.namedArg() : this.arg())
|
||||||
|
}
|
||||||
|
|
||||||
|
const close = this.expect($T.CloseBracket)
|
||||||
|
|
||||||
|
const node = new SyntaxNode('Dict', open.from, close.to)
|
||||||
|
return node.push(...values)
|
||||||
|
}
|
||||||
|
|
||||||
|
// FunctionDef `do x y: something end`
|
||||||
|
do(): SyntaxNode {
|
||||||
|
const doNode = this.keyword('do')
|
||||||
|
doNode.type = 'Do'
|
||||||
|
this.scope = new Scope(this.scope)
|
||||||
|
|
||||||
|
const params = []
|
||||||
|
while (!this.is($T.Colon) && !this.isExprEnd()) {
|
||||||
|
let varName = this.current().value!
|
||||||
|
if (varName.endsWith('=')) varName = varName.slice(0, varName.length - 1)
|
||||||
|
this.scope.add(varName)
|
||||||
|
|
||||||
|
let arg
|
||||||
|
if (this.is($T.Identifier))
|
||||||
|
arg = this.identifier()
|
||||||
|
else if (this.is($T.NamedArgPrefix))
|
||||||
|
arg = this.namedParam()
|
||||||
|
else
|
||||||
|
throw `[do] expected Identifier or NamedArgPrefix, got ${JSON.stringify(this.current())}\n\n ${this.input}\n`
|
||||||
|
|
||||||
|
params.push(arg)
|
||||||
|
}
|
||||||
|
|
||||||
|
const block = this.block(false)
|
||||||
|
let catchNode, finalNode
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'catch'))
|
||||||
|
catchNode = this.catch()
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'finally'))
|
||||||
|
finalNode = this.finally()
|
||||||
|
|
||||||
|
let end = this.keyword('end')
|
||||||
|
|
||||||
|
let last = block.at(-1)
|
||||||
|
if (finalNode) last = finalNode.children.at(-1)!
|
||||||
|
else if (catchNode) last = catchNode.children.at(-1)!
|
||||||
|
|
||||||
|
const node = new SyntaxNode('FunctionDef', doNode.from, last!.to)
|
||||||
|
|
||||||
|
node.add(doNode)
|
||||||
|
|
||||||
|
const paramsNode = new SyntaxNode(
|
||||||
|
'Params',
|
||||||
|
params[0]?.from ?? 0,
|
||||||
|
params.at(-1)?.to ?? 0
|
||||||
|
)
|
||||||
|
|
||||||
|
if (params.length) paramsNode.push(...params)
|
||||||
|
node.add(paramsNode)
|
||||||
|
|
||||||
|
this.scope = this.scope.parent!
|
||||||
|
|
||||||
|
node.push(...block)
|
||||||
|
|
||||||
|
if (catchNode) node.push(catchNode)
|
||||||
|
if (finalNode) node.push(finalNode)
|
||||||
|
|
||||||
|
return node.push(end)
|
||||||
|
}
|
||||||
|
|
||||||
|
// config.path
|
||||||
|
dotGet(): SyntaxNode {
|
||||||
|
const left = this.identifier()
|
||||||
|
const ident = this.input.slice(left.from, left.to)
|
||||||
|
|
||||||
|
// not in scope, just return Word
|
||||||
|
if (!this.scope.has(ident))
|
||||||
|
return this.word(left)
|
||||||
|
|
||||||
|
if (left.type.is('Identifier')) left.type = 'IdentifierBeforeDot'
|
||||||
|
|
||||||
|
let parts = []
|
||||||
|
while (this.is($T.Operator, '.')) {
|
||||||
|
this.next()
|
||||||
|
parts.push(this.is($T.OpenParen) ? this.parens() : this.atom())
|
||||||
|
}
|
||||||
|
|
||||||
|
// TODO lezer legacy - we can do a flat DotGet if we remove this
|
||||||
|
const nodes = parts.length > 1 ? collapseDotGets(parts) : undefined
|
||||||
|
|
||||||
|
const node = new SyntaxNode('DotGet', left.from, parts.at(-1)!.to)
|
||||||
|
return nodes ? node.push(left, nodes!) : node.push(left, ...parts)
|
||||||
|
}
|
||||||
|
|
||||||
|
// continue parsing dotget/word binary operation
|
||||||
|
dotGetBinOp(left: SyntaxNode): SyntaxNode {
|
||||||
|
while (this.is($T.Operator) && !this.is($T.Operator, '|')) {
|
||||||
|
const op = this.current().value!
|
||||||
|
const bp = precedence[op]
|
||||||
|
if (bp === undefined) break
|
||||||
|
|
||||||
|
const opNode = this.op()
|
||||||
|
const right = this.exprWithPrecedence(bp + 1)
|
||||||
|
|
||||||
|
const nodeType = conditionals.has(op) ? 'ConditionalOp' : 'BinOp'
|
||||||
|
const node = new SyntaxNode(nodeType, left.from, right.to)
|
||||||
|
node.push(left, opNode, right)
|
||||||
|
left = node
|
||||||
|
}
|
||||||
|
return left
|
||||||
|
}
|
||||||
|
|
||||||
|
// dotget in a statement/expression (something.blah) or (something.blah arg1)
|
||||||
|
dotGetFunctionCall(): SyntaxNode {
|
||||||
|
const dotGet = this.dotGet()
|
||||||
|
|
||||||
|
// if followed by a binary operator (not pipe), return dotGet/Word as-is for expression parser
|
||||||
|
if (this.is($T.Operator) && !this.is($T.Operator, '|'))
|
||||||
|
return dotGet
|
||||||
|
|
||||||
|
// dotget not in scope, regular Word
|
||||||
|
if (dotGet.type.is('Word')) return dotGet
|
||||||
|
|
||||||
|
if (this.isExprEnd())
|
||||||
|
return this.functionCallOrIdentifier(dotGet)
|
||||||
|
else
|
||||||
|
return this.functionCall(dotGet)
|
||||||
|
}
|
||||||
|
|
||||||
|
// can be used in functions or try block
|
||||||
|
finally(): SyntaxNode {
|
||||||
|
const keyword = this.keyword('finally')
|
||||||
|
const block = this.block()
|
||||||
|
const node = new SyntaxNode('FinallyExpr', keyword.from, block.at(-1)!.to)
|
||||||
|
|
||||||
|
return node.push(keyword, ...block)
|
||||||
|
}
|
||||||
|
|
||||||
|
// you're lookin at it
|
||||||
|
functionCall(fn?: SyntaxNode): SyntaxNode {
|
||||||
|
const ident = fn ?? this.identifier()
|
||||||
|
|
||||||
|
const args: SyntaxNode[] = []
|
||||||
|
while (!this.isExprEnd())
|
||||||
|
args.push(this.is($T.NamedArgPrefix) ? this.namedArg() : this.arg())
|
||||||
|
|
||||||
|
const node = new SyntaxNode('FunctionCall', ident.from, (args.at(-1) || ident).to)
|
||||||
|
node.push(ident, ...args)
|
||||||
|
|
||||||
|
if (!this.inTestExpr && this.is($T.Colon)) {
|
||||||
|
const block = this.block()
|
||||||
|
const end = this.keyword('end')
|
||||||
|
const blockNode = new SyntaxNode('FunctionCallWithBlock', node.from, end.to)
|
||||||
|
return blockNode.push(node, ...block, end)
|
||||||
|
}
|
||||||
|
|
||||||
|
return node
|
||||||
|
}
|
||||||
|
|
||||||
|
// bare identifier in an expression
|
||||||
|
functionCallOrIdentifier(inner?: SyntaxNode) {
|
||||||
|
if (!inner && this.nextIs($T.Operator, '.')) {
|
||||||
|
inner = this.dotGet()
|
||||||
|
|
||||||
|
// if the dotGet was just a Word, bail
|
||||||
|
if (inner.type.is('Word')) return inner
|
||||||
|
}
|
||||||
|
|
||||||
|
inner ??= this.identifier()
|
||||||
|
|
||||||
|
const wrapper = new SyntaxNode('FunctionCallOrIdentifier', inner.from, inner.to)
|
||||||
|
wrapper.push(inner)
|
||||||
|
|
||||||
|
if (!this.inTestExpr && this.is($T.Colon)) {
|
||||||
|
const block = this.block()
|
||||||
|
const end = this.keyword('end')
|
||||||
|
const node = new SyntaxNode('FunctionCallWithBlock', wrapper.from, end.to)
|
||||||
|
return node.push(wrapper, ...block, end)
|
||||||
|
}
|
||||||
|
|
||||||
|
return wrapper
|
||||||
|
}
|
||||||
|
|
||||||
|
// function and variable names
|
||||||
|
identifier(): SyntaxNode {
|
||||||
|
return SyntaxNode.from(this.expect($T.Identifier))
|
||||||
|
}
|
||||||
|
|
||||||
|
// if something: blah end
|
||||||
|
// if something: blah else: blah end
|
||||||
|
// if something: blah else if something: blah else: blah end
|
||||||
|
if(): SyntaxNode {
|
||||||
|
const ifNode = this.keyword('if')
|
||||||
|
const test = this.testExpr()
|
||||||
|
const ifBlock = this.block()
|
||||||
|
|
||||||
|
const node = new SyntaxNode('IfExpr', ifNode.from, ifBlock.at(-1)!.to)
|
||||||
|
node.push(ifNode, test)
|
||||||
|
node.push(...ifBlock)
|
||||||
|
|
||||||
|
while (this.is($T.Keyword, 'else') && this.nextIs($T.Keyword, 'if')) {
|
||||||
|
const elseWord = this.keyword('else')
|
||||||
|
const ifWord = this.keyword('if')
|
||||||
|
const elseIfTest = this.testExpr()
|
||||||
|
const elseIfBlock = this.block()
|
||||||
|
const elseIfNode = new SyntaxNode('ElseIfExpr', ifBlock.at(-1)!.from, elseIfBlock.at(-1)!.to)
|
||||||
|
elseIfNode.push(elseWord, ifWord, elseIfTest)
|
||||||
|
elseIfNode.push(...elseIfBlock)
|
||||||
|
node.push(elseIfNode)
|
||||||
|
}
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'else') && this.nextIs($T.Colon)) {
|
||||||
|
const elseWord = this.keyword('else')
|
||||||
|
const elseBlock = this.block()
|
||||||
|
const elseNode = new SyntaxNode('ElseExpr', ifBlock.at(-1)!.from, elseBlock.at(-1)!.to)
|
||||||
|
elseNode.push(elseWord)
|
||||||
|
elseNode.push(...elseBlock)
|
||||||
|
node.push(elseNode)
|
||||||
|
}
|
||||||
|
|
||||||
|
return node.push(this.keyword('end'))
|
||||||
|
}
|
||||||
|
|
||||||
|
import(): SyntaxNode {
|
||||||
|
const keyword = this.keyword('import')
|
||||||
|
|
||||||
|
const args: SyntaxNode[] = []
|
||||||
|
while (!this.isExprEnd()) {
|
||||||
|
if (this.is($T.NamedArgPrefix)) {
|
||||||
|
const prefix = SyntaxNode.from(this.next())
|
||||||
|
const val = this.value()
|
||||||
|
const arg = new SyntaxNode('NamedArg', prefix.from, val.to)
|
||||||
|
arg.push(prefix, val)
|
||||||
|
args.push(arg)
|
||||||
|
} else {
|
||||||
|
args.push(this.identifier())
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
const node = new SyntaxNode('Import', keyword.from, args.at(-1)!.to)
|
||||||
|
node.add(keyword)
|
||||||
|
return node.push(...args)
|
||||||
|
}
|
||||||
|
|
||||||
|
// if, while, do, etc
|
||||||
|
keyword(name: string): SyntaxNode {
|
||||||
|
const node = SyntaxNode.from(this.expect($T.Keyword, name))
|
||||||
|
node.type = 'keyword' // TODO lezer legacy
|
||||||
|
return node
|
||||||
|
}
|
||||||
|
|
||||||
|
// abc= true
|
||||||
|
namedArg(): SyntaxNode {
|
||||||
|
const prefix = SyntaxNode.from(this.expect($T.NamedArgPrefix))
|
||||||
|
const val = this.arg(true)
|
||||||
|
const node = new SyntaxNode('NamedArg', prefix.from, val.to)
|
||||||
|
return node.push(prefix, val)
|
||||||
|
}
|
||||||
|
|
||||||
|
// abc= null|true|123|'hi'
|
||||||
|
namedParam(): SyntaxNode {
|
||||||
|
const prefix = SyntaxNode.from(this.expect($T.NamedArgPrefix))
|
||||||
|
const val = this.value()
|
||||||
|
|
||||||
|
if (!['Null', 'Boolean', 'Number', 'String'].includes(val.type.name))
|
||||||
|
throw `[namedParam] default value must be Null|Bool|Num|Str, got ${val.type}\n\n ${this.input}\n`
|
||||||
|
|
||||||
|
const node = new SyntaxNode('NamedParam', prefix.from, val.to)
|
||||||
|
return node.push(prefix, val)
|
||||||
|
}
|
||||||
|
|
||||||
|
// operators like + - =
|
||||||
|
op(op?: string): SyntaxNode {
|
||||||
|
const token = op ? this.expect($T.Operator, op) : this.expect($T.Operator)
|
||||||
|
const name = operators[token.value!]
|
||||||
|
if (!name) throw `[op] operator not registered: ${token.value!}\n\n ${this.input}\n`
|
||||||
|
return new SyntaxNode(name, token.from, token.to)
|
||||||
|
}
|
||||||
|
|
||||||
|
// ( expressions in parens )
|
||||||
|
parens(): SyntaxNode {
|
||||||
|
this.inParens++
|
||||||
|
const open = this.expect($T.OpenParen)
|
||||||
|
const child = this.expression()
|
||||||
|
const close = this.expect($T.CloseParen)
|
||||||
|
this.inParens--
|
||||||
|
|
||||||
|
const node = new SyntaxNode('ParenExpr', open.from, close.to)
|
||||||
|
node.add(child)
|
||||||
|
|
||||||
|
return node
|
||||||
|
}
|
||||||
|
|
||||||
|
// 'hell yes' "hell no" { hell if i know }
|
||||||
|
string(): SyntaxNode {
|
||||||
|
const token = this.expect($T.String)
|
||||||
|
return parseString(this.input, token.from, token.to, this)
|
||||||
|
}
|
||||||
|
|
||||||
|
// if TEST: blah end
|
||||||
|
testExpr(): SyntaxNode {
|
||||||
|
this.inTestExpr = true
|
||||||
|
const expr = this.expression()
|
||||||
|
this.inTestExpr = false
|
||||||
|
return expr
|
||||||
|
}
|
||||||
|
|
||||||
|
// throw blah
|
||||||
|
throw(): SyntaxNode {
|
||||||
|
const keyword = this.keyword('throw')
|
||||||
|
const val = this.expression()
|
||||||
|
const node = new SyntaxNode('Throw', keyword.from, val.to)
|
||||||
|
return node.push(keyword, val)
|
||||||
|
}
|
||||||
|
|
||||||
|
// try: blah catch e: blah end
|
||||||
|
try(): SyntaxNode {
|
||||||
|
const tryNode = this.keyword('try')
|
||||||
|
const tryBlock = this.block()
|
||||||
|
let last = tryBlock.at(-1)
|
||||||
|
let catchNode, finalNode
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'catch'))
|
||||||
|
catchNode = this.catch()
|
||||||
|
|
||||||
|
if (this.is($T.Keyword, 'finally'))
|
||||||
|
finalNode = this.finally()
|
||||||
|
|
||||||
|
const end = this.keyword('end')
|
||||||
|
|
||||||
|
if (finalNode) last = finalNode.children.at(-1)
|
||||||
|
else if (catchNode) last = catchNode.children.at(-1)
|
||||||
|
|
||||||
|
const node = new SyntaxNode('TryExpr', tryNode.from, last!.to)
|
||||||
|
node.push(tryNode, ...tryBlock)
|
||||||
|
|
||||||
|
if (catchNode)
|
||||||
|
node.push(catchNode)
|
||||||
|
|
||||||
|
if (finalNode)
|
||||||
|
node.push(finalNode)
|
||||||
|
|
||||||
|
return node.push(end)
|
||||||
|
}
|
||||||
|
|
||||||
|
// while test: blah end
|
||||||
|
while(): SyntaxNode {
|
||||||
|
const keyword = this.keyword('while')
|
||||||
|
const test = this.testExpr()
|
||||||
|
const block = this.block()
|
||||||
|
const end = this.keyword('end')
|
||||||
|
|
||||||
|
const node = new SyntaxNode('WhileExpr', keyword.from, end.to)
|
||||||
|
return node.push(keyword, test, ...block, end)
|
||||||
|
}
|
||||||
|
|
||||||
|
// readme.txt (when `readme` isn't in scope)
|
||||||
|
word(start?: SyntaxNode): SyntaxNode {
|
||||||
|
const parts = [start ?? this.expect($T.Word)]
|
||||||
|
|
||||||
|
while (this.is($T.Operator, '.')) {
|
||||||
|
this.next()
|
||||||
|
if (this.isAny($T.Word, $T.Identifier, $T.Number))
|
||||||
|
parts.push(this.next())
|
||||||
|
}
|
||||||
|
|
||||||
|
return new SyntaxNode('Word', parts[0]!.from, parts.at(-1)!.to)
|
||||||
|
}
|
||||||
|
|
||||||
|
//
|
||||||
|
// helpers
|
||||||
|
//
|
||||||
|
|
||||||
|
current(): Token {
|
||||||
|
return this.tokens[this.pos] || { type: TokenType.Newline, from: 0, to: 0 }
|
||||||
|
}
|
||||||
|
|
||||||
|
peek(offset = 1): Token | undefined {
|
||||||
|
return this.tokens[this.pos + offset]
|
||||||
|
}
|
||||||
|
|
||||||
|
// look past newlines to check for a specific token
|
||||||
|
peekPastNewlines(type: TokenType, value?: string): boolean {
|
||||||
|
let offset = 1
|
||||||
|
let peek = this.peek(offset)
|
||||||
|
|
||||||
|
while (peek && peek.type === $T.Newline)
|
||||||
|
peek = this.peek(++offset)
|
||||||
|
|
||||||
|
if (!peek || peek.type !== type) return false
|
||||||
|
if (value !== undefined && peek.value !== value) return false
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
|
||||||
|
next(): Token {
|
||||||
|
const token = this.current()
|
||||||
|
this.pos++
|
||||||
|
return token
|
||||||
|
}
|
||||||
|
|
||||||
|
is(type: TokenType, value?: string): boolean {
|
||||||
|
const token = this.current()
|
||||||
|
if (!token || token.type !== type) return false
|
||||||
|
if (value !== undefined && token.value !== value) return false
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
|
||||||
|
isAny(...type: TokenType[]): boolean {
|
||||||
|
return type.some(x => this.is(x))
|
||||||
|
}
|
||||||
|
|
||||||
|
nextIs(type: TokenType, value?: string): boolean {
|
||||||
|
const token = this.peek()
|
||||||
|
if (!token || token.type !== type) return false
|
||||||
|
if (value !== undefined && token.value !== value) return false
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
|
||||||
|
nextIsAny(...type: TokenType[]): boolean {
|
||||||
|
return type.some(x => this.nextIs(x))
|
||||||
|
}
|
||||||
|
|
||||||
|
isExprEnd(): boolean {
|
||||||
|
return this.isAny($T.Colon, $T.Semicolon, $T.Newline, $T.CloseParen, $T.CloseBracket) ||
|
||||||
|
this.is($T.Operator, '|') ||
|
||||||
|
this.isExprEndKeyword() || !this.current()
|
||||||
|
}
|
||||||
|
|
||||||
|
nextIsExprEnd(): boolean {
|
||||||
|
// pipes act like expression end for function arg parsing
|
||||||
|
if (this.nextIs($T.Operator, '|'))
|
||||||
|
return true
|
||||||
|
|
||||||
|
return this.nextIsAny($T.Colon, $T.Semicolon, $T.Newline, $T.CloseBracket, $T.CloseParen) ||
|
||||||
|
this.nextIs($T.Keyword, 'end') || this.nextIs($T.Keyword, 'else') ||
|
||||||
|
this.nextIs($T.Keyword, 'catch') || this.nextIs($T.Keyword, 'finally') ||
|
||||||
|
!this.peek()
|
||||||
|
}
|
||||||
|
|
||||||
|
isExprEndKeyword(): boolean {
|
||||||
|
return this.is($T.Keyword, 'end') || this.is($T.Keyword, 'else') ||
|
||||||
|
this.is($T.Keyword, 'catch') || this.is($T.Keyword, 'finally')
|
||||||
|
}
|
||||||
|
|
||||||
|
isPipe(): boolean {
|
||||||
|
// inside parens, only look for pipes on same line (don't look past newlines)
|
||||||
|
const canLookPastNewlines = this.inParens === 0
|
||||||
|
|
||||||
|
return this.is($T.Operator, '|') ||
|
||||||
|
(canLookPastNewlines && this.peekPastNewlines($T.Operator, '|'))
|
||||||
|
}
|
||||||
|
|
||||||
|
expect(type: TokenType, value?: string): Token | never {
|
||||||
|
if (!this.is(type, value)) {
|
||||||
|
const token = this.current()
|
||||||
|
throw `expected ${TokenType[type]}${value ? ` "${value}"` : ''}, got ${TokenType[token?.type || 0]}${token?.value ? ` "${token.value}"` : ''} at position ${this.pos}\n\n ${this.input}\n`
|
||||||
|
}
|
||||||
|
return this.next()
|
||||||
|
}
|
||||||
|
|
||||||
|
isEOF(): boolean {
|
||||||
|
return this.pos >= this.tokens.length
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// TODO lezer legacy
|
||||||
|
function collapseDotGets(origNodes: SyntaxNode[]): SyntaxNode {
|
||||||
|
const nodes = [...origNodes]
|
||||||
|
let right = nodes.pop()!
|
||||||
|
|
||||||
|
while (nodes.length > 0) {
|
||||||
|
const left = nodes.pop()!
|
||||||
|
|
||||||
|
if (left.type.is('Identifier')) left.type = 'IdentifierBeforeDot'
|
||||||
|
|
||||||
|
const dot = new SyntaxNode("DotGet", left.from, right.to)
|
||||||
|
dot.push(left, right)
|
||||||
|
|
||||||
|
right = dot
|
||||||
|
}
|
||||||
|
|
||||||
|
return right
|
||||||
|
}
|
||||||
258
src/parser/stringParser.ts
Normal file
258
src/parser/stringParser.ts
Normal file
|
|
@ -0,0 +1,258 @@
|
||||||
|
import { SyntaxNode } from './node'
|
||||||
|
|
||||||
|
/**
|
||||||
|
* Parse string contents into fragments, interpolations, and escape sequences.
|
||||||
|
*
|
||||||
|
* Input: full string including quotes, e.g. "'hello $name'"
|
||||||
|
* Output: SyntaxNode tree with StringFragment, Interpolation, EscapeSeq children
|
||||||
|
*/
|
||||||
|
export const parseString = (input: string, from: number, to: number, parser: any): SyntaxNode => {
|
||||||
|
const stringNode = new SyntaxNode('String', from, to)
|
||||||
|
const content = input.slice(from, to)
|
||||||
|
|
||||||
|
// Determine string type
|
||||||
|
const firstChar = content[0]
|
||||||
|
|
||||||
|
// Double-quoted strings: no interpolation or escapes
|
||||||
|
if (firstChar === '"') {
|
||||||
|
const fragment = new SyntaxNode('DoubleQuote', from, to)
|
||||||
|
stringNode.add(fragment)
|
||||||
|
return stringNode
|
||||||
|
}
|
||||||
|
|
||||||
|
// Curly strings: interpolation but no escapes
|
||||||
|
if (firstChar === '{') {
|
||||||
|
parseCurlyString(stringNode, input, from, to, parser)
|
||||||
|
return stringNode
|
||||||
|
}
|
||||||
|
|
||||||
|
// Single-quoted strings: interpolation and escapes
|
||||||
|
if (firstChar === "'") {
|
||||||
|
parseSingleQuoteString(stringNode, input, from, to, parser)
|
||||||
|
return stringNode
|
||||||
|
}
|
||||||
|
|
||||||
|
throw `Unknown string type starting with: ${firstChar}`
|
||||||
|
}
|
||||||
|
|
||||||
|
/**
|
||||||
|
* Parse single-quoted string: 'hello $name\n'
|
||||||
|
* Supports: interpolation ($var, $(expr)), escape sequences (\n, \$, etc)
|
||||||
|
*/
|
||||||
|
const parseSingleQuoteString = (stringNode: SyntaxNode, input: string, from: number, to: number, parser: any) => {
|
||||||
|
let pos = from + 1 // Skip opening '
|
||||||
|
let fragmentStart = pos
|
||||||
|
|
||||||
|
while (pos < to - 1) { // -1 to skip closing '
|
||||||
|
const char = input[pos]
|
||||||
|
|
||||||
|
// Escape sequence
|
||||||
|
if (char === '\\' && pos + 1 < to - 1) {
|
||||||
|
// Push accumulated fragment
|
||||||
|
if (pos > fragmentStart) {
|
||||||
|
const frag = new SyntaxNode('StringFragment', fragmentStart, pos)
|
||||||
|
stringNode.add(frag)
|
||||||
|
}
|
||||||
|
|
||||||
|
// Add escape sequence node
|
||||||
|
const escNode = new SyntaxNode('EscapeSeq', pos, pos + 2)
|
||||||
|
stringNode.add(escNode)
|
||||||
|
|
||||||
|
pos += 2
|
||||||
|
fragmentStart = pos
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
// Interpolation
|
||||||
|
if (char === '$') {
|
||||||
|
// Push accumulated fragment
|
||||||
|
if (pos > fragmentStart) {
|
||||||
|
const frag = new SyntaxNode('StringFragment', fragmentStart, pos)
|
||||||
|
stringNode.add(frag)
|
||||||
|
}
|
||||||
|
|
||||||
|
pos++ // Skip $
|
||||||
|
|
||||||
|
// Parse interpolation content
|
||||||
|
if (input[pos] === '(') {
|
||||||
|
// Expression interpolation: $(expr)
|
||||||
|
const interpStart = pos - 1 // Include the $
|
||||||
|
const exprResult = parseInterpolationExpr(input, pos, parser)
|
||||||
|
const interpNode = new SyntaxNode('Interpolation', interpStart, exprResult.endPos)
|
||||||
|
interpNode.add(exprResult.node)
|
||||||
|
stringNode.add(interpNode)
|
||||||
|
pos = exprResult.endPos
|
||||||
|
} else {
|
||||||
|
// Variable interpolation: $name
|
||||||
|
const interpStart = pos - 1
|
||||||
|
const identEnd = findIdentifierEnd(input, pos, to - 1)
|
||||||
|
const identNode = new SyntaxNode('FunctionCallOrIdentifier', pos, identEnd)
|
||||||
|
const innerIdent = new SyntaxNode('Identifier', pos, identEnd)
|
||||||
|
identNode.add(innerIdent)
|
||||||
|
|
||||||
|
const interpNode = new SyntaxNode('Interpolation', interpStart, identEnd)
|
||||||
|
interpNode.add(identNode)
|
||||||
|
stringNode.add(interpNode)
|
||||||
|
pos = identEnd
|
||||||
|
}
|
||||||
|
|
||||||
|
fragmentStart = pos
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
pos++
|
||||||
|
}
|
||||||
|
|
||||||
|
// Push final fragment
|
||||||
|
if (pos > fragmentStart && fragmentStart < to - 1) {
|
||||||
|
const frag = new SyntaxNode('StringFragment', fragmentStart, pos)
|
||||||
|
stringNode.add(frag)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
/**
|
||||||
|
* Parse curly string: { hello $name }
|
||||||
|
* Supports: interpolation ($var, $(expr)), nested braces
|
||||||
|
* Does NOT support: escape sequences (raw content)
|
||||||
|
*/
|
||||||
|
const parseCurlyString = (stringNode: SyntaxNode, input: string, from: number, to: number, parser: any) => {
|
||||||
|
let pos = from + 1 // Skip opening {
|
||||||
|
let fragmentStart = from // Include the opening { in the fragment
|
||||||
|
let depth = 1
|
||||||
|
|
||||||
|
while (pos < to && depth > 0) {
|
||||||
|
const char = input[pos]
|
||||||
|
|
||||||
|
// Track brace nesting
|
||||||
|
if (char === '{') {
|
||||||
|
depth++
|
||||||
|
pos++
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
if (char === '}') {
|
||||||
|
depth--
|
||||||
|
if (depth === 0) {
|
||||||
|
// Push final fragment including closing }
|
||||||
|
const frag = new SyntaxNode('CurlyString', fragmentStart, pos + 1)
|
||||||
|
stringNode.add(frag)
|
||||||
|
break
|
||||||
|
}
|
||||||
|
pos++
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
// Interpolation
|
||||||
|
if (char === '$') {
|
||||||
|
// Push accumulated fragment
|
||||||
|
if (pos > fragmentStart) {
|
||||||
|
const frag = new SyntaxNode('CurlyString', fragmentStart, pos)
|
||||||
|
stringNode.add(frag)
|
||||||
|
}
|
||||||
|
|
||||||
|
pos++ // Skip $
|
||||||
|
|
||||||
|
// Parse interpolation content
|
||||||
|
if (input[pos] === '(') {
|
||||||
|
// Expression interpolation: $(expr)
|
||||||
|
const interpStart = pos - 1
|
||||||
|
const exprResult = parseInterpolationExpr(input, pos, parser)
|
||||||
|
const interpNode = new SyntaxNode('Interpolation', interpStart, exprResult.endPos)
|
||||||
|
interpNode.add(exprResult.node)
|
||||||
|
stringNode.add(interpNode)
|
||||||
|
pos = exprResult.endPos
|
||||||
|
} else {
|
||||||
|
// Variable interpolation: $name
|
||||||
|
const interpStart = pos - 1
|
||||||
|
const identEnd = findIdentifierEnd(input, pos, to)
|
||||||
|
const identNode = new SyntaxNode('FunctionCallOrIdentifier', pos, identEnd)
|
||||||
|
const innerIdent = new SyntaxNode('Identifier', pos, identEnd)
|
||||||
|
identNode.add(innerIdent)
|
||||||
|
|
||||||
|
const interpNode = new SyntaxNode('Interpolation', interpStart, identEnd)
|
||||||
|
interpNode.add(identNode)
|
||||||
|
stringNode.add(interpNode)
|
||||||
|
pos = identEnd
|
||||||
|
}
|
||||||
|
|
||||||
|
fragmentStart = pos
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
pos++
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
/**
|
||||||
|
* Parse a parenthesized expression interpolation: $(a + b)
|
||||||
|
* Returns the parsed expression node and the position after the closing )
|
||||||
|
* pos is position of the opening ( in the full input string
|
||||||
|
*/
|
||||||
|
const parseInterpolationExpr = (input: string, pos: number, parser: any): { node: SyntaxNode, endPos: number } => {
|
||||||
|
// Find matching closing paren
|
||||||
|
let depth = 1
|
||||||
|
let start = pos
|
||||||
|
let end = pos + 1 // Start after opening (
|
||||||
|
|
||||||
|
while (end < input.length && depth > 0) {
|
||||||
|
if (input[end] === '(') depth++
|
||||||
|
if (input[end] === ')') {
|
||||||
|
depth--
|
||||||
|
if (depth === 0) break
|
||||||
|
}
|
||||||
|
end++
|
||||||
|
}
|
||||||
|
|
||||||
|
const exprContent = input.slice(start + 1, end) // Content between ( and )
|
||||||
|
const closeParen = end
|
||||||
|
end++ // Move past closing )
|
||||||
|
|
||||||
|
// Use the main parser to parse the expression
|
||||||
|
const exprNode = parser.parse(exprContent)
|
||||||
|
|
||||||
|
// Get the first real node (skip Program wrapper)
|
||||||
|
const innerNode = exprNode.firstChild || exprNode
|
||||||
|
|
||||||
|
// Adjust node positions: they're relative to exprContent, need to offset to full input
|
||||||
|
const offset = start + 1 // Position where exprContent starts in full input
|
||||||
|
adjustNodePositions(innerNode, offset)
|
||||||
|
|
||||||
|
// Wrap in ParenExpr - use positions in the full string
|
||||||
|
const parenNode = new SyntaxNode('ParenExpr', start, closeParen + 1)
|
||||||
|
parenNode.add(innerNode)
|
||||||
|
|
||||||
|
return { node: parenNode, endPos: end }
|
||||||
|
}
|
||||||
|
|
||||||
|
/**
|
||||||
|
* Recursively adjust all node positions by adding an offset
|
||||||
|
*/
|
||||||
|
const adjustNodePositions = (node: SyntaxNode, offset: number) => {
|
||||||
|
node.from += offset
|
||||||
|
node.to += offset
|
||||||
|
|
||||||
|
for (const child of node.children) {
|
||||||
|
adjustNodePositions(child, offset)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
/**
|
||||||
|
* Find the end position of an identifier starting at pos
|
||||||
|
* Identifiers: lowercase letter or emoji, followed by letters/digits/dashes/emoji
|
||||||
|
*/
|
||||||
|
const findIdentifierEnd = (input: string, pos: number, maxPos: number): number => {
|
||||||
|
let end = pos
|
||||||
|
|
||||||
|
while (end < maxPos) {
|
||||||
|
const char = input[end]
|
||||||
|
|
||||||
|
// Stop at non-identifier characters
|
||||||
|
if (!/[a-z0-9\-?]/.test(char)) {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
|
||||||
|
end++
|
||||||
|
}
|
||||||
|
|
||||||
|
return end
|
||||||
|
}
|
||||||
|
|
@ -810,44 +810,6 @@ describe('Nullish coalescing operator', () => {
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
describe('DotGet whitespace sensitivity', () => {
|
|
||||||
test('no whitespace - DotGet works when identifier in scope', () => {
|
|
||||||
expect('basename = 5; basename.prop').toMatchTree(`
|
|
||||||
Assign
|
|
||||||
AssignableIdentifier basename
|
|
||||||
Eq =
|
|
||||||
Number 5
|
|
||||||
FunctionCallOrIdentifier
|
|
||||||
DotGet
|
|
||||||
IdentifierBeforeDot basename
|
|
||||||
Identifier prop`)
|
|
||||||
})
|
|
||||||
|
|
||||||
test('space before dot - NOT DotGet, parses as division', () => {
|
|
||||||
expect('basename = 5; basename / prop').toMatchTree(`
|
|
||||||
Assign
|
|
||||||
AssignableIdentifier basename
|
|
||||||
Eq =
|
|
||||||
Number 5
|
|
||||||
BinOp
|
|
||||||
Identifier basename
|
|
||||||
Slash /
|
|
||||||
Identifier prop`)
|
|
||||||
})
|
|
||||||
|
|
||||||
test('dot followed by slash is Word, not DotGet', () => {
|
|
||||||
expect('basename ./cool').toMatchTree(`
|
|
||||||
FunctionCall
|
|
||||||
Identifier basename
|
|
||||||
PositionalArg
|
|
||||||
Word ./cool`)
|
|
||||||
})
|
|
||||||
|
|
||||||
test('identifier not in scope with dot becomes Word', () => {
|
|
||||||
expect('readme.txt').toMatchTree(`Word readme.txt`)
|
|
||||||
})
|
|
||||||
})
|
|
||||||
|
|
||||||
describe('Comments', () => {
|
describe('Comments', () => {
|
||||||
test('are greedy', () => {
|
test('are greedy', () => {
|
||||||
expect(`
|
expect(`
|
||||||
|
|
@ -897,61 +859,6 @@ basename = 5 # very astute
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
describe('Array destructuring', () => {
|
|
||||||
test('parses array pattern with two variables', () => {
|
|
||||||
expect('[ a b ] = [ 1 2 3 4]').toMatchTree(`
|
|
||||||
Assign
|
|
||||||
Array
|
|
||||||
Identifier a
|
|
||||||
Identifier b
|
|
||||||
Eq =
|
|
||||||
Array
|
|
||||||
Number 1
|
|
||||||
Number 2
|
|
||||||
Number 3
|
|
||||||
Number 4`)
|
|
||||||
})
|
|
||||||
|
|
||||||
test('parses array pattern with one variable', () => {
|
|
||||||
expect('[ x ] = [ 42 ]').toMatchTree(`
|
|
||||||
Assign
|
|
||||||
Array
|
|
||||||
Identifier x
|
|
||||||
Eq =
|
|
||||||
Array
|
|
||||||
Number 42`)
|
|
||||||
})
|
|
||||||
|
|
||||||
test('parses array pattern with emoji identifiers', () => {
|
|
||||||
expect('[ 🚀 💎 ] = [ 1 2 ]').toMatchTree(`
|
|
||||||
Assign
|
|
||||||
Array
|
|
||||||
Identifier 🚀
|
|
||||||
Identifier 💎
|
|
||||||
Eq =
|
|
||||||
Array
|
|
||||||
Number 1
|
|
||||||
Number 2`)
|
|
||||||
})
|
|
||||||
|
|
||||||
test('works with dotget', () => {
|
|
||||||
expect('[ a ] = [ [1 2 3] ]; a.1').toMatchTree(`
|
|
||||||
Assign
|
|
||||||
Array
|
|
||||||
Identifier a
|
|
||||||
Eq =
|
|
||||||
Array
|
|
||||||
Array
|
|
||||||
Number 1
|
|
||||||
Number 2
|
|
||||||
Number 3
|
|
||||||
FunctionCallOrIdentifier
|
|
||||||
DotGet
|
|
||||||
IdentifierBeforeDot a
|
|
||||||
Number 1`)
|
|
||||||
})
|
|
||||||
})
|
|
||||||
|
|
||||||
describe('Conditional ops', () => {
|
describe('Conditional ops', () => {
|
||||||
test('or can be chained', () => {
|
test('or can be chained', () => {
|
||||||
expect(`
|
expect(`
|
||||||
|
|
@ -1037,34 +944,3 @@ Assign
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
describe('import', () => {
|
|
||||||
test('parses single import', () => {
|
|
||||||
expect(`import str`).toMatchTree(`
|
|
||||||
Import
|
|
||||||
keyword import
|
|
||||||
Identifier str
|
|
||||||
`)
|
|
||||||
})
|
|
||||||
|
|
||||||
test('parses multiple imports', () => {
|
|
||||||
expect(`import str math list`).toMatchTree(`
|
|
||||||
Import
|
|
||||||
keyword import
|
|
||||||
Identifier str
|
|
||||||
Identifier math
|
|
||||||
Identifier list
|
|
||||||
`)
|
|
||||||
})
|
|
||||||
|
|
||||||
test('parses named args', () => {
|
|
||||||
expect(`import str only=ends-with?`).toMatchTree(`
|
|
||||||
Import
|
|
||||||
keyword import
|
|
||||||
Identifier str
|
|
||||||
NamedArg
|
|
||||||
NamedArgPrefix only=
|
|
||||||
Identifier ends-with?
|
|
||||||
`)
|
|
||||||
})
|
|
||||||
})
|
|
||||||
|
|
@ -24,7 +24,8 @@ describe('if/else if/else', () => {
|
||||||
Eq =
|
Eq =
|
||||||
IfExpr
|
IfExpr
|
||||||
keyword if
|
keyword if
|
||||||
Identifier x
|
FunctionCallOrIdentifier
|
||||||
|
Identifier x
|
||||||
colon :
|
colon :
|
||||||
Block
|
Block
|
||||||
Number 2
|
Number 2
|
||||||
|
|
@ -59,7 +60,8 @@ describe('if/else if/else', () => {
|
||||||
end`).toMatchTree(`
|
end`).toMatchTree(`
|
||||||
IfExpr
|
IfExpr
|
||||||
keyword if
|
keyword if
|
||||||
Identifier with-else
|
FunctionCallOrIdentifier
|
||||||
|
Identifier with-else
|
||||||
colon :
|
colon :
|
||||||
Block
|
Block
|
||||||
FunctionCallOrIdentifier
|
FunctionCallOrIdentifier
|
||||||
|
|
@ -82,7 +84,8 @@ describe('if/else if/else', () => {
|
||||||
end`).toMatchTree(`
|
end`).toMatchTree(`
|
||||||
IfExpr
|
IfExpr
|
||||||
keyword if
|
keyword if
|
||||||
Identifier with-else-if
|
FunctionCallOrIdentifier
|
||||||
|
Identifier with-else-if
|
||||||
colon :
|
colon :
|
||||||
Block
|
Block
|
||||||
FunctionCallOrIdentifier
|
FunctionCallOrIdentifier
|
||||||
|
|
@ -90,7 +93,8 @@ describe('if/else if/else', () => {
|
||||||
ElseIfExpr
|
ElseIfExpr
|
||||||
keyword else
|
keyword else
|
||||||
keyword if
|
keyword if
|
||||||
Identifier another-condition
|
FunctionCallOrIdentifier
|
||||||
|
Identifier another-condition
|
||||||
colon :
|
colon :
|
||||||
Block
|
Block
|
||||||
FunctionCallOrIdentifier
|
FunctionCallOrIdentifier
|
||||||
|
|
@ -111,7 +115,8 @@ describe('if/else if/else', () => {
|
||||||
end`).toMatchTree(`
|
end`).toMatchTree(`
|
||||||
IfExpr
|
IfExpr
|
||||||
keyword if
|
keyword if
|
||||||
Identifier with-else-if-else
|
FunctionCallOrIdentifier
|
||||||
|
Identifier with-else-if-else
|
||||||
colon :
|
colon :
|
||||||
Block
|
Block
|
||||||
FunctionCallOrIdentifier
|
FunctionCallOrIdentifier
|
||||||
|
|
@ -119,7 +124,8 @@ describe('if/else if/else', () => {
|
||||||
ElseIfExpr
|
ElseIfExpr
|
||||||
keyword else
|
keyword else
|
||||||
keyword if
|
keyword if
|
||||||
Identifier another-condition
|
FunctionCallOrIdentifier
|
||||||
|
Identifier another-condition
|
||||||
colon :
|
colon :
|
||||||
Block
|
Block
|
||||||
FunctionCallOrIdentifier
|
FunctionCallOrIdentifier
|
||||||
|
|
@ -127,7 +133,8 @@ describe('if/else if/else', () => {
|
||||||
ElseIfExpr
|
ElseIfExpr
|
||||||
keyword else
|
keyword else
|
||||||
keyword if
|
keyword if
|
||||||
Identifier yet-another-condition
|
FunctionCallOrIdentifier
|
||||||
|
Identifier yet-another-condition
|
||||||
colon :
|
colon :
|
||||||
Block
|
Block
|
||||||
FunctionCallOrIdentifier
|
FunctionCallOrIdentifier
|
||||||
|
|
@ -173,7 +180,7 @@ describe('if/else if/else', () => {
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('parses function calls in if tests', () => {
|
test("parses paren'd function calls in if tests", () => {
|
||||||
expect(`if (var? 'abc'): true end`).toMatchTree(`
|
expect(`if (var? 'abc'): true end`).toMatchTree(`
|
||||||
IfExpr
|
IfExpr
|
||||||
keyword if
|
keyword if
|
||||||
|
|
@ -214,7 +221,7 @@ describe('if/else if/else', () => {
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('parses function calls in else-if tests', () => {
|
test("parses paren'd function calls in else-if tests", () => {
|
||||||
expect(`if false: true else if (var? 'abc'): true end`).toMatchTree(`
|
expect(`if false: true else if (var? 'abc'): true end`).toMatchTree(`
|
||||||
IfExpr
|
IfExpr
|
||||||
keyword if
|
keyword if
|
||||||
|
|
|
||||||
58
src/parser/tests/destructuring.test.ts
Normal file
58
src/parser/tests/destructuring.test.ts
Normal file
|
|
@ -0,0 +1,58 @@
|
||||||
|
import { expect, describe, test } from 'bun:test'
|
||||||
|
|
||||||
|
import '../shrimp.grammar' // Importing this so changes cause it to retest!
|
||||||
|
|
||||||
|
describe('Array destructuring', () => {
|
||||||
|
test('parses array pattern with two variables', () => {
|
||||||
|
expect('[ a b ] = [ 1 2 3 4]').toMatchTree(`
|
||||||
|
Assign
|
||||||
|
Array
|
||||||
|
Identifier a
|
||||||
|
Identifier b
|
||||||
|
Eq =
|
||||||
|
Array
|
||||||
|
Number 1
|
||||||
|
Number 2
|
||||||
|
Number 3
|
||||||
|
Number 4`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('parses array pattern with one variable', () => {
|
||||||
|
expect('[ x ] = [ 42 ]').toMatchTree(`
|
||||||
|
Assign
|
||||||
|
Array
|
||||||
|
Identifier x
|
||||||
|
Eq =
|
||||||
|
Array
|
||||||
|
Number 42`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('parses array pattern with emoji identifiers', () => {
|
||||||
|
expect('[ 🚀 💎 ] = [ 1 2 ]').toMatchTree(`
|
||||||
|
Assign
|
||||||
|
Array
|
||||||
|
Identifier 🚀
|
||||||
|
Identifier 💎
|
||||||
|
Eq =
|
||||||
|
Array
|
||||||
|
Number 1
|
||||||
|
Number 2`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('works with dotget', () => {
|
||||||
|
expect('[ a ] = [ [1 2 3] ]; a.1').toMatchTree(`
|
||||||
|
Assign
|
||||||
|
Array
|
||||||
|
Identifier a
|
||||||
|
Eq =
|
||||||
|
Array
|
||||||
|
Array
|
||||||
|
Number 1
|
||||||
|
Number 2
|
||||||
|
Number 3
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
DotGet
|
||||||
|
IdentifierBeforeDot a
|
||||||
|
Number 1`)
|
||||||
|
})
|
||||||
|
})
|
||||||
|
|
@ -1,6 +1,44 @@
|
||||||
import { describe, test, expect } from 'bun:test'
|
import { describe, test, expect } from 'bun:test'
|
||||||
import '../../testSetup'
|
import '../../testSetup'
|
||||||
|
|
||||||
|
describe('DotGet whitespace sensitivity', () => {
|
||||||
|
test('no whitespace - DotGet works when identifier in scope', () => {
|
||||||
|
expect('basename = 5; basename.prop').toMatchTree(`
|
||||||
|
Assign
|
||||||
|
AssignableIdentifier basename
|
||||||
|
Eq =
|
||||||
|
Number 5
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
DotGet
|
||||||
|
IdentifierBeforeDot basename
|
||||||
|
Identifier prop`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('space before dot - NOT DotGet, parses as division', () => {
|
||||||
|
expect('basename = 5; basename / prop').toMatchTree(`
|
||||||
|
Assign
|
||||||
|
AssignableIdentifier basename
|
||||||
|
Eq =
|
||||||
|
Number 5
|
||||||
|
BinOp
|
||||||
|
Identifier basename
|
||||||
|
Slash /
|
||||||
|
Identifier prop`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('dot followed by slash is Word, not DotGet', () => {
|
||||||
|
expect('basename ./cool').toMatchTree(`
|
||||||
|
FunctionCall
|
||||||
|
Identifier basename
|
||||||
|
PositionalArg
|
||||||
|
Word ./cool`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('identifier not in scope with dot becomes Word', () => {
|
||||||
|
expect('readme.txt').toMatchTree(`Word readme.txt`)
|
||||||
|
})
|
||||||
|
})
|
||||||
|
|
||||||
describe('DotGet', () => {
|
describe('DotGet', () => {
|
||||||
test('readme.txt is Word when readme not in scope', () => {
|
test('readme.txt is Word when readme not in scope', () => {
|
||||||
expect('readme.txt').toMatchTree(`Word readme.txt`)
|
expect('readme.txt').toMatchTree(`Word readme.txt`)
|
||||||
|
|
@ -199,7 +237,7 @@ end`).toMatchTree(`
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
test("dot get doesn't work with spaces", () => {
|
test.skip("dot get doesn't work with spaces", () => {
|
||||||
expect('obj . prop').toMatchTree(`
|
expect('obj . prop').toMatchTree(`
|
||||||
FunctionCall
|
FunctionCall
|
||||||
Identifier obj
|
Identifier obj
|
||||||
|
|
|
||||||
|
|
@ -139,11 +139,24 @@ describe('try/catch/finally/throw', () => {
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
|
test('parses throw statement with BinOp', () => {
|
||||||
|
expect("throw 'error message:' + msg").toMatchTree(`
|
||||||
|
Throw
|
||||||
|
keyword throw
|
||||||
|
BinOp
|
||||||
|
String
|
||||||
|
StringFragment error message:
|
||||||
|
Plus +
|
||||||
|
Identifier msg
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
test('parses throw statement with identifier', () => {
|
test('parses throw statement with identifier', () => {
|
||||||
expect('throw error-object').toMatchTree(`
|
expect('throw error-object').toMatchTree(`
|
||||||
Throw
|
Throw
|
||||||
keyword throw
|
keyword throw
|
||||||
Identifier error-object
|
FunctionCallOrIdentifier
|
||||||
|
Identifier error-object
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
|
|
|
||||||
|
|
@ -43,6 +43,58 @@ describe('calling functions', () => {
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
|
test('call with function', () => {
|
||||||
|
expect(`tail do x: x end`).toMatchTree(`
|
||||||
|
FunctionCall
|
||||||
|
Identifier tail
|
||||||
|
PositionalArg
|
||||||
|
FunctionDef
|
||||||
|
Do do
|
||||||
|
Params
|
||||||
|
Identifier x
|
||||||
|
colon :
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
Identifier x
|
||||||
|
keyword end
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('call with arg and function', () => {
|
||||||
|
expect(`tail true do x: x end`).toMatchTree(`
|
||||||
|
FunctionCall
|
||||||
|
Identifier tail
|
||||||
|
PositionalArg
|
||||||
|
Boolean true
|
||||||
|
PositionalArg
|
||||||
|
FunctionDef
|
||||||
|
Do do
|
||||||
|
Params
|
||||||
|
Identifier x
|
||||||
|
colon :
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
Identifier x
|
||||||
|
keyword end
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('call with function in named arg', () => {
|
||||||
|
expect(`tail callback=do x: x end`).toMatchTree(`
|
||||||
|
FunctionCall
|
||||||
|
Identifier tail
|
||||||
|
NamedArg
|
||||||
|
NamedArgPrefix callback=
|
||||||
|
FunctionDef
|
||||||
|
Do do
|
||||||
|
Params
|
||||||
|
Identifier x
|
||||||
|
colon :
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
Identifier x
|
||||||
|
keyword end
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
|
|
||||||
test('command with arg that is also a command', () => {
|
test('command with arg that is also a command', () => {
|
||||||
expect('tail tail').toMatchTree(`
|
expect('tail tail').toMatchTree(`
|
||||||
FunctionCall
|
FunctionCall
|
||||||
|
|
@ -57,13 +109,13 @@ describe('calling functions', () => {
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('Incomplete namedArg', () => {
|
test.skip('Incomplete namedArg', () => {
|
||||||
expect('tail lines=').toMatchTree(`
|
expect('tail lines=').toMatchTree(`
|
||||||
FunctionCall
|
FunctionCall
|
||||||
Identifier tail
|
Identifier tail
|
||||||
NamedArg
|
NamedArg
|
||||||
NamedArgPrefix lines=
|
NamedArgPrefix lines=
|
||||||
⚠
|
⚠
|
||||||
⚠ `)
|
⚠ `)
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
@ -73,7 +125,7 @@ describe('Do', () => {
|
||||||
expect('do: 1 end').toMatchTree(`
|
expect('do: 1 end').toMatchTree(`
|
||||||
FunctionDef
|
FunctionDef
|
||||||
Do do
|
Do do
|
||||||
Params
|
Params
|
||||||
colon :
|
colon :
|
||||||
Number 1
|
Number 1
|
||||||
keyword end`)
|
keyword end`)
|
||||||
|
|
|
||||||
34
src/parser/tests/import.test.ts
Normal file
34
src/parser/tests/import.test.ts
Normal file
|
|
@ -0,0 +1,34 @@
|
||||||
|
import { expect, describe, test } from 'bun:test'
|
||||||
|
|
||||||
|
import '../shrimp.grammar' // Importing this so changes cause it to retest!
|
||||||
|
|
||||||
|
describe('import', () => {
|
||||||
|
test('parses single import', () => {
|
||||||
|
expect(`import str`).toMatchTree(`
|
||||||
|
Import
|
||||||
|
keyword import
|
||||||
|
Identifier str
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('parses multiple imports', () => {
|
||||||
|
expect(`import str math list`).toMatchTree(`
|
||||||
|
Import
|
||||||
|
keyword import
|
||||||
|
Identifier str
|
||||||
|
Identifier math
|
||||||
|
Identifier list
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('parses named args', () => {
|
||||||
|
expect(`import str only=ends-with?`).toMatchTree(`
|
||||||
|
Import
|
||||||
|
keyword import
|
||||||
|
Identifier str
|
||||||
|
NamedArg
|
||||||
|
NamedArgPrefix only=
|
||||||
|
Identifier ends-with?
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
})
|
||||||
|
|
@ -336,6 +336,22 @@ describe('dict literals', () => {
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
|
test('work with functions', () => {
|
||||||
|
expect(`[trap=do x: x end]`).toMatchTree(`
|
||||||
|
Dict
|
||||||
|
NamedArg
|
||||||
|
NamedArgPrefix trap=
|
||||||
|
FunctionDef
|
||||||
|
Do do
|
||||||
|
Params
|
||||||
|
Identifier x
|
||||||
|
colon :
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
Identifier x
|
||||||
|
keyword end
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
test('can be nested', () => {
|
test('can be nested', () => {
|
||||||
expect('[a=one b=[two [c=three]]]').toMatchTree(`
|
expect('[a=one b=[two [c=three]]]').toMatchTree(`
|
||||||
Dict
|
Dict
|
||||||
|
|
@ -375,10 +391,11 @@ describe('dict literals', () => {
|
||||||
expect('[=]').toMatchTree(`
|
expect('[=]').toMatchTree(`
|
||||||
Dict [=]
|
Dict [=]
|
||||||
`)
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('empty dict w whitespace', () => {
|
||||||
expect('[ = ]').toMatchTree(`
|
expect('[ = ]').toMatchTree(`
|
||||||
Array
|
Dict [ = ]
|
||||||
Word =
|
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
|
|
|
||||||
|
|
@ -76,12 +76,12 @@ end
|
||||||
expect(`
|
expect(`
|
||||||
do:
|
do:
|
||||||
2
|
2
|
||||||
|
|
||||||
end
|
end
|
||||||
`).toMatchTree(`
|
`).toMatchTree(`
|
||||||
FunctionDef
|
FunctionDef
|
||||||
Do do
|
Do do
|
||||||
Params
|
Params
|
||||||
colon :
|
colon :
|
||||||
Number 2
|
Number 2
|
||||||
keyword end
|
keyword end
|
||||||
|
|
|
||||||
|
|
@ -176,6 +176,43 @@ describe('pipe expressions', () => {
|
||||||
Identifier echo
|
Identifier echo
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
|
|
||||||
|
test('parenthesized expressions can be piped', () => {
|
||||||
|
expect(`(1 + 2) | echo`).toMatchTree(`
|
||||||
|
PipeExpr
|
||||||
|
ParenExpr
|
||||||
|
BinOp
|
||||||
|
Number 1
|
||||||
|
Plus +
|
||||||
|
Number 2
|
||||||
|
operator |
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
Identifier echo
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('complex parenthesized expressions with pipes', () => {
|
||||||
|
expect(`((math.random) * 10 + 1) | math.floor`).toMatchTree(`
|
||||||
|
PipeExpr
|
||||||
|
ParenExpr
|
||||||
|
BinOp
|
||||||
|
BinOp
|
||||||
|
ParenExpr
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
DotGet
|
||||||
|
IdentifierBeforeDot math
|
||||||
|
Identifier random
|
||||||
|
Star *
|
||||||
|
Number 10
|
||||||
|
Plus +
|
||||||
|
Number 1
|
||||||
|
operator |
|
||||||
|
FunctionCallOrIdentifier
|
||||||
|
DotGet
|
||||||
|
IdentifierBeforeDot math
|
||||||
|
Identifier floor
|
||||||
|
`)
|
||||||
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
describe('pipe continuation', () => {
|
describe('pipe continuation', () => {
|
||||||
|
|
@ -295,10 +332,10 @@ grep h`).toMatchTree(`
|
||||||
|
|
||||||
test('lots of pipes', () => {
|
test('lots of pipes', () => {
|
||||||
expect(`
|
expect(`
|
||||||
'this should help readability in long chains'
|
'this should help readability in long chains'
|
||||||
| split ' '
|
| split ' '
|
||||||
| map (ref str.to-upper)
|
| map (ref str.to-upper)
|
||||||
| join '-'
|
| join '-'
|
||||||
| echo
|
| echo
|
||||||
`).toMatchTree(`
|
`).toMatchTree(`
|
||||||
PipeExpr
|
PipeExpr
|
||||||
|
|
@ -309,7 +346,7 @@ grep h`).toMatchTree(`
|
||||||
Identifier split
|
Identifier split
|
||||||
PositionalArg
|
PositionalArg
|
||||||
String
|
String
|
||||||
StringFragment
|
StringFragment (space)
|
||||||
operator |
|
operator |
|
||||||
FunctionCall
|
FunctionCall
|
||||||
Identifier map
|
Identifier map
|
||||||
|
|
@ -333,3 +370,41 @@ grep h`).toMatchTree(`
|
||||||
`)
|
`)
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
|
describe('Underscore', () => {
|
||||||
|
test('works in pipes', () => {
|
||||||
|
expect(`sub 3 1 | div (sub 110 9 | sub 1) _ | div 5`).toMatchTree(`
|
||||||
|
PipeExpr
|
||||||
|
FunctionCall
|
||||||
|
Identifier sub
|
||||||
|
PositionalArg
|
||||||
|
Number 3
|
||||||
|
PositionalArg
|
||||||
|
Number 1
|
||||||
|
operator |
|
||||||
|
FunctionCall
|
||||||
|
Identifier div
|
||||||
|
PositionalArg
|
||||||
|
ParenExpr
|
||||||
|
PipeExpr
|
||||||
|
FunctionCall
|
||||||
|
Identifier sub
|
||||||
|
PositionalArg
|
||||||
|
Number 110
|
||||||
|
PositionalArg
|
||||||
|
Number 9
|
||||||
|
operator |
|
||||||
|
FunctionCall
|
||||||
|
Identifier sub
|
||||||
|
PositionalArg
|
||||||
|
Number 1
|
||||||
|
PositionalArg
|
||||||
|
Underscore _
|
||||||
|
operator |
|
||||||
|
FunctionCall
|
||||||
|
Identifier div
|
||||||
|
PositionalArg
|
||||||
|
Number 5
|
||||||
|
`)
|
||||||
|
})
|
||||||
|
})
|
||||||
|
|
@ -15,7 +15,10 @@ describe('numbers', () => {
|
||||||
test('non-numbers', () => {
|
test('non-numbers', () => {
|
||||||
expect(`1st`).toMatchToken('Word', '1st')
|
expect(`1st`).toMatchToken('Word', '1st')
|
||||||
expect(`1_`).toMatchToken('Word', '1_')
|
expect(`1_`).toMatchToken('Word', '1_')
|
||||||
expect(`100.`).toMatchToken('Word', '100.')
|
expect(`100.`).toMatchTokens(
|
||||||
|
{ type: 'Number', value: '100' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('simple numbers', () => {
|
test('simple numbers', () => {
|
||||||
|
|
@ -127,6 +130,19 @@ describe('identifiers', () => {
|
||||||
expect('dog#pound').toMatchToken('Word', 'dog#pound')
|
expect('dog#pound').toMatchToken('Word', 'dog#pound')
|
||||||
expect('http://website.com').toMatchToken('Word', 'http://website.com')
|
expect('http://website.com').toMatchToken('Word', 'http://website.com')
|
||||||
expect('school$cool').toMatchToken('Identifier', 'school$cool')
|
expect('school$cool').toMatchToken('Identifier', 'school$cool')
|
||||||
|
expect('EXIT:').toMatchTokens(
|
||||||
|
{ type: 'Word', value: 'EXIT' },
|
||||||
|
{ type: 'Colon' },
|
||||||
|
)
|
||||||
|
expect(`if y == 1: 'cool' end`).toMatchTokens(
|
||||||
|
{ type: 'Keyword', value: 'if' },
|
||||||
|
{ type: 'Identifier', value: 'y' },
|
||||||
|
{ type: 'Operator', value: '==' },
|
||||||
|
{ type: 'Number', value: '1' },
|
||||||
|
{ type: 'Colon' },
|
||||||
|
{ type: 'String', value: `'cool'` },
|
||||||
|
{ type: 'Keyword', value: 'end' },
|
||||||
|
)
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
|
|
@ -139,8 +155,15 @@ describe('paths', () => {
|
||||||
expect('/home/chris/dev').toMatchToken('Word', '/home/chris/dev')
|
expect('/home/chris/dev').toMatchToken('Word', '/home/chris/dev')
|
||||||
})
|
})
|
||||||
|
|
||||||
test('ending with ext', () => {
|
test('identifiers with dots tokenize separately', () => {
|
||||||
expect('readme.txt').toMatchToken('Word', 'readme.txt')
|
expect('readme.txt').toMatchTokens(
|
||||||
|
{ type: 'Identifier', value: 'readme' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'Identifier', value: 'txt' },
|
||||||
|
)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('words (non-identifiers) consume dots', () => {
|
||||||
expect('README.md').toMatchToken('Word', 'README.md')
|
expect('README.md').toMatchToken('Word', 'README.md')
|
||||||
})
|
})
|
||||||
|
|
||||||
|
|
@ -259,6 +282,9 @@ describe('operators', () => {
|
||||||
expect('==').toMatchToken('Operator', '==')
|
expect('==').toMatchToken('Operator', '==')
|
||||||
expect('>').toMatchToken('Operator', '>')
|
expect('>').toMatchToken('Operator', '>')
|
||||||
expect('<').toMatchToken('Operator', '<')
|
expect('<').toMatchToken('Operator', '<')
|
||||||
|
|
||||||
|
// property access
|
||||||
|
expect('.').toMatchToken('Operator', '.')
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
|
|
@ -281,6 +307,12 @@ describe('keywords', () => {
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
|
describe('regex', () => {
|
||||||
|
test('use double slash', () => {
|
||||||
|
expect(`//[0-9]+//`).toMatchToken('Regex', '//[0-9]+//')
|
||||||
|
})
|
||||||
|
})
|
||||||
|
|
||||||
describe('punctuation', () => {
|
describe('punctuation', () => {
|
||||||
test('underscore', () => {
|
test('underscore', () => {
|
||||||
expect(`_`).toBeToken('Underscore')
|
expect(`_`).toBeToken('Underscore')
|
||||||
|
|
@ -453,6 +485,17 @@ f
|
||||||
{ type: 'Identifier', value: 'y' },
|
{ type: 'Identifier', value: 'y' },
|
||||||
)
|
)
|
||||||
|
|
||||||
|
|
||||||
|
expect(`if (var? 'abc'): y`).toMatchTokens(
|
||||||
|
{ type: 'Keyword', value: 'if' },
|
||||||
|
{ type: 'OpenParen' },
|
||||||
|
{ type: 'Identifier', value: 'var?' },
|
||||||
|
{ type: 'String', value: `'abc'` },
|
||||||
|
{ type: 'CloseParen' },
|
||||||
|
{ type: 'Colon' },
|
||||||
|
{ type: 'Identifier', value: 'y' },
|
||||||
|
)
|
||||||
|
|
||||||
expect(`
|
expect(`
|
||||||
do x:
|
do x:
|
||||||
y
|
y
|
||||||
|
|
@ -485,6 +528,30 @@ end`).toMatchTokens(
|
||||||
{ type: 'CloseParen' },
|
{ type: 'CloseParen' },
|
||||||
)
|
)
|
||||||
})
|
})
|
||||||
|
|
||||||
|
test('dot operator beginning word with slash', () => {
|
||||||
|
expect(`(basename ./cool)`).toMatchTokens(
|
||||||
|
{ 'type': 'OpenParen' },
|
||||||
|
{ 'type': 'Identifier', 'value': 'basename' },
|
||||||
|
{ 'type': 'Word', 'value': './cool' },
|
||||||
|
{ 'type': 'CloseParen' }
|
||||||
|
)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('dot word after identifier with space', () => {
|
||||||
|
expect(`expand-path .git`).toMatchTokens(
|
||||||
|
{ 'type': 'Identifier', 'value': 'expand-path' },
|
||||||
|
{ 'type': 'Word', 'value': '.git' },
|
||||||
|
)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('dot operator after identifier without space', () => {
|
||||||
|
expect(`config.path`).toMatchTokens(
|
||||||
|
{ 'type': 'Identifier', 'value': 'config' },
|
||||||
|
{ 'type': 'Operator', 'value': '.' },
|
||||||
|
{ 'type': 'Identifier', 'value': 'path' },
|
||||||
|
)
|
||||||
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
describe('nesting edge cases', () => {
|
describe('nesting edge cases', () => {
|
||||||
|
|
@ -590,4 +657,73 @@ describe('named args', () => {
|
||||||
{ type: 'Identifier', value: 'arg' },
|
{ type: 'Identifier', value: 'arg' },
|
||||||
)
|
)
|
||||||
})
|
})
|
||||||
|
})
|
||||||
|
|
||||||
|
describe('dot operator', () => {
|
||||||
|
test('standalone dot', () => {
|
||||||
|
expect('.').toMatchToken('Operator', '.')
|
||||||
|
})
|
||||||
|
|
||||||
|
test('dot between identifiers tokenizes as separate tokens', () => {
|
||||||
|
expect('config.path').toMatchTokens(
|
||||||
|
{ type: 'Identifier', value: 'config' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'Identifier', value: 'path' },
|
||||||
|
)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('dot with number', () => {
|
||||||
|
expect('array.0').toMatchTokens(
|
||||||
|
{ type: 'Identifier', value: 'array' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'Number', value: '0' },
|
||||||
|
)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('chained dots', () => {
|
||||||
|
expect('a.b.c').toMatchTokens(
|
||||||
|
{ type: 'Identifier', value: 'a' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'Identifier', value: 'b' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'Identifier', value: 'c' },
|
||||||
|
)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('identifier-like paths tokenize separately', () => {
|
||||||
|
expect('readme.txt').toMatchTokens(
|
||||||
|
{ type: 'Identifier', value: 'readme' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'Identifier', value: 'txt' },
|
||||||
|
)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('word-like paths remain as single token', () => {
|
||||||
|
expect('./file.txt').toMatchToken('Word', './file.txt')
|
||||||
|
expect('README.TXT').toMatchToken('Word', 'README.TXT')
|
||||||
|
})
|
||||||
|
|
||||||
|
test('dot with paren expression', () => {
|
||||||
|
expect('obj.(1 + 2)').toMatchTokens(
|
||||||
|
{ type: 'Identifier', value: 'obj' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'OpenParen' },
|
||||||
|
{ type: 'Number', value: '1' },
|
||||||
|
{ type: 'Operator', value: '+' },
|
||||||
|
{ type: 'Number', value: '2' },
|
||||||
|
{ type: 'CloseParen' },
|
||||||
|
)
|
||||||
|
})
|
||||||
|
|
||||||
|
test('chained dot with paren expression', () => {
|
||||||
|
expect('obj.items.(i)').toMatchTokens(
|
||||||
|
{ type: 'Identifier', value: 'obj' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'Identifier', value: 'items' },
|
||||||
|
{ type: 'Operator', value: '.' },
|
||||||
|
{ type: 'OpenParen' },
|
||||||
|
{ type: 'Identifier', value: 'i' },
|
||||||
|
{ type: 'CloseParen' },
|
||||||
|
)
|
||||||
|
})
|
||||||
})
|
})
|
||||||
|
|
@ -31,13 +31,15 @@ export enum TokenType {
|
||||||
Boolean,
|
Boolean,
|
||||||
Number,
|
Number,
|
||||||
String,
|
String,
|
||||||
|
Regex,
|
||||||
}
|
}
|
||||||
|
|
||||||
const valueTokens = new Set([
|
const valueTokens = new Set([
|
||||||
TokenType.Comment,
|
TokenType.Comment,
|
||||||
TokenType.Keyword, TokenType.Operator,
|
TokenType.Keyword, TokenType.Operator,
|
||||||
TokenType.Identifier, TokenType.Word, TokenType.NamedArgPrefix,
|
TokenType.Identifier, TokenType.Word, TokenType.NamedArgPrefix,
|
||||||
TokenType.Boolean, TokenType.Number, TokenType.String
|
TokenType.Boolean, TokenType.Number, TokenType.String, TokenType.Regex,
|
||||||
|
TokenType.Underscore
|
||||||
])
|
])
|
||||||
|
|
||||||
const operators = new Set([
|
const operators = new Set([
|
||||||
|
|
@ -67,7 +69,7 @@ const operators = new Set([
|
||||||
// nullish
|
// nullish
|
||||||
'??',
|
'??',
|
||||||
|
|
||||||
// math
|
// math
|
||||||
'**',
|
'**',
|
||||||
'*',
|
'*',
|
||||||
'/',
|
'/',
|
||||||
|
|
@ -82,6 +84,12 @@ const operators = new Set([
|
||||||
'==',
|
'==',
|
||||||
'>',
|
'>',
|
||||||
'<',
|
'<',
|
||||||
|
|
||||||
|
// property access
|
||||||
|
'.',
|
||||||
|
|
||||||
|
// pipe
|
||||||
|
'|',
|
||||||
])
|
])
|
||||||
|
|
||||||
const keywords = new Set([
|
const keywords = new Set([
|
||||||
|
|
@ -116,6 +124,7 @@ export class Scanner {
|
||||||
inParen = 0
|
inParen = 0
|
||||||
inBracket = 0
|
inBracket = 0
|
||||||
tokens: Token[] = []
|
tokens: Token[] = []
|
||||||
|
prevIsWhitespace = true
|
||||||
|
|
||||||
reset() {
|
reset() {
|
||||||
this.input = ''
|
this.input = ''
|
||||||
|
|
@ -124,6 +133,7 @@ export class Scanner {
|
||||||
this.char = 0
|
this.char = 0
|
||||||
this.prev = 0
|
this.prev = 0
|
||||||
this.tokens.length = 0
|
this.tokens.length = 0
|
||||||
|
this.prevIsWhitespace = true
|
||||||
}
|
}
|
||||||
|
|
||||||
peek(count = 0): number {
|
peek(count = 0): number {
|
||||||
|
|
@ -131,9 +141,11 @@ export class Scanner {
|
||||||
}
|
}
|
||||||
|
|
||||||
next(): number {
|
next(): number {
|
||||||
|
this.prevIsWhitespace = isWhitespace(this.char)
|
||||||
this.prev = this.char
|
this.prev = this.char
|
||||||
this.char = this.peek()
|
this.char = this.peek()
|
||||||
this.pos += getCharSize(this.char)
|
this.pos += getCharSize(this.char)
|
||||||
|
|
||||||
return this.char
|
return this.char
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
@ -156,6 +168,10 @@ export class Scanner {
|
||||||
this.start = this.pos
|
this.start = this.pos
|
||||||
}
|
}
|
||||||
|
|
||||||
|
pushChar(type: TokenType) {
|
||||||
|
this.push(type, this.pos - 1, this.pos)
|
||||||
|
}
|
||||||
|
|
||||||
// turn shrimp code into shrimp tokens that get fed into the parser
|
// turn shrimp code into shrimp tokens that get fed into the parser
|
||||||
tokenize(input: string): Token[] {
|
tokenize(input: string): Token[] {
|
||||||
this.reset()
|
this.reset()
|
||||||
|
|
@ -164,6 +180,7 @@ export class Scanner {
|
||||||
|
|
||||||
while (this.char > 0) {
|
while (this.char > 0) {
|
||||||
const char = this.char
|
const char = this.char
|
||||||
|
|
||||||
if (char === c`#`) {
|
if (char === c`#`) {
|
||||||
this.readComment()
|
this.readComment()
|
||||||
continue
|
continue
|
||||||
|
|
@ -185,7 +202,7 @@ export class Scanner {
|
||||||
}
|
}
|
||||||
|
|
||||||
if (isIdentStart(char)) {
|
if (isIdentStart(char)) {
|
||||||
this.readIdentOrKeyword()
|
this.readWordOrIdent(true) // true = started with identifier char
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
@ -195,25 +212,39 @@ export class Scanner {
|
||||||
}
|
}
|
||||||
|
|
||||||
if (char === c`:`) {
|
if (char === c`:`) {
|
||||||
this.push(TokenType.Colon, this.start - 1, this.pos) // TODO: why?
|
this.pushChar(TokenType.Colon)
|
||||||
this.next()
|
this.next()
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// whitespace-sensitive dot as operator (property access) only after identifier/number
|
||||||
|
if (char === c`.`) {
|
||||||
|
if (this.canBeDotGet(this.tokens.at(-1))) {
|
||||||
|
this.pushChar(TokenType.Operator)
|
||||||
|
this.next()
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
if (char === c`/` && this.peek() === c`/`) {
|
||||||
|
this.readRegex()
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
if (isWordChar(char)) {
|
if (isWordChar(char)) {
|
||||||
this.readWord()
|
this.readWordOrIdent(false) // false = didn't start with identifier char
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
||||||
if (char === c`\n`) {
|
if (char === c`\n`) {
|
||||||
if (this.inParen === 0 && this.inBracket === 0)
|
if (this.inParen === 0 && this.inBracket === 0)
|
||||||
this.push(TokenType.Newline)
|
this.pushChar(TokenType.Newline)
|
||||||
this.next()
|
this.next()
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
||||||
if (char === c`;`) {
|
if (char === c`;`) {
|
||||||
this.push(TokenType.Semicolon)
|
this.pushChar(TokenType.Semicolon)
|
||||||
this.next()
|
this.next()
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
@ -225,6 +256,7 @@ export class Scanner {
|
||||||
}
|
}
|
||||||
|
|
||||||
readComment() {
|
readComment() {
|
||||||
|
this.start = this.pos - 1
|
||||||
while (this.char !== c`\n` && this.char > 0) this.next()
|
while (this.char !== c`\n` && this.char > 0) this.next()
|
||||||
this.push(TokenType.Comment)
|
this.push(TokenType.Comment)
|
||||||
}
|
}
|
||||||
|
|
@ -233,16 +265,16 @@ export class Scanner {
|
||||||
switch (this.char) {
|
switch (this.char) {
|
||||||
case c`(`:
|
case c`(`:
|
||||||
this.inParen++
|
this.inParen++
|
||||||
this.push(TokenType.OpenParen); break
|
this.pushChar(TokenType.OpenParen); break
|
||||||
case c`)`:
|
case c`)`:
|
||||||
this.inParen--
|
this.inParen--
|
||||||
this.push(TokenType.CloseParen); break
|
this.pushChar(TokenType.CloseParen); break
|
||||||
case c`[`:
|
case c`[`:
|
||||||
this.inBracket++
|
this.inBracket++
|
||||||
this.push(TokenType.OpenBracket); break
|
this.pushChar(TokenType.OpenBracket); break
|
||||||
case c`]`:
|
case c`]`:
|
||||||
this.inBracket--
|
this.inBracket--
|
||||||
this.push(TokenType.CloseBracket); break
|
this.pushChar(TokenType.CloseBracket); break
|
||||||
}
|
}
|
||||||
this.next()
|
this.next()
|
||||||
}
|
}
|
||||||
|
|
@ -258,6 +290,7 @@ export class Scanner {
|
||||||
}
|
}
|
||||||
|
|
||||||
readCurlyString() {
|
readCurlyString() {
|
||||||
|
this.start = this.pos - 1
|
||||||
let depth = 1
|
let depth = 1
|
||||||
this.next()
|
this.next()
|
||||||
|
|
||||||
|
|
@ -270,7 +303,7 @@ export class Scanner {
|
||||||
this.push(TokenType.String)
|
this.push(TokenType.String)
|
||||||
}
|
}
|
||||||
|
|
||||||
readIdentOrKeyword() {
|
readWordOrIdent(startedWithIdentChar: boolean) {
|
||||||
this.start = this.pos - getCharSize(this.char)
|
this.start = this.pos - getCharSize(this.char)
|
||||||
|
|
||||||
while (isWordChar(this.char)) {
|
while (isWordChar(this.char)) {
|
||||||
|
|
@ -280,33 +313,50 @@ export class Scanner {
|
||||||
if (isWhitespace(nextCh) || nextCh === 0) break
|
if (isWhitespace(nextCh) || nextCh === 0) break
|
||||||
}
|
}
|
||||||
|
|
||||||
// stop at equal sign (named arg)
|
// stop at equal sign (named arg) - but only if what we've read so far is an identifier
|
||||||
if (this.char === c`=`) {
|
if (this.char === c`=`) {
|
||||||
this.next()
|
const soFar = this.input.slice(this.start, this.pos - getCharSize(this.char))
|
||||||
break
|
if (isIdentifer(soFar)) {
|
||||||
|
this.next()
|
||||||
|
break
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// stop at dot only if it would create a valid property access
|
||||||
|
// AND only if we started with an identifier character (not for Words like README.txt)
|
||||||
|
if (startedWithIdentChar && this.char === c`.`) {
|
||||||
|
const nextCh = this.peek()
|
||||||
|
if (isIdentStart(nextCh) || isDigit(nextCh) || nextCh === c`(`) {
|
||||||
|
const soFar = this.input.slice(this.start, this.pos - getCharSize(this.char))
|
||||||
|
if (isIdentifer(soFar)) break
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
this.next()
|
this.next()
|
||||||
}
|
}
|
||||||
|
|
||||||
const ident = this.input.slice(this.start, this.pos - getCharSize(this.char))
|
const word = this.input.slice(this.start, this.pos - getCharSize(this.char))
|
||||||
|
|
||||||
if (ident === 'null')
|
// classify the token based on what we read
|
||||||
|
if (word === '_')
|
||||||
|
this.push(TokenType.Underscore)
|
||||||
|
|
||||||
|
else if (word === 'null')
|
||||||
this.push(TokenType.Null)
|
this.push(TokenType.Null)
|
||||||
|
|
||||||
else if (ident === 'true' || ident === 'false')
|
else if (word === 'true' || word === 'false')
|
||||||
this.push(TokenType.Boolean)
|
this.push(TokenType.Boolean)
|
||||||
|
|
||||||
else if (isKeyword(ident))
|
else if (isKeyword(word))
|
||||||
this.push(TokenType.Keyword)
|
this.push(TokenType.Keyword)
|
||||||
|
|
||||||
else if (isOperator(ident))
|
else if (isOperator(word))
|
||||||
this.push(TokenType.Operator) // only things like `and` and `or`
|
this.push(TokenType.Operator)
|
||||||
|
|
||||||
else if (isIdentifer(ident))
|
else if (isIdentifer(word))
|
||||||
this.push(TokenType.Identifier)
|
this.push(TokenType.Identifier)
|
||||||
|
|
||||||
else if (ident.endsWith('='))
|
else if (word.endsWith('='))
|
||||||
this.push(TokenType.NamedArgPrefix)
|
this.push(TokenType.NamedArgPrefix)
|
||||||
|
|
||||||
else
|
else
|
||||||
|
|
@ -316,6 +366,12 @@ export class Scanner {
|
||||||
readNumber() {
|
readNumber() {
|
||||||
this.start = this.pos - 1
|
this.start = this.pos - 1
|
||||||
while (isWordChar(this.char)) {
|
while (isWordChar(this.char)) {
|
||||||
|
// stop at dot unless it's part of the number
|
||||||
|
if (this.char === c`.`) {
|
||||||
|
const nextCh = this.peek()
|
||||||
|
if (!isDigit(nextCh)) break
|
||||||
|
}
|
||||||
|
|
||||||
// stop at colon
|
// stop at colon
|
||||||
if (this.char === c`:`) {
|
if (this.char === c`:`) {
|
||||||
const nextCh = this.peek()
|
const nextCh = this.peek()
|
||||||
|
|
@ -327,21 +383,49 @@ export class Scanner {
|
||||||
this.push(isNumber(ident) ? TokenType.Number : TokenType.Word)
|
this.push(isNumber(ident) ? TokenType.Number : TokenType.Word)
|
||||||
}
|
}
|
||||||
|
|
||||||
readWord() {
|
readRegex() {
|
||||||
this.start = this.pos - getCharSize(this.char)
|
this.start = this.pos - 1
|
||||||
|
this.next() // skip 2nd /
|
||||||
|
|
||||||
while (isWordChar(this.char)) this.next()
|
while (this.char > 0) {
|
||||||
|
if (this.char === c`/` && this.peek() === c`/`) {
|
||||||
|
this.next() // skip /
|
||||||
|
this.next() // skip /
|
||||||
|
|
||||||
const word = this.input.slice(this.start, this.pos - getCharSize(this.char))
|
// read regex flags
|
||||||
|
while (this.char > 0 && isIdentStart(this.char))
|
||||||
|
this.next()
|
||||||
|
|
||||||
if (word === '_')
|
// validate regex
|
||||||
this.push(TokenType.Underscore)
|
const to = this.pos - getCharSize(this.char)
|
||||||
|
const regexText = this.input.slice(this.start, to)
|
||||||
|
const [_, pattern, flags] = regexText.match(/^\/\/(.*)\/\/([gimsuy]*)$/) || []
|
||||||
|
|
||||||
else if (operators.has(word))
|
if (pattern) {
|
||||||
this.push(TokenType.Operator)
|
try {
|
||||||
|
new RegExp(pattern, flags)
|
||||||
|
this.push(TokenType.Regex)
|
||||||
|
break
|
||||||
|
} catch (e) {
|
||||||
|
// invalid regex - fall through to Word
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
else
|
// invalid regex is treated as Word
|
||||||
this.push(TokenType.Word)
|
this.push(TokenType.Word)
|
||||||
|
break
|
||||||
|
}
|
||||||
|
|
||||||
|
this.next()
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
canBeDotGet(lastToken?: Token): boolean {
|
||||||
|
return !this.prevIsWhitespace && !!lastToken &&
|
||||||
|
(lastToken.type === TokenType.Identifier ||
|
||||||
|
lastToken.type === TokenType.Number ||
|
||||||
|
lastToken.type === TokenType.CloseParen ||
|
||||||
|
lastToken.type === TokenType.CloseBracket)
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
|
||||||
|
|
@ -1,90 +1,89 @@
|
||||||
import { expect, describe, test } from 'bun:test'
|
import { expect, describe, test } from 'bun:test'
|
||||||
import { globals } from '#prelude'
|
|
||||||
|
|
||||||
describe('var and var?', () => {
|
describe('var and var?', () => {
|
||||||
test('var? checks if a variable exists', async () => {
|
test('var? checks if a variable exists', async () => {
|
||||||
await expect(`var? 'nada'`).toEvaluateTo(false, globals)
|
await expect(`var? 'nada'`).toEvaluateTo(false)
|
||||||
await expect(`var? 'info'`).toEvaluateTo(false, globals)
|
await expect(`var? 'info'`).toEvaluateTo(false)
|
||||||
await expect(`abc = abc; var? 'abc'`).toEvaluateTo(true, globals)
|
await expect(`abc = abc; var? 'abc'`).toEvaluateTo(true)
|
||||||
await expect(`var? 'var?'`).toEvaluateTo(true, globals)
|
await expect(`var? 'var?'`).toEvaluateTo(true)
|
||||||
|
|
||||||
await expect(`var? 'dict'`).toEvaluateTo(true, globals)
|
await expect(`var? 'dict'`).toEvaluateTo(true)
|
||||||
await expect(`var? dict`).toEvaluateTo(true, globals)
|
await expect(`var? dict`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('var returns a value or null', async () => {
|
test('var returns a value or null', async () => {
|
||||||
await expect(`var 'nada'`).toEvaluateTo(null, globals)
|
await expect(`var 'nada'`).toEvaluateTo(null)
|
||||||
await expect(`var nada`).toEvaluateTo(null, globals)
|
await expect(`var nada`).toEvaluateTo(null)
|
||||||
await expect(`var 'info'`).toEvaluateTo(null, globals)
|
await expect(`var 'info'`).toEvaluateTo(null)
|
||||||
await expect(`abc = my-string; var 'abc'`).toEvaluateTo('my-string', globals)
|
await expect(`abc = my-string; var 'abc'`).toEvaluateTo('my-string')
|
||||||
await expect(`abc = my-string; var abc`).toEvaluateTo(null, globals)
|
await expect(`abc = my-string; var abc`).toEvaluateTo(null)
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
describe('type predicates', () => {
|
describe('type predicates', () => {
|
||||||
test('string? checks for string type', async () => {
|
test('string? checks for string type', async () => {
|
||||||
await expect(`string? 'hello'`).toEvaluateTo(true, globals)
|
await expect(`string? 'hello'`).toEvaluateTo(true)
|
||||||
await expect(`string? 42`).toEvaluateTo(false, globals)
|
await expect(`string? 42`).toEvaluateTo(false)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('number? checks for number type', async () => {
|
test('number? checks for number type', async () => {
|
||||||
await expect(`number? 42`).toEvaluateTo(true, globals)
|
await expect(`number? 42`).toEvaluateTo(true)
|
||||||
await expect(`number? 'hello'`).toEvaluateTo(false, globals)
|
await expect(`number? 'hello'`).toEvaluateTo(false)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('boolean? checks for boolean type', async () => {
|
test('boolean? checks for boolean type', async () => {
|
||||||
await expect(`boolean? true`).toEvaluateTo(true, globals)
|
await expect(`boolean? true`).toEvaluateTo(true)
|
||||||
await expect(`boolean? 42`).toEvaluateTo(false, globals)
|
await expect(`boolean? 42`).toEvaluateTo(false)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('array? checks for array type', async () => {
|
test('array? checks for array type', async () => {
|
||||||
await expect(`array? [1 2 3]`).toEvaluateTo(true, globals)
|
await expect(`array? [1 2 3]`).toEvaluateTo(true)
|
||||||
await expect(`array? 42`).toEvaluateTo(false, globals)
|
await expect(`array? 42`).toEvaluateTo(false)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('dict? checks for dict type', async () => {
|
test('dict? checks for dict type', async () => {
|
||||||
await expect(`dict? [a=1]`).toEvaluateTo(true, globals)
|
await expect(`dict? [a=1]`).toEvaluateTo(true)
|
||||||
await expect(`dict? []`).toEvaluateTo(false, globals)
|
await expect(`dict? []`).toEvaluateTo(false)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('null? checks for null type', async () => {
|
test('null? checks for null type', async () => {
|
||||||
await expect(`null? null`).toEvaluateTo(true, globals)
|
await expect(`null? null`).toEvaluateTo(true)
|
||||||
await expect(`null? 42`).toEvaluateTo(false, globals)
|
await expect(`null? 42`).toEvaluateTo(false)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('some? checks for non-null', async () => {
|
test('some? checks for non-null', async () => {
|
||||||
await expect(`some? 42`).toEvaluateTo(true, globals)
|
await expect(`some? 42`).toEvaluateTo(true)
|
||||||
await expect(`some? null`).toEvaluateTo(false, globals)
|
await expect(`some? null`).toEvaluateTo(false)
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
describe('introspection', () => {
|
describe('introspection', () => {
|
||||||
test('type returns proper types', async () => {
|
test('type returns proper types', async () => {
|
||||||
await expect(`type 'hello'`).toEvaluateTo('string', globals)
|
await expect(`type 'hello'`).toEvaluateTo('string')
|
||||||
await expect(`type 42`).toEvaluateTo('number', globals)
|
await expect(`type 42`).toEvaluateTo('number')
|
||||||
await expect(`type true`).toEvaluateTo('boolean', globals)
|
await expect(`type true`).toEvaluateTo('boolean')
|
||||||
await expect(`type false`).toEvaluateTo('boolean', globals)
|
await expect(`type false`).toEvaluateTo('boolean')
|
||||||
await expect(`type null`).toEvaluateTo('null', globals)
|
await expect(`type null`).toEvaluateTo('null')
|
||||||
await expect(`type [1 2 3]`).toEvaluateTo('array', globals)
|
await expect(`type [1 2 3]`).toEvaluateTo('array')
|
||||||
await expect(`type [a=1 b=2]`).toEvaluateTo('dict', globals)
|
await expect(`type [a=1 b=2]`).toEvaluateTo('dict')
|
||||||
})
|
})
|
||||||
|
|
||||||
test('inspect formats values', async () => {
|
test('inspect formats values', async () => {
|
||||||
await expect(`inspect 'hello'`).toEvaluateTo("\u001b[32m'hello\u001b[32m'\u001b[0m", globals)
|
await expect(`inspect 'hello'`).toEvaluateTo("\u001b[32m'hello\u001b[32m'\u001b[0m")
|
||||||
})
|
})
|
||||||
|
|
||||||
test('describe describes values', async () => {
|
test('describe describes values', async () => {
|
||||||
await expect(`describe 'hello'`).toEvaluateTo("#<string: \u001b[32m'hello\u001b[32m'\u001b[0m>", globals)
|
await expect(`describe 'hello'`).toEvaluateTo("#<string: \u001b[32m'hello\u001b[32m'\u001b[0m>")
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
||||||
describe('environment', () => {
|
describe('environment', () => {
|
||||||
test('args is an array', async () => {
|
test('args is an array', async () => {
|
||||||
await expect(`array? $.args`).toEvaluateTo(true, globals)
|
await expect(`array? $.args`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('args can be accessed', async () => {
|
test('args can be accessed', async () => {
|
||||||
await expect(`type $.args`).toEvaluateTo('array', globals)
|
await expect(`type $.args`).toEvaluateTo('array')
|
||||||
})
|
})
|
||||||
|
|
||||||
test('argv includes more than just the args', async () => {
|
test('argv includes more than just the args', async () => {
|
||||||
|
|
@ -106,35 +105,35 @@ describe('ref', () => {
|
||||||
|
|
||||||
describe('$ global dictionary', () => {
|
describe('$ global dictionary', () => {
|
||||||
test('$.args is an array', async () => {
|
test('$.args is an array', async () => {
|
||||||
await expect(`$.args | array?`).toEvaluateTo(true, globals)
|
await expect(`$.args | array?`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('$.args can be accessed', async () => {
|
test('$.args can be accessed', async () => {
|
||||||
await expect(`$.args | type`).toEvaluateTo('array', globals)
|
await expect(`$.args | type`).toEvaluateTo('array')
|
||||||
})
|
})
|
||||||
|
|
||||||
test('$.script.name is a string', async () => {
|
test('$.script.name is a string', async () => {
|
||||||
await expect(`$.script.name | string?`).toEvaluateTo(true, globals)
|
await expect(`$.script.name | string?`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('$.script.path is a string', async () => {
|
test('$.script.path is a string', async () => {
|
||||||
await expect(`$.script.path | string?`).toEvaluateTo(true, globals)
|
await expect(`$.script.path | string?`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('$.env is a dict', async () => {
|
test('$.env is a dict', async () => {
|
||||||
await expect(`$.env | dict?`).toEvaluateTo(true, globals)
|
await expect(`$.env | dict?`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('$.pid is a number', async () => {
|
test('$.pid is a number', async () => {
|
||||||
await expect(`$.pid | number?`).toEvaluateTo(true, globals)
|
await expect(`$.pid | number?`).toEvaluateTo(true)
|
||||||
await expect(`$.pid > 0`).toEvaluateTo(true, globals)
|
await expect(`$.pid > 0`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('$.cwd is a string', async () => {
|
test('$.cwd is a string', async () => {
|
||||||
await expect(`$.cwd | string?`).toEvaluateTo(true, globals)
|
await expect(`$.cwd | string?`).toEvaluateTo(true)
|
||||||
})
|
})
|
||||||
|
|
||||||
test('$.cwd returns current working directory', async () => {
|
test('$.cwd returns current working directory', async () => {
|
||||||
await expect(`$.cwd`).toEvaluateTo(process.cwd(), globals)
|
await expect(`$.cwd`).toEvaluateTo(process.cwd())
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
|
||||||
|
|
@ -1,42 +1,41 @@
|
||||||
import { expect, describe, test } from 'bun:test'
|
import { expect, describe, test } from 'bun:test'
|
||||||
import { globals } from '#prelude'
|
|
||||||
|
|
||||||
describe('loading a file', () => {
|
describe('loading a file', () => {
|
||||||
test(`imports all a file's functions`, async () => {
|
test(`imports all a file's functions`, async () => {
|
||||||
expect(`
|
expect(`
|
||||||
math = load ./src/prelude/tests/math.sh
|
math = load ./src/prelude/tests/math.sh
|
||||||
math.double 4
|
math.double 4
|
||||||
`).toEvaluateTo(8, globals)
|
`).toEvaluateTo(8)
|
||||||
|
|
||||||
expect(`
|
expect(`
|
||||||
math = load ./src/prelude/tests/math.sh
|
math = load ./src/prelude/tests/math.sh
|
||||||
math.double (math.double 4)
|
math.double (math.double 4)
|
||||||
`).toEvaluateTo(16, globals)
|
`).toEvaluateTo(16)
|
||||||
|
|
||||||
expect(`
|
expect(`
|
||||||
math = load ./src/prelude/tests/math.sh
|
math = load ./src/prelude/tests/math.sh
|
||||||
dbl = ref math.double
|
dbl = ref math.double
|
||||||
dbl (dbl 2)
|
dbl (dbl 2)
|
||||||
`).toEvaluateTo(8, globals)
|
`).toEvaluateTo(8)
|
||||||
|
|
||||||
expect(`
|
expect(`
|
||||||
math = load ./src/prelude/tests/math.sh
|
math = load ./src/prelude/tests/math.sh
|
||||||
math.pi
|
math.pi
|
||||||
`).toEvaluateTo(3.14, globals)
|
`).toEvaluateTo(3.14)
|
||||||
|
|
||||||
expect(`
|
expect(`
|
||||||
math = load ./src/prelude/tests/math.sh
|
math = load ./src/prelude/tests/math.sh
|
||||||
math | at 🥧
|
math | at 🥧
|
||||||
`).toEvaluateTo(3.14159265359, globals)
|
`).toEvaluateTo(3.14159265359)
|
||||||
|
|
||||||
expect(`
|
expect(`
|
||||||
math = load ./src/prelude/tests/math.sh
|
math = load ./src/prelude/tests/math.sh
|
||||||
math.🥧
|
math.🥧
|
||||||
`).toEvaluateTo(3.14159265359, globals)
|
`).toEvaluateTo(3.14159265359)
|
||||||
|
|
||||||
expect(`
|
expect(`
|
||||||
math = load ./src/prelude/tests/math.sh
|
math = load ./src/prelude/tests/math.sh
|
||||||
math.add1 5
|
math.add1 5
|
||||||
`).toEvaluateTo(6, globals)
|
`).toEvaluateTo(6)
|
||||||
})
|
})
|
||||||
})
|
})
|
||||||
|
|
|
||||||
|
|
@ -1,5 +1,4 @@
|
||||||
import { expect, describe, test } from 'bun:test'
|
import { expect, describe, test } from 'bun:test'
|
||||||
import { globals } from '#prelude'
|
|
||||||
|
|
||||||
describe('string operations', () => {
|
describe('string operations', () => {
|
||||||
test('to-upper converts to uppercase', async () => {
|
test('to-upper converts to uppercase', async () => {
|
||||||
|
|
|
||||||
|
|
@ -4,12 +4,13 @@ import color from 'kleur'
|
||||||
import { Scanner, TokenType, type Token } from '#parser/tokenizer2'
|
import { Scanner, TokenType, type Token } from '#parser/tokenizer2'
|
||||||
import { parser } from '#parser/shrimp'
|
import { parser } from '#parser/shrimp'
|
||||||
import { setGlobals } from '#parser/tokenizer'
|
import { setGlobals } from '#parser/tokenizer'
|
||||||
|
import { parse } from '#parser/parser2'
|
||||||
import { globals as prelude } from '#prelude'
|
import { globals as prelude } from '#prelude'
|
||||||
import { $ } from 'bun'
|
import { $ } from 'bun'
|
||||||
import { assert, errorMessage } from '#utils/utils'
|
import { assert, errorMessage } from '#utils/utils'
|
||||||
import { Compiler } from '#compiler/compiler'
|
import { Compiler } from '#compiler/compiler'
|
||||||
import { run, VM } from 'reefvm'
|
import { run, VM } from 'reefvm'
|
||||||
import { treeToString, VMResultToValue } from '#utils/tree'
|
import { treeToString2, treeToString, VMResultToValue } from '#utils/tree'
|
||||||
|
|
||||||
const regenerateParser = async () => {
|
const regenerateParser = async () => {
|
||||||
let generate = true
|
let generate = true
|
||||||
|
|
@ -52,8 +53,8 @@ expect.extend({
|
||||||
|
|
||||||
const allGlobals = { ...prelude, ...(globals || {}) }
|
const allGlobals = { ...prelude, ...(globals || {}) }
|
||||||
setGlobals(Object.keys(allGlobals))
|
setGlobals(Object.keys(allGlobals))
|
||||||
const tree = parser.parse(received)
|
const tree = parse(received)
|
||||||
const actual = treeToString(tree, received)
|
const actual = treeToString2(tree, received)
|
||||||
const normalizedExpected = trimWhitespace(expected)
|
const normalizedExpected = trimWhitespace(expected)
|
||||||
|
|
||||||
try {
|
try {
|
||||||
|
|
@ -244,7 +245,7 @@ const tokenize = (code: string): Token[] => {
|
||||||
return scanner.tokenize(code)
|
return scanner.tokenize(code)
|
||||||
}
|
}
|
||||||
|
|
||||||
const toHumanToken = (tok: Token): { type: string, value: string } => {
|
const toHumanToken = (tok: Token): { type: string, value?: string } => {
|
||||||
return {
|
return {
|
||||||
type: TokenType[tok.type],
|
type: TokenType[tok.type],
|
||||||
value: tok.value
|
value: tok.value
|
||||||
|
|
|
||||||
|
|
@ -1,5 +1,39 @@
|
||||||
import { Tree, TreeCursor } from '@lezer/common'
|
import { Tree, TreeCursor } from '@lezer/common'
|
||||||
import { type Value, fromValue } from 'reefvm'
|
import { type Value, fromValue } from 'reefvm'
|
||||||
|
import { SyntaxNode } from '#parser/node'
|
||||||
|
|
||||||
|
const nodeToString = (node: SyntaxNode, input: string, depth = 0): string => {
|
||||||
|
const indent = ' '.repeat(depth)
|
||||||
|
const text = input.slice(node.from, node.to)
|
||||||
|
const nodeName = node.name
|
||||||
|
|
||||||
|
if (node.firstChild) {
|
||||||
|
return `${indent}${nodeName}`
|
||||||
|
} else {
|
||||||
|
// Only strip quotes from whole String nodes (legacy DoubleQuote), not StringFragment/EscapeSeq/CurlyString
|
||||||
|
let cleanText = nodeName === 'String' ? text.slice(1, -1) : text
|
||||||
|
if (cleanText === ' ') cleanText = '(space)'
|
||||||
|
return cleanText ? `${indent}${nodeName} ${cleanText}` : `${indent}${nodeName}`
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
export const treeToString2 = (tree: SyntaxNode, input: string, depth = 0): string => {
|
||||||
|
let lines = []
|
||||||
|
let node: SyntaxNode | null = tree
|
||||||
|
|
||||||
|
if (node.name === 'Program') node = node.firstChild
|
||||||
|
|
||||||
|
while (node) {
|
||||||
|
lines.push(nodeToString(node, input, depth))
|
||||||
|
|
||||||
|
if (node.firstChild)
|
||||||
|
lines.push(treeToString2(node.firstChild, input, depth + 1))
|
||||||
|
|
||||||
|
node = node.nextSibling
|
||||||
|
}
|
||||||
|
|
||||||
|
return lines.join('\n')
|
||||||
|
}
|
||||||
|
|
||||||
export const treeToString = (tree: Tree, input: string): string => {
|
export const treeToString = (tree: Tree, input: string): string => {
|
||||||
const lines: string[] = []
|
const lines: string[] = []
|
||||||
|
|
|
||||||
Loading…
Reference in New Issue
Block a user