massive update, probably broken
[dotfiles/.git] / .config / coc / extensions / node_modules / coc-pyright / node_modules / pyright / dist / typeshed-fallback / stubs / Jinja2 / jinja2 / lexer.pyi
1 from typing import Any, Tuple
2
3 whitespace_re: Any
4 string_re: Any
5 integer_re: Any
6 name_re: Any
7 float_re: Any
8 newline_re: Any
9 TOKEN_ADD: Any
10 TOKEN_ASSIGN: Any
11 TOKEN_COLON: Any
12 TOKEN_COMMA: Any
13 TOKEN_DIV: Any
14 TOKEN_DOT: Any
15 TOKEN_EQ: Any
16 TOKEN_FLOORDIV: Any
17 TOKEN_GT: Any
18 TOKEN_GTEQ: Any
19 TOKEN_LBRACE: Any
20 TOKEN_LBRACKET: Any
21 TOKEN_LPAREN: Any
22 TOKEN_LT: Any
23 TOKEN_LTEQ: Any
24 TOKEN_MOD: Any
25 TOKEN_MUL: Any
26 TOKEN_NE: Any
27 TOKEN_PIPE: Any
28 TOKEN_POW: Any
29 TOKEN_RBRACE: Any
30 TOKEN_RBRACKET: Any
31 TOKEN_RPAREN: Any
32 TOKEN_SEMICOLON: Any
33 TOKEN_SUB: Any
34 TOKEN_TILDE: Any
35 TOKEN_WHITESPACE: Any
36 TOKEN_FLOAT: Any
37 TOKEN_INTEGER: Any
38 TOKEN_NAME: Any
39 TOKEN_STRING: Any
40 TOKEN_OPERATOR: Any
41 TOKEN_BLOCK_BEGIN: Any
42 TOKEN_BLOCK_END: Any
43 TOKEN_VARIABLE_BEGIN: Any
44 TOKEN_VARIABLE_END: Any
45 TOKEN_RAW_BEGIN: Any
46 TOKEN_RAW_END: Any
47 TOKEN_COMMENT_BEGIN: Any
48 TOKEN_COMMENT_END: Any
49 TOKEN_COMMENT: Any
50 TOKEN_LINESTATEMENT_BEGIN: Any
51 TOKEN_LINESTATEMENT_END: Any
52 TOKEN_LINECOMMENT_BEGIN: Any
53 TOKEN_LINECOMMENT_END: Any
54 TOKEN_LINECOMMENT: Any
55 TOKEN_DATA: Any
56 TOKEN_INITIAL: Any
57 TOKEN_EOF: Any
58 operators: Any
59 reverse_operators: Any
60 operator_re: Any
61 ignored_tokens: Any
62 ignore_if_empty: Any
63
64 def describe_token(token): ...
65 def describe_token_expr(expr): ...
66 def count_newlines(value): ...
67 def compile_rules(environment): ...
68
69 class Failure:
70     message: Any
71     error_class: Any
72     def __init__(self, message, cls: Any = ...) -> None: ...
73     def __call__(self, lineno, filename): ...
74
75 class Token(Tuple[int, Any, Any]):
76     lineno: Any
77     type: Any
78     value: Any
79     def __new__(cls, lineno, type, value): ...
80     def test(self, expr): ...
81     def test_any(self, *iterable): ...
82
83 class TokenStreamIterator:
84     stream: Any
85     def __init__(self, stream) -> None: ...
86     def __iter__(self): ...
87     def __next__(self): ...
88
89 class TokenStream:
90     name: Any
91     filename: Any
92     closed: bool
93     current: Any
94     def __init__(self, generator, name, filename) -> None: ...
95     def __iter__(self): ...
96     def __bool__(self): ...
97     __nonzero__: Any
98     eos: Any
99     def push(self, token): ...
100     def look(self): ...
101     def skip(self, n: int = ...): ...
102     def next_if(self, expr): ...
103     def skip_if(self, expr): ...
104     def __next__(self): ...
105     def close(self): ...
106     def expect(self, expr): ...
107
108 def get_lexer(environment): ...
109
110 class Lexer:
111     newline_sequence: Any
112     keep_trailing_newline: Any
113     rules: Any
114     def __init__(self, environment) -> None: ...
115     def tokenize(self, source, name: Any | None = ..., filename: Any | None = ..., state: Any | None = ...): ...
116     def wrap(self, stream, name: Any | None = ..., filename: Any | None = ...): ...
117     def tokeniter(self, source, name, filename: Any | None = ..., state: Any | None = ...): ...