massive update, probably broken
[dotfiles/.git] / .config / coc / extensions / coc-python-data / languageServer.0.5.59 / Typeshed / third_party / 2and3 / jinja2 / lexer.pyi
1 from typing import Any, Optional\r
2 \r
3 whitespace_re = ...  # type: Any\r
4 string_re = ...  # type: Any\r
5 integer_re = ...  # type: Any\r
6 name_re = ...  # type: Any\r
7 float_re = ...  # type: Any\r
8 newline_re = ...  # type: Any\r
9 TOKEN_ADD = ...  # type: Any\r
10 TOKEN_ASSIGN = ...  # type: Any\r
11 TOKEN_COLON = ...  # type: Any\r
12 TOKEN_COMMA = ...  # type: Any\r
13 TOKEN_DIV = ...  # type: Any\r
14 TOKEN_DOT = ...  # type: Any\r
15 TOKEN_EQ = ...  # type: Any\r
16 TOKEN_FLOORDIV = ...  # type: Any\r
17 TOKEN_GT = ...  # type: Any\r
18 TOKEN_GTEQ = ...  # type: Any\r
19 TOKEN_LBRACE = ...  # type: Any\r
20 TOKEN_LBRACKET = ...  # type: Any\r
21 TOKEN_LPAREN = ...  # type: Any\r
22 TOKEN_LT = ...  # type: Any\r
23 TOKEN_LTEQ = ...  # type: Any\r
24 TOKEN_MOD = ...  # type: Any\r
25 TOKEN_MUL = ...  # type: Any\r
26 TOKEN_NE = ...  # type: Any\r
27 TOKEN_PIPE = ...  # type: Any\r
28 TOKEN_POW = ...  # type: Any\r
29 TOKEN_RBRACE = ...  # type: Any\r
30 TOKEN_RBRACKET = ...  # type: Any\r
31 TOKEN_RPAREN = ...  # type: Any\r
32 TOKEN_SEMICOLON = ...  # type: Any\r
33 TOKEN_SUB = ...  # type: Any\r
34 TOKEN_TILDE = ...  # type: Any\r
35 TOKEN_WHITESPACE = ...  # type: Any\r
36 TOKEN_FLOAT = ...  # type: Any\r
37 TOKEN_INTEGER = ...  # type: Any\r
38 TOKEN_NAME = ...  # type: Any\r
39 TOKEN_STRING = ...  # type: Any\r
40 TOKEN_OPERATOR = ...  # type: Any\r
41 TOKEN_BLOCK_BEGIN = ...  # type: Any\r
42 TOKEN_BLOCK_END = ...  # type: Any\r
43 TOKEN_VARIABLE_BEGIN = ...  # type: Any\r
44 TOKEN_VARIABLE_END = ...  # type: Any\r
45 TOKEN_RAW_BEGIN = ...  # type: Any\r
46 TOKEN_RAW_END = ...  # type: Any\r
47 TOKEN_COMMENT_BEGIN = ...  # type: Any\r
48 TOKEN_COMMENT_END = ...  # type: Any\r
49 TOKEN_COMMENT = ...  # type: Any\r
50 TOKEN_LINESTATEMENT_BEGIN = ...  # type: Any\r
51 TOKEN_LINESTATEMENT_END = ...  # type: Any\r
52 TOKEN_LINECOMMENT_BEGIN = ...  # type: Any\r
53 TOKEN_LINECOMMENT_END = ...  # type: Any\r
54 TOKEN_LINECOMMENT = ...  # type: Any\r
55 TOKEN_DATA = ...  # type: Any\r
56 TOKEN_INITIAL = ...  # type: Any\r
57 TOKEN_EOF = ...  # type: Any\r
58 operators = ...  # type: Any\r
59 reverse_operators = ...  # type: Any\r
60 operator_re = ...  # type: Any\r
61 ignored_tokens = ...  # type: Any\r
62 ignore_if_empty = ...  # type: Any\r
63 \r
64 def describe_token(token): ...\r
65 def describe_token_expr(expr): ...\r
66 def count_newlines(value): ...\r
67 def compile_rules(environment): ...\r
68 \r
69 class Failure:\r
70     message = ...  # type: Any\r
71     error_class = ...  # type: Any\r
72     def __init__(self, message, cls: Any = ...) -> None: ...\r
73     def __call__(self, lineno, filename): ...\r
74 \r
75 class Token(tuple):\r
76     lineno = ...  # type: Any\r
77     type = ...  # type: Any\r
78     value = ...  # type: Any\r
79     def __new__(cls, lineno, type, value): ...\r
80     def test(self, expr): ...\r
81     def test_any(self, *iterable): ...\r
82 \r
83 class TokenStreamIterator:\r
84     stream = ...  # type: Any\r
85     def __init__(self, stream) -> None: ...\r
86     def __iter__(self): ...\r
87     def __next__(self): ...\r
88 \r
89 class TokenStream:\r
90     name = ...  # type: Any\r
91     filename = ...  # type: Any\r
92     closed = ...  # type: bool\r
93     current = ...  # type: Any\r
94     def __init__(self, generator, name, filename) -> None: ...\r
95     def __iter__(self): ...\r
96     def __bool__(self): ...\r
97     __nonzero__ = ...  # type: Any\r
98     eos = ...  # type: Any\r
99     def push(self, token): ...\r
100     def look(self): ...\r
101     def skip(self, n: int = ...): ...\r
102     def next_if(self, expr): ...\r
103     def skip_if(self, expr): ...\r
104     def __next__(self): ...\r
105     def close(self): ...\r
106     def expect(self, expr): ...\r
107 \r
108 def get_lexer(environment): ...\r
109 \r
110 class Lexer:\r
111     newline_sequence = ...  # type: Any\r
112     keep_trailing_newline = ...  # type: Any\r
113     rules = ...  # type: Any\r
114     def __init__(self, environment) -> None: ...\r
115     def tokenize(self, source, name: Optional[Any] = ..., filename: Optional[Any] = ..., state: Optional[Any] = ...): ...\r
116     def wrap(self, stream, name: Optional[Any] = ..., filename: Optional[Any] = ...): ...\r
117     def tokeniter(self, source, name, filename: Optional[Any] = ..., state: Optional[Any] = ...): ...\r