generic_regabi_amd64.go 37 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680681682683684685686687688689690691692693694695696697698699700701702703704705706707708709710711712713714715716717718719720721722723724725726727728729
  1. // +build go1.17,!go1.23
  2. /*
  3. * Copyright 2021 ByteDance Inc.
  4. *
  5. * Licensed under the Apache License, Version 2.0 (the "License");
  6. * you may not use this file except in compliance with the License.
  7. * You may obtain a copy of the License at
  8. *
  9. * http://www.apache.org/licenses/LICENSE-2.0
  10. *
  11. * Unless required by applicable law or agreed to in writing, software
  12. * distributed under the License is distributed on an "AS IS" BASIS,
  13. * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  14. * See the License for the specific language governing permissions and
  15. * limitations under the License.
  16. */
  17. package decoder
  18. import (
  19. `encoding/json`
  20. `fmt`
  21. `reflect`
  22. `github.com/bytedance/sonic/internal/jit`
  23. `github.com/bytedance/sonic/internal/native`
  24. `github.com/bytedance/sonic/internal/native/types`
  25. `github.com/twitchyliquid64/golang-asm/obj`
  26. )
  27. /** Crucial Registers:
  28. *
  29. * ST(R13) && 0(SP) : ro, decoder stack
  30. * DF(AX) : ro, decoder flags
  31. * EP(BX) : wo, error pointer
  32. * IP(R10) : ro, input pointer
  33. * IL(R12) : ro, input length
  34. * IC(R11) : rw, input cursor
  35. * VP(R15) : ro, value pointer (to an interface{})
  36. */
  37. const (
  38. _VD_args = 8 // 8 bytes for passing arguments to this functions
  39. _VD_fargs = 64 // 64 bytes for passing arguments to other Go functions
  40. _VD_saves = 48 // 48 bytes for saving the registers before CALL instructions
  41. _VD_locals = 96 // 96 bytes for local variables
  42. )
  43. const (
  44. _VD_offs = _VD_fargs + _VD_saves + _VD_locals
  45. _VD_size = _VD_offs + 8 // 8 bytes for the parent frame pointer
  46. )
  47. var (
  48. _VAR_ss = _VAR_ss_Vt
  49. _VAR_df = jit.Ptr(_SP, _VD_fargs + _VD_saves)
  50. )
  51. var (
  52. _VAR_ss_Vt = jit.Ptr(_SP, _VD_fargs + _VD_saves + 8)
  53. _VAR_ss_Dv = jit.Ptr(_SP, _VD_fargs + _VD_saves + 16)
  54. _VAR_ss_Iv = jit.Ptr(_SP, _VD_fargs + _VD_saves + 24)
  55. _VAR_ss_Ep = jit.Ptr(_SP, _VD_fargs + _VD_saves + 32)
  56. _VAR_ss_Db = jit.Ptr(_SP, _VD_fargs + _VD_saves + 40)
  57. _VAR_ss_Dc = jit.Ptr(_SP, _VD_fargs + _VD_saves + 48)
  58. )
  59. var (
  60. _VAR_R9 = jit.Ptr(_SP, _VD_fargs + _VD_saves + 56)
  61. )
  62. type _ValueDecoder struct {
  63. jit.BaseAssembler
  64. }
  65. var (
  66. _VAR_cs_LR = jit.Ptr(_SP, _VD_fargs + _VD_saves + 64)
  67. _VAR_cs_p = jit.Ptr(_SP, _VD_fargs + _VD_saves + 72)
  68. _VAR_cs_n = jit.Ptr(_SP, _VD_fargs + _VD_saves + 80)
  69. _VAR_cs_d = jit.Ptr(_SP, _VD_fargs + _VD_saves + 88)
  70. )
  71. func (self *_ValueDecoder) build() uintptr {
  72. self.Init(self.compile)
  73. return *(*uintptr)(self.Load("decode_value", _VD_size, _VD_args, argPtrs_generic, localPtrs_generic))
  74. }
  75. /** Function Calling Helpers **/
  76. func (self *_ValueDecoder) save(r ...obj.Addr) {
  77. for i, v := range r {
  78. if i > _VD_saves / 8 - 1 {
  79. panic("too many registers to save")
  80. } else {
  81. self.Emit("MOVQ", v, jit.Ptr(_SP, _VD_fargs + int64(i) * 8))
  82. }
  83. }
  84. }
  85. func (self *_ValueDecoder) load(r ...obj.Addr) {
  86. for i, v := range r {
  87. if i > _VD_saves / 8 - 1 {
  88. panic("too many registers to load")
  89. } else {
  90. self.Emit("MOVQ", jit.Ptr(_SP, _VD_fargs + int64(i) * 8), v)
  91. }
  92. }
  93. }
  94. func (self *_ValueDecoder) call(fn obj.Addr) {
  95. self.Emit("MOVQ", fn, _R9) // MOVQ ${fn}, AX
  96. self.Rjmp("CALL", _R9) // CALL AX
  97. }
  98. func (self *_ValueDecoder) call_go(fn obj.Addr) {
  99. self.save(_REG_go...) // SAVE $REG_go
  100. self.call(fn) // CALL ${fn}
  101. self.load(_REG_go...) // LOAD $REG_go
  102. }
  103. func (self *_ValueDecoder) callc(fn obj.Addr) {
  104. self.save(_IP)
  105. self.call(fn)
  106. self.load(_IP)
  107. }
  108. func (self *_ValueDecoder) call_c(fn obj.Addr) {
  109. self.Emit("XCHGQ", _IC, _BX)
  110. self.callc(fn)
  111. self.Emit("XCHGQ", _IC, _BX)
  112. }
  113. /** Decoder Assembler **/
  114. const (
  115. _S_val = iota + 1
  116. _S_arr
  117. _S_arr_0
  118. _S_obj
  119. _S_obj_0
  120. _S_obj_delim
  121. _S_obj_sep
  122. )
  123. const (
  124. _S_omask_key = (1 << _S_obj_0) | (1 << _S_obj_sep)
  125. _S_omask_end = (1 << _S_obj_0) | (1 << _S_obj)
  126. _S_vmask = (1 << _S_val) | (1 << _S_arr_0)
  127. )
  128. const (
  129. _A_init_len = 1
  130. _A_init_cap = 16
  131. )
  132. const (
  133. _ST_Sp = 0
  134. _ST_Vt = _PtrBytes
  135. _ST_Vp = _PtrBytes * (types.MAX_RECURSE + 1)
  136. )
  137. var (
  138. _V_true = jit.Imm(int64(pbool(true)))
  139. _V_false = jit.Imm(int64(pbool(false)))
  140. _F_value = jit.Imm(int64(native.S_value))
  141. )
  142. var (
  143. _V_max = jit.Imm(int64(types.V_MAX))
  144. _E_eof = jit.Imm(int64(types.ERR_EOF))
  145. _E_invalid = jit.Imm(int64(types.ERR_INVALID_CHAR))
  146. _E_recurse = jit.Imm(int64(types.ERR_RECURSE_EXCEED_MAX))
  147. )
  148. var (
  149. _F_convTslice = jit.Func(convTslice)
  150. _F_convTstring = jit.Func(convTstring)
  151. _F_invalid_vtype = jit.Func(invalid_vtype)
  152. )
  153. var (
  154. _T_map = jit.Type(reflect.TypeOf((map[string]interface{})(nil)))
  155. _T_bool = jit.Type(reflect.TypeOf(false))
  156. _T_int64 = jit.Type(reflect.TypeOf(int64(0)))
  157. _T_eface = jit.Type(reflect.TypeOf((*interface{})(nil)).Elem())
  158. _T_slice = jit.Type(reflect.TypeOf(([]interface{})(nil)))
  159. _T_string = jit.Type(reflect.TypeOf(""))
  160. _T_number = jit.Type(reflect.TypeOf(json.Number("")))
  161. _T_float64 = jit.Type(reflect.TypeOf(float64(0)))
  162. )
  163. var _R_tab = map[int]string {
  164. '[': "_decode_V_ARRAY",
  165. '{': "_decode_V_OBJECT",
  166. ':': "_decode_V_KEY_SEP",
  167. ',': "_decode_V_ELEM_SEP",
  168. ']': "_decode_V_ARRAY_END",
  169. '}': "_decode_V_OBJECT_END",
  170. }
  171. func (self *_ValueDecoder) compile() {
  172. self.Emit("SUBQ", jit.Imm(_VD_size), _SP) // SUBQ $_VD_size, SP
  173. self.Emit("MOVQ", _BP, jit.Ptr(_SP, _VD_offs)) // MOVQ BP, _VD_offs(SP)
  174. self.Emit("LEAQ", jit.Ptr(_SP, _VD_offs), _BP) // LEAQ _VD_offs(SP), BP
  175. /* initialize the state machine */
  176. self.Emit("XORL", _CX, _CX) // XORL CX, CX
  177. self.Emit("MOVQ", _DF, _VAR_df) // MOVQ DF, df
  178. /* initialize digital buffer first */
  179. self.Emit("MOVQ", jit.Imm(_MaxDigitNums), _VAR_ss_Dc) // MOVQ $_MaxDigitNums, ss.Dcap
  180. self.Emit("LEAQ", jit.Ptr(_ST, _DbufOffset), _AX) // LEAQ _DbufOffset(ST), AX
  181. self.Emit("MOVQ", _AX, _VAR_ss_Db) // MOVQ AX, ss.Dbuf
  182. /* add ST offset */
  183. self.Emit("ADDQ", jit.Imm(_FsmOffset), _ST) // ADDQ _FsmOffset, _ST
  184. self.Emit("MOVQ", _CX, jit.Ptr(_ST, _ST_Sp)) // MOVQ CX, ST.Sp
  185. self.WriteRecNotAX(0, _VP, jit.Ptr(_ST, _ST_Vp), false) // MOVQ VP, ST.Vp[0]
  186. self.Emit("MOVQ", jit.Imm(_S_val), jit.Ptr(_ST, _ST_Vt)) // MOVQ _S_val, ST.Vt[0]
  187. self.Sjmp("JMP" , "_next") // JMP _next
  188. /* set the value from previous round */
  189. self.Link("_set_value") // _set_value:
  190. self.Emit("MOVL" , jit.Imm(_S_vmask), _DX) // MOVL _S_vmask, DX
  191. self.Emit("MOVQ" , jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  192. self.Emit("MOVQ" , jit.Sib(_ST, _CX, 8, _ST_Vt), _AX) // MOVQ ST.Vt[CX], AX
  193. self.Emit("BTQ" , _AX, _DX) // BTQ AX, DX
  194. self.Sjmp("JNC" , "_vtype_error") // JNC _vtype_error
  195. self.Emit("XORL" , _SI, _SI) // XORL SI, SI
  196. self.Emit("SUBQ" , jit.Imm(1), jit.Ptr(_ST, _ST_Sp)) // SUBQ $1, ST.Sp
  197. self.Emit("XCHGQ", jit.Sib(_ST, _CX, 8, _ST_Vp), _SI) // XCHGQ ST.Vp[CX], SI
  198. self.Emit("MOVQ" , _R8, jit.Ptr(_SI, 0)) // MOVQ R8, (SI)
  199. self.WriteRecNotAX(1, _R9, jit.Ptr(_SI, 8), false) // MOVQ R9, 8(SI)
  200. /* check for value stack */
  201. self.Link("_next") // _next:
  202. self.Emit("MOVQ" , jit.Ptr(_ST, _ST_Sp), _AX) // MOVQ ST.Sp, AX
  203. self.Emit("TESTQ", _AX, _AX) // TESTQ AX, AX
  204. self.Sjmp("JS" , "_return") // JS _return
  205. /* fast path: test up to 4 characters manually */
  206. self.Emit("CMPQ" , _IC, _IL) // CMPQ IC, IL
  207. self.Sjmp("JAE" , "_decode_V_EOF") // JAE _decode_V_EOF
  208. self.Emit("MOVBQZX", jit.Sib(_IP, _IC, 1, 0), _AX) // MOVBQZX (IP)(IC), AX
  209. self.Emit("MOVQ" , jit.Imm(_BM_space), _DX) // MOVQ _BM_space, DX
  210. self.Emit("CMPQ" , _AX, jit.Imm(' ')) // CMPQ AX, $' '
  211. self.Sjmp("JA" , "_decode_fast") // JA _decode_fast
  212. self.Emit("BTQ" , _AX, _DX) // BTQ _AX, _DX
  213. self.Sjmp("JNC" , "_decode_fast") // JNC _decode_fast
  214. self.Emit("ADDQ" , jit.Imm(1), _IC) // ADDQ $1, IC
  215. /* at least 1 to 3 spaces */
  216. for i := 0; i < 3; i++ {
  217. self.Emit("CMPQ" , _IC, _IL) // CMPQ IC, IL
  218. self.Sjmp("JAE" , "_decode_V_EOF") // JAE _decode_V_EOF
  219. self.Emit("MOVBQZX", jit.Sib(_IP, _IC, 1, 0), _AX) // MOVBQZX (IP)(IC), AX
  220. self.Emit("CMPQ" , _AX, jit.Imm(' ')) // CMPQ AX, $' '
  221. self.Sjmp("JA" , "_decode_fast") // JA _decode_fast
  222. self.Emit("BTQ" , _AX, _DX) // BTQ _AX, _DX
  223. self.Sjmp("JNC" , "_decode_fast") // JNC _decode_fast
  224. self.Emit("ADDQ" , jit.Imm(1), _IC) // ADDQ $1, IC
  225. }
  226. /* at least 4 spaces */
  227. self.Emit("CMPQ" , _IC, _IL) // CMPQ IC, IL
  228. self.Sjmp("JAE" , "_decode_V_EOF") // JAE _decode_V_EOF
  229. self.Emit("MOVBQZX", jit.Sib(_IP, _IC, 1, 0), _AX) // MOVBQZX (IP)(IC), AX
  230. /* fast path: use lookup table to select decoder */
  231. self.Link("_decode_fast") // _decode_fast:
  232. self.Byte(0x48, 0x8d, 0x3d) // LEAQ ?(PC), DI
  233. self.Sref("_decode_tab", 4) // .... &_decode_tab
  234. self.Emit("MOVLQSX", jit.Sib(_DI, _AX, 4, 0), _AX) // MOVLQSX (DI)(AX*4), AX
  235. self.Emit("TESTQ" , _AX, _AX) // TESTQ AX, AX
  236. self.Sjmp("JZ" , "_decode_native") // JZ _decode_native
  237. self.Emit("ADDQ" , jit.Imm(1), _IC) // ADDQ $1, IC
  238. self.Emit("ADDQ" , _DI, _AX) // ADDQ DI, AX
  239. self.Rjmp("JMP" , _AX) // JMP AX
  240. /* decode with native decoder */
  241. self.Link("_decode_native") // _decode_native:
  242. self.Emit("MOVQ", _IP, _DI) // MOVQ IP, DI
  243. self.Emit("MOVQ", _IL, _SI) // MOVQ IL, SI
  244. self.Emit("MOVQ", _IC, _DX) // MOVQ IC, DX
  245. self.Emit("LEAQ", _VAR_ss, _CX) // LEAQ ss, CX
  246. self.Emit("MOVQ", _VAR_df, _R8) // MOVQ $df, R8
  247. self.Emit("BTSQ", jit.Imm(_F_allow_control), _R8) // ANDQ $1<<_F_allow_control, R8
  248. self.callc(_F_value) // CALL value
  249. self.Emit("MOVQ", _AX, _IC) // MOVQ AX, IC
  250. /* check for errors */
  251. self.Emit("MOVQ" , _VAR_ss_Vt, _AX) // MOVQ ss.Vt, AX
  252. self.Emit("TESTQ", _AX, _AX) // TESTQ AX, AX
  253. self.Sjmp("JS" , "_parsing_error")
  254. self.Sjmp("JZ" , "_invalid_vtype") // JZ _invalid_vtype
  255. self.Emit("CMPQ" , _AX, _V_max) // CMPQ AX, _V_max
  256. self.Sjmp("JA" , "_invalid_vtype") // JA _invalid_vtype
  257. /* jump table selector */
  258. self.Byte(0x48, 0x8d, 0x3d) // LEAQ ?(PC), DI
  259. self.Sref("_switch_table", 4) // .... &_switch_table
  260. self.Emit("MOVLQSX", jit.Sib(_DI, _AX, 4, -4), _AX) // MOVLQSX -4(DI)(AX*4), AX
  261. self.Emit("ADDQ" , _DI, _AX) // ADDQ DI, AX
  262. self.Rjmp("JMP" , _AX) // JMP AX
  263. /** V_EOF **/
  264. self.Link("_decode_V_EOF") // _decode_V_EOF:
  265. self.Emit("MOVL", _E_eof, _EP) // MOVL _E_eof, EP
  266. self.Sjmp("JMP" , "_error") // JMP _error
  267. /** V_NULL **/
  268. self.Link("_decode_V_NULL") // _decode_V_NULL:
  269. self.Emit("XORL", _R8, _R8) // XORL R8, R8
  270. self.Emit("XORL", _R9, _R9) // XORL R9, R9
  271. self.Emit("LEAQ", jit.Ptr(_IC, -4), _DI) // LEAQ -4(IC), DI
  272. self.Sjmp("JMP" , "_set_value") // JMP _set_value
  273. /** V_TRUE **/
  274. self.Link("_decode_V_TRUE") // _decode_V_TRUE:
  275. self.Emit("MOVQ", _T_bool, _R8) // MOVQ _T_bool, R8
  276. // TODO: maybe modified by users?
  277. self.Emit("MOVQ", _V_true, _R9) // MOVQ _V_true, R9
  278. self.Emit("LEAQ", jit.Ptr(_IC, -4), _DI) // LEAQ -4(IC), DI
  279. self.Sjmp("JMP" , "_set_value") // JMP _set_value
  280. /** V_FALSE **/
  281. self.Link("_decode_V_FALSE") // _decode_V_FALSE:
  282. self.Emit("MOVQ", _T_bool, _R8) // MOVQ _T_bool, R8
  283. self.Emit("MOVQ", _V_false, _R9) // MOVQ _V_false, R9
  284. self.Emit("LEAQ", jit.Ptr(_IC, -5), _DI) // LEAQ -5(IC), DI
  285. self.Sjmp("JMP" , "_set_value") // JMP _set_value
  286. /** V_ARRAY **/
  287. self.Link("_decode_V_ARRAY") // _decode_V_ARRAY
  288. self.Emit("MOVL", jit.Imm(_S_vmask), _DX) // MOVL _S_vmask, DX
  289. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  290. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vt), _AX) // MOVQ ST.Vt[CX], AX
  291. self.Emit("BTQ" , _AX, _DX) // BTQ AX, DX
  292. self.Sjmp("JNC" , "_invalid_char") // JNC _invalid_char
  293. /* create a new array */
  294. self.Emit("MOVQ", _T_eface, _AX) // MOVQ _T_eface, AX
  295. self.Emit("MOVQ", jit.Imm(_A_init_len), _BX) // MOVQ _A_init_len, BX
  296. self.Emit("MOVQ", jit.Imm(_A_init_cap), _CX) // MOVQ _A_init_cap, CX
  297. self.call_go(_F_makeslice) // CALL_GO runtime.makeslice
  298. /* pack into an interface */
  299. self.Emit("MOVQ", jit.Imm(_A_init_len), _BX) // MOVQ _A_init_len, BX
  300. self.Emit("MOVQ", jit.Imm(_A_init_cap), _CX) // MOVQ _A_init_cap, CX
  301. self.call_go(_F_convTslice) // CALL_GO runtime.convTslice
  302. self.Emit("MOVQ", _AX, _R8) // MOVQ AX, R8
  303. /* replace current state with an array */
  304. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  305. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vp), _SI) // MOVQ ST.Vp[CX], SI
  306. self.Emit("MOVQ", jit.Imm(_S_arr), jit.Sib(_ST, _CX, 8, _ST_Vt)) // MOVQ _S_arr, ST.Vt[CX]
  307. self.Emit("MOVQ", _T_slice, _AX) // MOVQ _T_slice, AX
  308. self.Emit("MOVQ", _AX, jit.Ptr(_SI, 0)) // MOVQ AX, (SI)
  309. self.WriteRecNotAX(2, _R8, jit.Ptr(_SI, 8), false) // MOVQ R8, 8(SI)
  310. /* add a new slot for the first element */
  311. self.Emit("ADDQ", jit.Imm(1), _CX) // ADDQ $1, CX
  312. self.Emit("CMPQ", _CX, jit.Imm(types.MAX_RECURSE)) // CMPQ CX, ${types.MAX_RECURSE}
  313. self.Sjmp("JAE" , "_stack_overflow") // JA _stack_overflow
  314. self.Emit("MOVQ", jit.Ptr(_R8, 0), _AX) // MOVQ (R8), AX
  315. self.Emit("MOVQ", _CX, jit.Ptr(_ST, _ST_Sp)) // MOVQ CX, ST.Sp
  316. self.WritePtrAX(3, jit.Sib(_ST, _CX, 8, _ST_Vp), false) // MOVQ AX, ST.Vp[CX]
  317. self.Emit("MOVQ", jit.Imm(_S_arr_0), jit.Sib(_ST, _CX, 8, _ST_Vt)) // MOVQ _S_arr_0, ST.Vt[CX]
  318. self.Sjmp("JMP" , "_next") // JMP _next
  319. /** V_OBJECT **/
  320. self.Link("_decode_V_OBJECT") // _decode_V_OBJECT:
  321. self.Emit("MOVL", jit.Imm(_S_vmask), _DX) // MOVL _S_vmask, DX
  322. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  323. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vt), _AX) // MOVQ ST.Vt[CX], AX
  324. self.Emit("BTQ" , _AX, _DX) // BTQ AX, DX
  325. self.Sjmp("JNC" , "_invalid_char") // JNC _invalid_char
  326. self.call_go(_F_makemap_small) // CALL_GO runtime.makemap_small
  327. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  328. self.Emit("MOVQ", jit.Imm(_S_obj_0), jit.Sib(_ST, _CX, 8, _ST_Vt)) // MOVQ _S_obj_0, ST.Vt[CX]
  329. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vp), _SI) // MOVQ ST.Vp[CX], SI
  330. self.Emit("MOVQ", _T_map, _DX) // MOVQ _T_map, DX
  331. self.Emit("MOVQ", _DX, jit.Ptr(_SI, 0)) // MOVQ DX, (SI)
  332. self.WritePtrAX(4, jit.Ptr(_SI, 8), false) // MOVQ AX, 8(SI)
  333. self.Sjmp("JMP" , "_next") // JMP _next
  334. /** V_STRING **/
  335. self.Link("_decode_V_STRING") // _decode_V_STRING:
  336. self.Emit("MOVQ", _VAR_ss_Iv, _CX) // MOVQ ss.Iv, CX
  337. self.Emit("MOVQ", _IC, _AX) // MOVQ IC, AX
  338. self.Emit("SUBQ", _CX, _AX) // SUBQ CX, AX
  339. /* check for escapes */
  340. self.Emit("CMPQ", _VAR_ss_Ep, jit.Imm(-1)) // CMPQ ss.Ep, $-1
  341. self.Sjmp("JNE" , "_unquote") // JNE _unquote
  342. self.Emit("SUBQ", jit.Imm(1), _AX) // SUBQ $1, AX
  343. self.Emit("LEAQ", jit.Sib(_IP, _CX, 1, 0), _R8) // LEAQ (IP)(CX), R8
  344. self.Byte(0x48, 0x8d, 0x3d) // LEAQ (PC), DI
  345. self.Sref("_copy_string_end", 4)
  346. self.Emit("BTQ", jit.Imm(_F_copy_string), _VAR_df)
  347. self.Sjmp("JC", "copy_string")
  348. self.Link("_copy_string_end")
  349. self.Emit("XORL", _DX, _DX)
  350. /* strings with no escape sequences */
  351. self.Link("_noescape") // _noescape:
  352. self.Emit("MOVL", jit.Imm(_S_omask_key), _DI) // MOVL _S_omask, DI
  353. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  354. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vt), _SI) // MOVQ ST.Vt[CX], SI
  355. self.Emit("BTQ" , _SI, _DI) // BTQ SI, DI
  356. self.Sjmp("JC" , "_object_key") // JC _object_key
  357. /* check for pre-packed strings, avoid 1 allocation */
  358. self.Emit("TESTQ", _DX, _DX) // TESTQ DX, DX
  359. self.Sjmp("JNZ" , "_packed_str") // JNZ _packed_str
  360. self.Emit("MOVQ" , _AX, _BX) // MOVQ AX, BX
  361. self.Emit("MOVQ" , _R8, _AX) // MOVQ R8, AX
  362. self.call_go(_F_convTstring) // CALL_GO runtime.convTstring
  363. self.Emit("MOVQ" , _AX, _R9) // MOVQ AX, R9
  364. /* packed string already in R9 */
  365. self.Link("_packed_str") // _packed_str:
  366. self.Emit("MOVQ", _T_string, _R8) // MOVQ _T_string, R8
  367. self.Emit("MOVQ", _VAR_ss_Iv, _DI) // MOVQ ss.Iv, DI
  368. self.Emit("SUBQ", jit.Imm(1), _DI) // SUBQ $1, DI
  369. self.Sjmp("JMP" , "_set_value") // JMP _set_value
  370. /* the string is an object key, get the map */
  371. self.Link("_object_key")
  372. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  373. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vp), _SI) // MOVQ ST.Vp[CX], SI
  374. self.Emit("MOVQ", jit.Ptr(_SI, 8), _SI) // MOVQ 8(SI), SI
  375. /* add a new delimiter */
  376. self.Emit("ADDQ", jit.Imm(1), _CX) // ADDQ $1, CX
  377. self.Emit("CMPQ", _CX, jit.Imm(types.MAX_RECURSE)) // CMPQ CX, ${types.MAX_RECURSE}
  378. self.Sjmp("JAE" , "_stack_overflow") // JA _stack_overflow
  379. self.Emit("MOVQ", _CX, jit.Ptr(_ST, _ST_Sp)) // MOVQ CX, ST.Sp
  380. self.Emit("MOVQ", jit.Imm(_S_obj_delim), jit.Sib(_ST, _CX, 8, _ST_Vt)) // MOVQ _S_obj_delim, ST.Vt[CX]
  381. /* add a new slot int the map */
  382. self.Emit("MOVQ", _AX, _DI) // MOVQ AX, DI
  383. self.Emit("MOVQ", _T_map, _AX) // MOVQ _T_map, AX
  384. self.Emit("MOVQ", _SI, _BX) // MOVQ SI, BX
  385. self.Emit("MOVQ", _R8, _CX) // MOVQ R9, CX
  386. self.call_go(_F_mapassign_faststr) // CALL_GO runtime.mapassign_faststr
  387. /* add to the pointer stack */
  388. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  389. self.WritePtrAX(6, jit.Sib(_ST, _CX, 8, _ST_Vp), false) // MOVQ AX, ST.Vp[CX]
  390. self.Sjmp("JMP" , "_next") // JMP _next
  391. /* allocate memory to store the string header and unquoted result */
  392. self.Link("_unquote") // _unquote:
  393. self.Emit("ADDQ", jit.Imm(15), _AX) // ADDQ $15, AX
  394. self.Emit("MOVQ", _T_byte, _BX) // MOVQ _T_byte, BX
  395. self.Emit("MOVB", jit.Imm(0), _CX) // MOVB $0, CX
  396. self.call_go(_F_mallocgc) // CALL_GO runtime.mallocgc
  397. self.Emit("MOVQ", _AX, _R9) // MOVQ AX, R9
  398. /* prepare the unquoting parameters */
  399. self.Emit("MOVQ" , _VAR_ss_Iv, _CX) // MOVQ ss.Iv, CX
  400. self.Emit("LEAQ" , jit.Sib(_IP, _CX, 1, 0), _DI) // LEAQ (IP)(CX), DI
  401. self.Emit("NEGQ" , _CX) // NEGQ CX
  402. self.Emit("LEAQ" , jit.Sib(_IC, _CX, 1, -1), _SI) // LEAQ -1(IC)(CX), SI
  403. self.Emit("LEAQ" , jit.Ptr(_R9, 16), _DX) // LEAQ 16(R8), DX
  404. self.Emit("LEAQ" , _VAR_ss_Ep, _CX) // LEAQ ss.Ep, CX
  405. self.Emit("XORL" , _R8, _R8) // XORL R8, R8
  406. self.Emit("BTQ" , jit.Imm(_F_disable_urc), _VAR_df) // BTQ ${_F_disable_urc}, fv
  407. self.Emit("SETCC", _R8) // SETCC R8
  408. self.Emit("SHLQ" , jit.Imm(types.B_UNICODE_REPLACE), _R8) // SHLQ ${types.B_UNICODE_REPLACE}, R8
  409. /* unquote the string, with R9 been preserved */
  410. self.Emit("MOVQ", _R9, _VAR_R9) // SAVE R9
  411. self.call_c(_F_unquote) // CALL unquote
  412. self.Emit("MOVQ", _VAR_R9, _R9) // LOAD R9
  413. /* check for errors */
  414. self.Emit("TESTQ", _AX, _AX) // TESTQ AX, AX
  415. self.Sjmp("JS" , "_unquote_error") // JS _unquote_error
  416. self.Emit("MOVL" , jit.Imm(1), _DX) // MOVL $1, DX
  417. self.Emit("LEAQ" , jit.Ptr(_R9, 16), _R8) // ADDQ $16, R8
  418. self.Emit("MOVQ" , _R8, jit.Ptr(_R9, 0)) // MOVQ R8, (R9)
  419. self.Emit("MOVQ" , _AX, jit.Ptr(_R9, 8)) // MOVQ AX, 8(R9)
  420. self.Sjmp("JMP" , "_noescape") // JMP _noescape
  421. /** V_DOUBLE **/
  422. self.Link("_decode_V_DOUBLE") // _decode_V_DOUBLE:
  423. self.Emit("BTQ" , jit.Imm(_F_use_number), _VAR_df) // BTQ _F_use_number, df
  424. self.Sjmp("JC" , "_use_number") // JC _use_number
  425. self.Emit("MOVSD", _VAR_ss_Dv, _X0) // MOVSD ss.Dv, X0
  426. self.Sjmp("JMP" , "_use_float64") // JMP _use_float64
  427. /** V_INTEGER **/
  428. self.Link("_decode_V_INTEGER") // _decode_V_INTEGER:
  429. self.Emit("BTQ" , jit.Imm(_F_use_number), _VAR_df) // BTQ _F_use_number, df
  430. self.Sjmp("JC" , "_use_number") // JC _use_number
  431. self.Emit("BTQ" , jit.Imm(_F_use_int64), _VAR_df) // BTQ _F_use_int64, df
  432. self.Sjmp("JC" , "_use_int64") // JC _use_int64
  433. //TODO: use ss.Dv directly
  434. self.Emit("MOVSD", _VAR_ss_Dv, _X0) // MOVSD ss.Dv, X0
  435. /* represent numbers as `float64` */
  436. self.Link("_use_float64") // _use_float64:
  437. self.Emit("MOVQ" , _X0, _AX) // MOVQ X0, AX
  438. self.call_go(_F_convT64) // CALL_GO runtime.convT64
  439. self.Emit("MOVQ" , _T_float64, _R8) // MOVQ _T_float64, R8
  440. self.Emit("MOVQ" , _AX, _R9) // MOVQ AX, R9
  441. self.Emit("MOVQ" , _VAR_ss_Ep, _DI) // MOVQ ss.Ep, DI
  442. self.Sjmp("JMP" , "_set_value") // JMP _set_value
  443. /* represent numbers as `json.Number` */
  444. self.Link("_use_number") // _use_number
  445. self.Emit("MOVQ", _VAR_ss_Ep, _AX) // MOVQ ss.Ep, AX
  446. self.Emit("LEAQ", jit.Sib(_IP, _AX, 1, 0), _SI) // LEAQ (IP)(AX), SI
  447. self.Emit("MOVQ", _IC, _CX) // MOVQ IC, CX
  448. self.Emit("SUBQ", _AX, _CX) // SUBQ AX, CX
  449. self.Emit("MOVQ", _SI, _AX) // MOVQ SI, AX
  450. self.Emit("MOVQ", _CX, _BX) // MOVQ CX, BX
  451. self.call_go(_F_convTstring) // CALL_GO runtime.convTstring
  452. self.Emit("MOVQ", _T_number, _R8) // MOVQ _T_number, R8
  453. self.Emit("MOVQ", _AX, _R9) // MOVQ AX, R9
  454. self.Emit("MOVQ", _VAR_ss_Ep, _DI) // MOVQ ss.Ep, DI
  455. self.Sjmp("JMP" , "_set_value") // JMP _set_value
  456. /* represent numbers as `int64` */
  457. self.Link("_use_int64") // _use_int64:
  458. self.Emit("MOVQ", _VAR_ss_Iv, _AX) // MOVQ ss.Iv, AX
  459. self.call_go(_F_convT64) // CALL_GO runtime.convT64
  460. self.Emit("MOVQ", _T_int64, _R8) // MOVQ _T_int64, R8
  461. self.Emit("MOVQ", _AX, _R9) // MOVQ AX, R9
  462. self.Emit("MOVQ", _VAR_ss_Ep, _DI) // MOVQ ss.Ep, DI
  463. self.Sjmp("JMP" , "_set_value") // JMP _set_value
  464. /** V_KEY_SEP **/
  465. self.Link("_decode_V_KEY_SEP") // _decode_V_KEY_SEP:
  466. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  467. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vt), _AX) // MOVQ ST.Vt[CX], AX
  468. self.Emit("CMPQ", _AX, jit.Imm(_S_obj_delim)) // CMPQ AX, _S_obj_delim
  469. self.Sjmp("JNE" , "_invalid_char") // JNE _invalid_char
  470. self.Emit("MOVQ", jit.Imm(_S_val), jit.Sib(_ST, _CX, 8, _ST_Vt)) // MOVQ _S_val, ST.Vt[CX]
  471. self.Emit("MOVQ", jit.Imm(_S_obj), jit.Sib(_ST, _CX, 8, _ST_Vt - 8)) // MOVQ _S_obj, ST.Vt[CX - 1]
  472. self.Sjmp("JMP" , "_next") // JMP _next
  473. /** V_ELEM_SEP **/
  474. self.Link("_decode_V_ELEM_SEP") // _decode_V_ELEM_SEP:
  475. self.Emit("MOVQ" , jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  476. self.Emit("MOVQ" , jit.Sib(_ST, _CX, 8, _ST_Vt), _AX) // MOVQ ST.Vt[CX], AX
  477. self.Emit("CMPQ" , _AX, jit.Imm(_S_arr))
  478. self.Sjmp("JE" , "_array_sep") // JZ _next
  479. self.Emit("CMPQ" , _AX, jit.Imm(_S_obj)) // CMPQ _AX, _S_arr
  480. self.Sjmp("JNE" , "_invalid_char") // JNE _invalid_char
  481. self.Emit("MOVQ" , jit.Imm(_S_obj_sep), jit.Sib(_ST, _CX, 8, _ST_Vt))
  482. self.Sjmp("JMP" , "_next") // JMP _next
  483. /* arrays */
  484. self.Link("_array_sep")
  485. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vp), _SI) // MOVQ ST.Vp[CX], SI
  486. self.Emit("MOVQ", jit.Ptr(_SI, 8), _SI) // MOVQ 8(SI), SI
  487. self.Emit("MOVQ", jit.Ptr(_SI, 8), _DX) // MOVQ 8(SI), DX
  488. self.Emit("CMPQ", _DX, jit.Ptr(_SI, 16)) // CMPQ DX, 16(SI)
  489. self.Sjmp("JAE" , "_array_more") // JAE _array_more
  490. /* add a slot for the new element */
  491. self.Link("_array_append") // _array_append:
  492. self.Emit("ADDQ", jit.Imm(1), jit.Ptr(_SI, 8)) // ADDQ $1, 8(SI)
  493. self.Emit("MOVQ", jit.Ptr(_SI, 0), _SI) // MOVQ (SI), SI
  494. self.Emit("ADDQ", jit.Imm(1), _CX) // ADDQ $1, CX
  495. self.Emit("CMPQ", _CX, jit.Imm(types.MAX_RECURSE)) // CMPQ CX, ${types.MAX_RECURSE}
  496. self.Sjmp("JAE" , "_stack_overflow") // JA _stack_overflow
  497. self.Emit("SHLQ", jit.Imm(1), _DX) // SHLQ $1, DX
  498. self.Emit("LEAQ", jit.Sib(_SI, _DX, 8, 0), _SI) // LEAQ (SI)(DX*8), SI
  499. self.Emit("MOVQ", _CX, jit.Ptr(_ST, _ST_Sp)) // MOVQ CX, ST.Sp
  500. self.WriteRecNotAX(7 , _SI, jit.Sib(_ST, _CX, 8, _ST_Vp), false) // MOVQ SI, ST.Vp[CX]
  501. self.Emit("MOVQ", jit.Imm(_S_val), jit.Sib(_ST, _CX, 8, _ST_Vt)) // MOVQ _S_val, ST.Vt[CX}
  502. self.Sjmp("JMP" , "_next") // JMP _next
  503. /** V_ARRAY_END **/
  504. self.Link("_decode_V_ARRAY_END") // _decode_V_ARRAY_END:
  505. self.Emit("XORL", _DX, _DX) // XORL DX, DX
  506. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  507. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vt), _AX) // MOVQ ST.Vt[CX], AX
  508. self.Emit("CMPQ", _AX, jit.Imm(_S_arr_0)) // CMPQ AX, _S_arr_0
  509. self.Sjmp("JE" , "_first_item") // JE _first_item
  510. self.Emit("CMPQ", _AX, jit.Imm(_S_arr)) // CMPQ AX, _S_arr
  511. self.Sjmp("JNE" , "_invalid_char") // JNE _invalid_char
  512. self.Emit("SUBQ", jit.Imm(1), jit.Ptr(_ST, _ST_Sp)) // SUBQ $1, ST.Sp
  513. self.Emit("MOVQ", _DX, jit.Sib(_ST, _CX, 8, _ST_Vp)) // MOVQ DX, ST.Vp[CX]
  514. self.Sjmp("JMP" , "_next") // JMP _next
  515. /* first element of an array */
  516. self.Link("_first_item") // _first_item:
  517. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  518. self.Emit("SUBQ", jit.Imm(2), jit.Ptr(_ST, _ST_Sp)) // SUBQ $2, ST.Sp
  519. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vp - 8), _SI) // MOVQ ST.Vp[CX - 1], SI
  520. self.Emit("MOVQ", jit.Ptr(_SI, 8), _SI) // MOVQ 8(SI), SI
  521. self.Emit("MOVQ", _DX, jit.Sib(_ST, _CX, 8, _ST_Vp - 8)) // MOVQ DX, ST.Vp[CX - 1]
  522. self.Emit("MOVQ", _DX, jit.Sib(_ST, _CX, 8, _ST_Vp)) // MOVQ DX, ST.Vp[CX]
  523. self.Emit("MOVQ", _DX, jit.Ptr(_SI, 8)) // MOVQ DX, 8(SI)
  524. self.Sjmp("JMP" , "_next") // JMP _next
  525. /** V_OBJECT_END **/
  526. self.Link("_decode_V_OBJECT_END") // _decode_V_OBJECT_END:
  527. self.Emit("MOVL", jit.Imm(_S_omask_end), _DI) // MOVL _S_omask, DI
  528. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  529. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vt), _AX) // MOVQ ST.Vt[CX], AX
  530. self.Emit("BTQ" , _AX, _DI)
  531. self.Sjmp("JNC" , "_invalid_char") // JNE _invalid_char
  532. self.Emit("XORL", _AX, _AX) // XORL AX, AX
  533. self.Emit("SUBQ", jit.Imm(1), jit.Ptr(_ST, _ST_Sp)) // SUBQ $1, ST.Sp
  534. self.Emit("MOVQ", _AX, jit.Sib(_ST, _CX, 8, _ST_Vp)) // MOVQ AX, ST.Vp[CX]
  535. self.Sjmp("JMP" , "_next") // JMP _next
  536. /* return from decoder */
  537. self.Link("_return") // _return:
  538. self.Emit("XORL", _EP, _EP) // XORL EP, EP
  539. self.Emit("MOVQ", _EP, jit.Ptr(_ST, _ST_Vp)) // MOVQ EP, ST.Vp[0]
  540. self.Link("_epilogue") // _epilogue:
  541. self.Emit("SUBQ", jit.Imm(_FsmOffset), _ST) // SUBQ _FsmOffset, _ST
  542. self.Emit("MOVQ", jit.Ptr(_SP, _VD_offs), _BP) // MOVQ _VD_offs(SP), BP
  543. self.Emit("ADDQ", jit.Imm(_VD_size), _SP) // ADDQ $_VD_size, SP
  544. self.Emit("RET") // RET
  545. /* array expand */
  546. self.Link("_array_more") // _array_more:
  547. self.Emit("MOVQ" , _T_eface, _AX) // MOVQ _T_eface, AX
  548. self.Emit("MOVQ" , jit.Ptr(_SI, 0), _BX) // MOVQ (SI), BX
  549. self.Emit("MOVQ" , jit.Ptr(_SI, 8), _CX) // MOVQ 8(SI), CX
  550. self.Emit("MOVQ" , jit.Ptr(_SI, 16), _DI) // MOVQ 16(SI), DI
  551. self.Emit("MOVQ" , _DI, _SI) // MOVQ DI, 24(SP)
  552. self.Emit("SHLQ" , jit.Imm(1), _SI) // SHLQ $1, SI
  553. self.call_go(_F_growslice) // CALL_GO runtime.growslice
  554. self.Emit("MOVQ" , _AX, _DI) // MOVQ AX, DI
  555. self.Emit("MOVQ" , _BX, _DX) // MOVQ BX, DX
  556. self.Emit("MOVQ" , _CX, _AX) // MOVQ CX, AX
  557. /* update the slice */
  558. self.Emit("MOVQ", jit.Ptr(_ST, _ST_Sp), _CX) // MOVQ ST.Sp, CX
  559. self.Emit("MOVQ", jit.Sib(_ST, _CX, 8, _ST_Vp), _SI) // MOVQ ST.Vp[CX], SI
  560. self.Emit("MOVQ", jit.Ptr(_SI, 8), _SI) // MOVQ 8(SI), SI
  561. self.Emit("MOVQ", _DX, jit.Ptr(_SI, 8)) // MOVQ DX, 8(SI)
  562. self.Emit("MOVQ", _AX, jit.Ptr(_SI, 16)) // MOVQ AX, 16(AX)
  563. self.WriteRecNotAX(8 , _DI, jit.Ptr(_SI, 0), false) // MOVQ R10, (SI)
  564. self.Sjmp("JMP" , "_array_append") // JMP _array_append
  565. /* copy string */
  566. self.Link("copy_string") // pointer: R8, length: AX, return addr: DI
  567. self.Emit("MOVQ", _R8, _VAR_cs_p)
  568. self.Emit("MOVQ", _AX, _VAR_cs_n)
  569. self.Emit("MOVQ", _DI, _VAR_cs_LR)
  570. self.Emit("MOVQ", _AX, _BX)
  571. self.Emit("MOVQ", _AX, _CX)
  572. self.Emit("MOVQ", _T_byte, _AX)
  573. self.call_go(_F_makeslice)
  574. self.Emit("MOVQ", _AX, _VAR_cs_d)
  575. self.Emit("MOVQ", _VAR_cs_p, _BX)
  576. self.Emit("MOVQ", _VAR_cs_n, _CX)
  577. self.call_go(_F_memmove)
  578. self.Emit("MOVQ", _VAR_cs_d, _R8)
  579. self.Emit("MOVQ", _VAR_cs_n, _AX)
  580. self.Emit("MOVQ", _VAR_cs_LR, _DI)
  581. self.Rjmp("JMP", _DI)
  582. /* error handlers */
  583. self.Link("_stack_overflow")
  584. self.Emit("MOVL" , _E_recurse, _EP) // MOVQ _E_recurse, EP
  585. self.Sjmp("JMP" , "_error") // JMP _error
  586. self.Link("_vtype_error") // _vtype_error:
  587. self.Emit("MOVQ" , _DI, _IC) // MOVQ DI, IC
  588. self.Emit("MOVL" , _E_invalid, _EP) // MOVL _E_invalid, EP
  589. self.Sjmp("JMP" , "_error") // JMP _error
  590. self.Link("_invalid_char") // _invalid_char:
  591. self.Emit("SUBQ" , jit.Imm(1), _IC) // SUBQ $1, IC
  592. self.Emit("MOVL" , _E_invalid, _EP) // MOVL _E_invalid, EP
  593. self.Sjmp("JMP" , "_error") // JMP _error
  594. self.Link("_unquote_error") // _unquote_error:
  595. self.Emit("MOVQ" , _VAR_ss_Iv, _IC) // MOVQ ss.Iv, IC
  596. self.Emit("SUBQ" , jit.Imm(1), _IC) // SUBQ $1, IC
  597. self.Link("_parsing_error") // _parsing_error:
  598. self.Emit("NEGQ" , _AX) // NEGQ AX
  599. self.Emit("MOVQ" , _AX, _EP) // MOVQ AX, EP
  600. self.Link("_error") // _error:
  601. self.Emit("PXOR" , _X0, _X0) // PXOR X0, X0
  602. self.Emit("MOVOU", _X0, jit.Ptr(_VP, 0)) // MOVOU X0, (VP)
  603. self.Sjmp("JMP" , "_epilogue") // JMP _epilogue
  604. /* invalid value type, never returns */
  605. self.Link("_invalid_vtype")
  606. self.call_go(_F_invalid_vtype) // CALL invalid_type
  607. self.Emit("UD2") // UD2
  608. /* switch jump table */
  609. self.Link("_switch_table") // _switch_table:
  610. self.Sref("_decode_V_EOF", 0) // SREF &_decode_V_EOF, $0
  611. self.Sref("_decode_V_NULL", -4) // SREF &_decode_V_NULL, $-4
  612. self.Sref("_decode_V_TRUE", -8) // SREF &_decode_V_TRUE, $-8
  613. self.Sref("_decode_V_FALSE", -12) // SREF &_decode_V_FALSE, $-12
  614. self.Sref("_decode_V_ARRAY", -16) // SREF &_decode_V_ARRAY, $-16
  615. self.Sref("_decode_V_OBJECT", -20) // SREF &_decode_V_OBJECT, $-20
  616. self.Sref("_decode_V_STRING", -24) // SREF &_decode_V_STRING, $-24
  617. self.Sref("_decode_V_DOUBLE", -28) // SREF &_decode_V_DOUBLE, $-28
  618. self.Sref("_decode_V_INTEGER", -32) // SREF &_decode_V_INTEGER, $-32
  619. self.Sref("_decode_V_KEY_SEP", -36) // SREF &_decode_V_KEY_SEP, $-36
  620. self.Sref("_decode_V_ELEM_SEP", -40) // SREF &_decode_V_ELEM_SEP, $-40
  621. self.Sref("_decode_V_ARRAY_END", -44) // SREF &_decode_V_ARRAY_END, $-44
  622. self.Sref("_decode_V_OBJECT_END", -48) // SREF &_decode_V_OBJECT_END, $-48
  623. /* fast character lookup table */
  624. self.Link("_decode_tab") // _decode_tab:
  625. self.Sref("_decode_V_EOF", 0) // SREF &_decode_V_EOF, $0
  626. /* generate rest of the tabs */
  627. for i := 1; i < 256; i++ {
  628. if to, ok := _R_tab[i]; ok {
  629. self.Sref(to, -int64(i) * 4)
  630. } else {
  631. self.Byte(0x00, 0x00, 0x00, 0x00)
  632. }
  633. }
  634. }
  635. /** Generic Decoder **/
  636. var (
  637. _subr_decode_value = new(_ValueDecoder).build()
  638. )
  639. //go:nosplit
  640. func invalid_vtype(vt types.ValueType) {
  641. throw(fmt.Sprintf("invalid value type: %d", vt))
  642. }