| Line 255... |
Line 255... |
| 255 |
__asm__ volatile(" mov r2, #0 \n");
|
255 |
__asm__ volatile(" mov r2, #0 \n");
|
| 256 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
256 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
| 257 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
257 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
| 258 |
__asm__ volatile(" add r1, r1, r4 \n");
|
258 |
__asm__ volatile(" add r1, r1, r4 \n");
|
| 259 |
__asm__ volatile(" add r1, r1, r0 \n");
|
259 |
__asm__ volatile(" add r1, r1, r0 \n");
|
| 260 |
__asm__ volatile(" cmp r1, #0 \n");
|
260 |
__asm__ volatile(" cmp r1, #0xff \n");
|
| 261 |
__asm__ volatile(" movlt r1, #0 \n");
|
261 |
__asm__ volatile(" mvnhi r1, r1,asr#31 \n");
|
| 262 |
__asm__ volatile(" cmp r1, #0xff \n");
|
- |
|
| 263 |
__asm__ volatile(" movgt r1, #0xff \n");
|
262 |
__asm__ volatile(" andhi r1, r1, #0xff \n");
|
| 264 |
__asm__ volatile(" mov r0, r1,lsr#3 \n");
|
263 |
__asm__ volatile(" mov r0, r1,lsr#3 \n");
|
| 265 |
__asm__ volatile(" orr r2, r0,lsl#11 \n");
|
264 |
__asm__ volatile(" orr r2, r0,lsl#11 \n");
|
| 266 |
__asm__ volatile(" sub r1, r1, r0,lsl#3 \n");
|
265 |
__asm__ volatile(" sub r1, r1, r0,lsl#3 \n");
|
| 267 |
__asm__ volatile(" sub r1, r1, r0,lsr#2 \n");
|
266 |
__asm__ volatile(" sub r1, r1, r0,lsr#2 \n");
|
| 268 |
__asm__ volatile(" mov r4, r4,lsr#1 \n");
|
267 |
__asm__ volatile(" mov r4, r4,lsr#1 \n");
|
| Line 271... |
Line 270... |
| 271 |
__asm__ volatile(" mov r4, r1,asr#1 \n");
|
270 |
__asm__ volatile(" mov r4, r1,asr#1 \n");
|
| 272 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
271 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
| 273 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
272 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
| 274 |
__asm__ volatile(" add r1, r1, r5 \n");
|
273 |
__asm__ volatile(" add r1, r1, r5 \n");
|
| 275 |
__asm__ volatile(" add r1, r1, r0 \n");
|
274 |
__asm__ volatile(" add r1, r1, r0 \n");
|
| 276 |
__asm__ volatile(" cmp r1, #0 \n");
|
275 |
__asm__ volatile(" cmp r1, #0xff \n");
|
| 277 |
__asm__ volatile(" movlt r1, #0 \n");
|
276 |
__asm__ volatile(" mvnhi r1, r1,asr#31 \n");
|
| 278 |
__asm__ volatile(" cmp r1, #0xff \n");
|
- |
|
| 279 |
__asm__ volatile(" movgt r1, #0xff \n");
|
277 |
__asm__ volatile(" andhi r1, r1, #0xff \n");
|
| 280 |
__asm__ volatile(" mov r0, r1,lsr#2 \n");
|
278 |
__asm__ volatile(" mov r0, r1,lsr#2 \n");
|
| 281 |
__asm__ volatile(" orr r2, r0,lsl#5 \n");
|
279 |
__asm__ volatile(" orr r2, r0,lsl#5 \n");
|
| 282 |
__asm__ volatile(" sub r1, r1, r0,lsl#2 \n");
|
280 |
__asm__ volatile(" sub r1, r1, r0,lsl#2 \n");
|
| 283 |
__asm__ volatile(" sub r1, r1, r0,lsr#4 \n");
|
281 |
__asm__ volatile(" sub r1, r1, r0,lsr#4 \n");
|
| 284 |
__asm__ volatile(" mov r5, r5,lsr#1 \n");
|
282 |
__asm__ volatile(" mov r5, r5,lsr#1 \n");
|
| Line 287... |
Line 285... |
| 287 |
__asm__ volatile(" mov r5, r1,asr#1 \n");
|
285 |
__asm__ volatile(" mov r5, r1,asr#1 \n");
|
| 288 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
286 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
| 289 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
287 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
| 290 |
__asm__ volatile(" add r1, r1, r6 \n");
|
288 |
__asm__ volatile(" add r1, r1, r6 \n");
|
| 291 |
__asm__ volatile(" add r1, r1, r0 \n");
|
289 |
__asm__ volatile(" add r1, r1, r0 \n");
|
| 292 |
__asm__ volatile(" cmp r1, #0 \n");
|
290 |
__asm__ volatile(" cmp r1, #0xff \n");
|
| 293 |
__asm__ volatile(" movlt r1, #0 \n");
|
291 |
__asm__ volatile(" mvnhi r1, r1,asr#31 \n");
|
| 294 |
__asm__ volatile(" cmp r1, #0xff \n");
|
- |
|
| 295 |
__asm__ volatile(" movgt r1, #0xff \n");
|
292 |
__asm__ volatile(" andhi r1, r1, #0xff \n");
|
| 296 |
__asm__ volatile(" mov r0, r1,lsr#3 \n");
|
293 |
__asm__ volatile(" mov r0, r1,lsr#3 \n");
|
| 297 |
__asm__ volatile(" orr r2, r0 \n");
|
294 |
__asm__ volatile(" orr r2, r0 \n");
|
| 298 |
__asm__ volatile(" sub r1, r1, r0,lsl#3 \n");
|
295 |
__asm__ volatile(" sub r1, r1, r0,lsl#3 \n");
|
| 299 |
__asm__ volatile(" sub r1, r1, r0,lsr#2 \n");
|
296 |
__asm__ volatile(" sub r1, r1, r0,lsr#2 \n");
|
| 300 |
__asm__ volatile(" mov r6, r6,lsr#1 \n");
|
297 |
__asm__ volatile(" mov r6, r6,lsr#1 \n");
|