| Line 228... |
Line 228... |
| 228 |
__asm__ volatile(" mov r2, #0 \n");
|
228 |
__asm__ volatile(" mov r2, #0 \n");
|
| 229 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
229 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
| 230 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
230 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
| 231 |
__asm__ volatile(" add r1, r1, r4 \n");
|
231 |
__asm__ volatile(" add r1, r1, r4 \n");
|
| 232 |
__asm__ volatile(" add r1, r1, r0 \n");
|
232 |
__asm__ volatile(" add r1, r1, r0 \n");
|
| 233 |
__asm__ volatile(" cmp r1, #0 \n");
|
233 |
__asm__ volatile(" cmp r1, #0xff \n");
|
| 234 |
__asm__ volatile(" movlt r1, #0 \n");
|
234 |
__asm__ volatile(" mvnhi r1, r1,asr#31 \n");
|
| 235 |
__asm__ volatile(" cmp r1, #0xff \n");
|
- |
|
| 236 |
__asm__ volatile(" movgt r1, #0xff \n");
|
235 |
__asm__ volatile(" andhi r1, r1, #0xff \n");
|
| 237 |
__asm__ volatile(" mov r0, r1,lsr#3 \n");
|
236 |
__asm__ volatile(" mov r0, r1,lsr#3 \n");
|
| 238 |
__asm__ volatile(" orr r2, r0,lsl#11 \n");
|
237 |
__asm__ volatile(" orr r2, r0,lsl#11 \n");
|
| 239 |
__asm__ volatile(" sub r1, r1, r0,lsl#3 \n");
|
238 |
__asm__ volatile(" sub r1, r1, r0,lsl#3 \n");
|
| 240 |
__asm__ volatile(" sub r1, r1, r0,lsr#2 \n");
|
239 |
__asm__ volatile(" sub r1, r1, r0,lsr#2 \n");
|
| 241 |
__asm__ volatile(" mov r4, r4,lsr#1 \n");
|
240 |
__asm__ volatile(" mov r4, r4,lsr#1 \n");
|
| Line 244... |
Line 243... |
| 244 |
__asm__ volatile(" mov r4, r1,asr#1 \n");
|
243 |
__asm__ volatile(" mov r4, r1,asr#1 \n");
|
| 245 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
244 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
| 246 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
245 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
| 247 |
__asm__ volatile(" add r1, r1, r5 \n");
|
246 |
__asm__ volatile(" add r1, r1, r5 \n");
|
| 248 |
__asm__ volatile(" add r1, r1, r0 \n");
|
247 |
__asm__ volatile(" add r1, r1, r0 \n");
|
| 249 |
__asm__ volatile(" cmp r1, #0 \n");
|
248 |
__asm__ volatile(" cmp r1, #0xff \n");
|
| 250 |
__asm__ volatile(" movlt r1, #0 \n");
|
249 |
__asm__ volatile(" mvnhi r1, r1,asr#31 \n");
|
| 251 |
__asm__ volatile(" cmp r1, #0xff \n");
|
- |
|
| 252 |
__asm__ volatile(" movgt r1, #0xff \n");
|
250 |
__asm__ volatile(" andhi r1, r1, #0xff \n");
|
| 253 |
__asm__ volatile(" mov r0, r1,lsr#2 \n");
|
251 |
__asm__ volatile(" mov r0, r1,lsr#2 \n");
|
| 254 |
__asm__ volatile(" orr r2, r0,lsl#5 \n");
|
252 |
__asm__ volatile(" orr r2, r0,lsl#5 \n");
|
| 255 |
__asm__ volatile(" sub r1, r1, r0,lsl#2 \n");
|
253 |
__asm__ volatile(" sub r1, r1, r0,lsl#2 \n");
|
| 256 |
__asm__ volatile(" sub r1, r1, r0,lsr#4 \n");
|
254 |
__asm__ volatile(" sub r1, r1, r0,lsr#4 \n");
|
| 257 |
__asm__ volatile(" mov r5, r5,lsr#1 \n");
|
255 |
__asm__ volatile(" mov r5, r5,lsr#1 \n");
|
| Line 260... |
Line 258... |
| 260 |
__asm__ volatile(" mov r5, r1,asr#1 \n");
|
258 |
__asm__ volatile(" mov r5, r1,asr#1 \n");
|
| 261 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
259 |
__asm__ volatile(" ldrb r1, [r3], #1 \n");
|
| 262 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
260 |
__asm__ volatile(" ldrsb r0, [r7] \n");
|
| 263 |
__asm__ volatile(" add r1, r1, r6 \n");
|
261 |
__asm__ volatile(" add r1, r1, r6 \n");
|
| 264 |
__asm__ volatile(" add r1, r1, r0 \n");
|
262 |
__asm__ volatile(" add r1, r1, r0 \n");
|
| 265 |
__asm__ volatile(" cmp r1, #0 \n");
|
263 |
__asm__ volatile(" cmp r1, #0xff \n");
|
| 266 |
__asm__ volatile(" movlt r1, #0 \n");
|
264 |
__asm__ volatile(" mvnhi r1, r1,asr#31 \n");
|
| 267 |
__asm__ volatile(" cmp r1, #0xff \n");
|
- |
|
| 268 |
__asm__ volatile(" movgt r1, #0xff \n");
|
265 |
__asm__ volatile(" andhi r1, r1, #0xff \n");
|
| 269 |
__asm__ volatile(" mov r0, r1,lsr#3 \n");
|
266 |
__asm__ volatile(" mov r0, r1,lsr#3 \n");
|
| 270 |
__asm__ volatile(" orr r2, r0 \n");
|
267 |
__asm__ volatile(" orr r2, r0 \n");
|
| 271 |
__asm__ volatile(" sub r1, r1, r0,lsl#3 \n");
|
268 |
__asm__ volatile(" sub r1, r1, r0,lsl#3 \n");
|
| 272 |
__asm__ volatile(" sub r1, r1, r0,lsr#2 \n");
|
269 |
__asm__ volatile(" sub r1, r1, r0,lsr#2 \n");
|
| 273 |
__asm__ volatile(" mov r6, r6,lsr#1 \n");
|
270 |
__asm__ volatile(" mov r6, r6,lsr#1 \n");
|