Use int32_t instead of plain int with Unicode code points
authorPetri Lehtinen <petri@digip.org>
Wed, 2 Dec 2009 21:48:50 +0000 (23:48 +0200)
committerPetri Lehtinen <petri@digip.org>
Wed, 2 Dec 2009 21:53:54 +0000 (23:53 +0200)
On some architectures, int just isn't big enough to hold all Unicode
code points.

src/dump.c
src/load.c
src/utf.c

index ac0b8dc..8d2a82b 100644 (file)
@@ -9,6 +9,7 @@
 #include <stdio.h>
 #include <stdlib.h>
 #include <string.h>
+#include <stdint.h>
 
 #include <jansson.h>
 #include "jansson_private.h"
index 1ae62b3..32d6500 100644 (file)
@@ -14,6 +14,7 @@
 #include <string.h>
 #include <stdarg.h>
 #include <assert.h>
+#include <stdint.h>
 
 #include <jansson.h>
 #include "jansson_private.h"
@@ -221,10 +222,10 @@ static void lex_save_cached(lex_t *lex)
 }
 
 /* assumes that str points to 'u' plus at least 4 valid hex digits */
-static int decode_unicode_escape(const char *str)
+static int32_t decode_unicode_escape(const char *str)
 {
     int i;
-    int value = 0;
+    int32_t value = 0;
 
     assert(str[0] == 'u');
 
@@ -325,7 +326,7 @@ static void lex_scan_string(lex_t *lex, json_error_t *error)
             if(*p == 'u') {
                 char buffer[4];
                 int length;
-                int value;
+                int32_t value;
 
                 value = decode_unicode_escape(p);
                 p += 5;
@@ -333,7 +334,7 @@ static void lex_scan_string(lex_t *lex, json_error_t *error)
                 if(0xD800 <= value && value <= 0xDBFF) {
                     /* surrogate pair */
                     if(*p == '\\' && *(p + 1) == 'u') {
-                        int value2 = decode_unicode_escape(++p);
+                        int32_t value2 = decode_unicode_escape(++p);
                         p += 5;
 
                         if(0xDC00 <= value2 && value2 <= 0xDFFF) {
index cf2e8e4..2efcb68 100644 (file)
--- a/src/utf.c
+++ b/src/utf.c
@@ -6,8 +6,9 @@
  */
 
 #include <string.h>
+#include <stdint.h>
 
-int utf8_encode(int codepoint, char *buffer, int *size)
+int utf8_encode(int32_t codepoint, char *buffer, int *size)
 {
     if(codepoint < 0)
         return -1;
@@ -81,7 +82,8 @@ int utf8_check_first(char byte)
 
 int utf8_check_full(const char *buffer, int size)
 {
-    int i, value = 0;
+    int i;
+    int32_t value = 0;
     unsigned char u = (unsigned char)buffer[0];
 
     if(size == 2)