Bases generales para comparar tamaños de caracteres alfabéticos en computadoras
En las microcomputadoras, la comparación de caracteres se refiere a la operación de comparar el tamaño de un solo carácter o cadena según el orden del diccionario. Generalmente, el tamaño del código ASCII se utiliza como estándar para la comparación de caracteres.
Si el valor del código ASCII de un carácter es mayor que el valor de otro carácter, el carácter anterior se considera "mayor" que el siguiente, por ejemplo, "C" es mayor que "A".
Los caracteres suelen utilizar el juego de caracteres ASCII aceptado internacionalmente. Cada carácter está representado por un código binario de 8 bits dentro de la computadora. BASIC especifica que dos caracteres individuales se comparan comparando sus valores de código.
Por ejemplo, en la tabla de caracteres ASCII, el valor del código de "A" es 65 (número decimal) y el valor del código de "B" es 66 (número decimal), por lo que "A" es menor que "B". Cuando se realiza una acción
El juego de caracteres ASCII y sus valores de código se muestran en la tabla adjunta. La regla general es: el código de espacio tiene el valor más pequeño; el valor del código numérico es menor que el valor del código de letras. Entre los códigos numéricos, 0 tiene el valor de código más pequeño y 9 tiene el valor de código más grande. En letras, los valores de código aumentan de tamaño en orden alfabético.
ASCII (Código estándar americano para el intercambio de información) es un sistema de codificación informático basado en el alfabeto latino, utilizado principalmente para mostrar inglés moderno y otros idiomas de Europa occidental.
Este es el estándar de intercambio de información más utilizado y es equivalente al estándar internacional ISO/IEC 646. ASCII se lanzó por primera vez como tipo estándar en 1967 y se actualizó por última vez en 1986. Hasta ahora, * * * se han definido 128 caracteres.
En las computadoras, todos los datos deben representarse mediante números binarios cuando se almacenan y manipulan (porque las computadoras usan niveles alto y bajo para representar 1 y 0 respectivamente).
Por ejemplo, también se deben almacenar 52 letras como A, B, C y D, números como 0 y 1 y algunos símbolos comunes (como *, #, @, etc.). en números binarios cuando se almacena en la computadora Indica qué números binarios deben usarse para representar qué símbolos.
Por supuesto, todos pueden ponerse de acuerdo sobre su propio conjunto (esto se llama codificación), y si todos quieren comunicarse entre sí sin causar confusión, todos deben usar las mismas reglas de codificación, por lo que las organizaciones de estandarización relevantes En los Estados Unidos se introdujo la codificación ASCII, que estipula de manera uniforme qué números binarios se utilizan para representar los símbolos comunes anteriores.
El Código Estándar Estadounidense para el Intercambio de Información fue desarrollado por el Instituto Nacional Estadounidense de Estándares (ANSI) y es un esquema estándar de codificación de caracteres de un solo byte para datos basados en texto.
Originalmente era un estándar nacional en los Estados Unidos y fue utilizado como estándar de codificación de caracteres occidental por diferentes computadoras para comunicarse entre sí. Posteriormente, fue designada como estándar internacional por la Organización Internacional de Normalización (ISO), denominada norma ISO 646. Funciona con todas las letras latinas.