logo

Tipos de técnicas de codificación

El proceso de conversión de datos de un formulario a otro se conoce como codificación. Se utiliza para transformar los datos de modo que puedan ser respaldados y utilizados por diferentes sistemas. La codificación funciona de manera similar a convertir la temperatura de grados centígrados a Fahrenheit, ya que simplemente se convierte de otra forma, pero el valor original siempre sigue siendo el mismo. La codificación se utiliza principalmente en dos campos:

    Codificación en Electrónica:En electrónica, la codificación se refiere a la conversión de señales analógicas en señales digitales.Codificación en Computación:En informática, la codificación es un proceso de convertir datos a un cifrado equivalente aplicando códigos, letras y números específicos a los datos.

Nota: La codificación es diferente del cifrado ya que su objetivo principal no es ocultar los datos sino convertirlos a un formato para que puedan consumirse correctamente.

En este tema, analizaremos los diferentes tipos de técnicas de codificación que se utilizan en informática.

Tipo de técnica de codificación

Tipos de técnicas de codificación
    Codificación de caracteres Codificación de imagen, audio y vídeo

Codificación de caracteres

La codificación de caracteres codifica caracteres en bytes. . Informa a las computadoras cómo interpretar el cero y los unos en caracteres, números y símbolos reales. La computadora sólo entiende datos binarios; por lo tanto, es necesario convertir estos caracteres en códigos numéricos. Para lograr esto, cada carácter se convierte en código binario y, para ello, los documentos de texto se guardan con tipos de codificación. Se puede hacer emparejando números con caracteres. Si no aplicamos la codificación de caracteres, nuestro sitio web no mostrará los caracteres ni el texto en el formato adecuado. Por lo tanto, disminuirá la legibilidad y la máquina no podrá procesar los datos correctamente. Además, la codificación de caracteres garantiza que cada carácter tenga una representación adecuada en formato informático o binario.

Existen diferentes tipos de técnicas de codificación de caracteres, que se detallan a continuación:

    Codificación HTML Codificación de URL Codificación Unicode Codificación Base64 Codificación hexadecimal Codificación ASCII

Codificación HTML

La codificación HTML se utiliza para mostrar una página HTML en un formato adecuado. Con la codificación, un navegador web sabe qué juego de caracteres se utilizará.

En HTML, se utilizan varios caracteres en el marcado HTML, como . Para codificar estos caracteres como contenido, necesitamos usar una codificación.

Codificación de URL

La codificación URL (localizador uniforme de recursos) se utiliza para convertir caracteres en un formato tal que puedan transmitirse a través de Internet . También se conoce como codificación porcentual. La codificación de URL se realiza para enviar la URL a Internet utilizando el juego de caracteres ASCII. Los caracteres que no son ASCII se reemplazan por un %, seguido de los dígitos hexadecimales.

Codificación UNICODE

Unicode es un estándar de codificación para un conjunto de caracteres universal. Permite codificar, representar y manejar el texto representado en la mayoría de los idiomas o sistemas de escritura que se encuentran disponibles a nivel mundial. Proporciona un punto de código o número para cada carácter en cada idioma admitido. Puede representar aproximadamente todos los caracteres posibles posibles en todos los idiomas. Una secuencia particular de bits se conoce como unidad de codificación.

Un estándar UNICODE puede utilizar 8, 16 o 32 bits para representar los caracteres.

El estándar Unicode define el formato de transformación Unicode (UTF) para codificar los puntos de código.

El estándar de codificación UNICODE tiene los siguientes esquemas UTF:

    Codificación UTF-8
    UTF8 está definido por el estándar UNICODE, que es una codificación de caracteres de ancho variable utilizada en comunicaciones electrónicas. UTF-8 es capaz de codificar los 1.112.064 puntos de código de caracteres válidos en Unicode utilizando de una a cuatro unidades de código de un byte (8 bits).Codificación UTF-16
    La codificación UTF16 representa los puntos de código de un carácter utilizando uno de dos enteros de 16 bits.Codificación UTF-32
    La codificación UTF32 representa cada punto de código como números enteros de 32 bits.

Codificación Base64

La codificación Base64 se utiliza para codificar datos binarios en caracteres ASCII equivalentes. La codificación Base64 se utiliza en el sistema de correo, ya que los sistemas de correo como SMTP no pueden funcionar con datos binarios porque solo aceptan datos textuales ASCII. También se utiliza en la autenticación HTTP simple para codificar las credenciales. Además, también se utiliza para transferir datos binarios a cookies y otros parámetros para hacer que los datos sean ilegibles y evitar manipulaciones. Si una imagen u otro archivo se transfiere sin codificación Base64, se dañará ya que el sistema de correo no puede manejar datos binarios.

Base64 representa los datos en bloques de 3 bytes, donde cada byte contiene 8 bits; por tanto, representa 24 bits. Estos 24 bits se dividen en cuatro grupos de 6 bits. Cada uno de estos grupos o fragmentos se convierte en un valor Base64 equivalente.

Codificación ASCII

Código Estándar Americano para Intercambio de Información (ASCII) es un tipo de codificación de caracteres. Fue el primer estándar de codificación de caracteres lanzado en el año 1963.

El código ASCII se utiliza para representar caracteres ingleses como números, donde a cada letra se le asigna un número de 0 a 127. La mayoría de los esquemas de codificación de caracteres modernos se basan en ASCII, aunque admiten muchos caracteres adicionales. Es una codificación de un solo byte que utiliza únicamente los 7 bits inferiores. En un archivo ASCII, cada carácter alfabético, numérico o especial se representa con un número binario de 7 bits. Cada carácter del teclado tiene un valor ASCII equivalente.

Codificación de imagen, audio y vídeo

La codificación de imágenes, audio y vídeo se realiza para ahorrar espacio de almacenamiento. Un archivo multimedia, como imagen, audio y vídeo, se codifica para guardarlo en un formato comprimido más eficiente.

Estos archivos codificados contienen el mismo contenido con una calidad generalmente similar, pero en tamaño comprimido, para que puedan guardarse en menos espacio, transferirse fácilmente por correo o descargarse en el sistema.

Podemos entenderlo como un . El archivo de audio WAV se convierte en un archivo .MP3 para reducir el tamaño en 1/10tha su tamaño original.