A) John Smith B) Robert Johnson C) Alice Jones D) David A. Huffman
A) Codificación de longitud fija B) Codificación binaria C) Codificación de longitud variable D) Codificación ASCII
A) Símbolos frecuentes B) Símbolos raros C) Símbolos que empiezan por A D) Símbolos en índices impares
A) Un código que sólo utiliza 0s y 1s B) Un código con palabras clave de igual longitud C) Un código que comienza con el mismo símbolo D) Código en el que ninguna palabra es prefijo de otra.
A) O(n) B) O(n2) C) O(log n) D) O(n log n)
A) Árbol equilibrado B) Árbol perfecto C) Árbol completo D) Árbol binario óptimo
A) Velocidad de codificación B) Relación de compresión C) Consumo de memoria D) Número de símbolos
A) Pila B) Cola C) Lista enlazada D) Montón binario
A) Símbolo con el nombre más largo B) Símbolo más frecuente C) Símbolo con un número primo D) Símbolo menos frecuente
A) Comprimir los datos B) Construir una lista enlazada C) Cálculo de frecuencias de símbolos D) Asignación de códigos binarios a símbolos
A) Prefijos B) Códigos infijos C) Códigos postfix D) Códigos sufijos
A) 1960 B) 1949 C) 1952 D) 1955
A) Codificación Shannon-Fano B) Codificación por longitud de ejecución C) Codificación Lempel-Ziv-Welch (LZW) D) Codificación aritmética
A) h(a_i) = log2(1 / w_i) B) h(a_i) = 2w_i C) h(a_i) = w_i * log2(w_i) D) h(a_i) = -log2(w_i)
A) H(A) = -∑(w_i > 0) w_i * log2(w_i) B) H(A) = ∑(w_i > 0) log2(w_i) C) H(A) = ∑(w_i > 0) h(a_i) / w_i D) H(A) = ∑(w_i > 0) w_i / log2(w_i)
A) Contribuye negativamente a la entropía. B) Cero, ya que el límite de w * log₂(w) cuando w tiende a 0 por el lado positivo es 0. C) Es igual al inverso de su peso. D) Es igual al contenido de información del símbolo.
A) Siguiendo el hijo derecho B) Un nodo hoja C) Siguiendo el hijo izquierdo D) Un nodo interno
A) Pila B) Cola de prioridad C) Arreglo D) Cola
A) Tres B) Una C) Dos D) Cuatro
A) En la segunda cola. B) En la primera cola. C) En ninguna de las colas. D) En ambas colas simultáneamente.
A) Solo añadiendo nodos a la cola que tengan pesos únicos. B) Seleccionando nodos aleatoriamente de cualquiera de las dos colas. C) Ordenando ambas colas por peso después de cada inserción. D) Manteniendo los pesos iniciales en la primera cola y los pesos combinados en la segunda cola.
A) Seleccionar el elemento de la segunda cola. B) Seleccionar un elemento al azar de cualquiera de las colas. C) Eliminar ambos elementos y comenzar de nuevo. D) Seleccionar el elemento de la primera cola.
A) Se eliminan del árbol. B) Se combinan para formar un nuevo nodo interno. C) Permanecen como nodos hoja. D) Se convierten en nodos raíz.
A) Compresión de archivos de audio. B) Codificación de imágenes para páginas web. C) Máquinas de fax. D) Compresión de texto en procesadores de texto.
A) Problemas que no involucran ponderaciones. B) Solo problemas relacionados con la compresión. C) Problemas relacionados con la ordenación de datos. D) Minimizar la longitud máxima de la ruta ponderada, entre otros.
A) El algoritmo de Huffman adaptativo. B) El algoritmo de Huffman basado en plantillas. C) El algoritmo de fusión de paquetes. D) El algoritmo de Huffman binario.
A) Alan Turing. B) Adriano Garsia. C) T. C. Hu. D) Richard M. Karp.
A) La representación binaria. B) El costo de transmisión. C) La frecuencia de aparición. D) El orden alfabético.
A) MIT B) Universidad de Princeton C) Universidad de Harvard D) Universidad de Stanford
A) Es necesario almacenar una tabla de frecuencias junto con el texto comprimido. B) El texto original debe almacenarse junto con la versión comprimida. C) No es necesario almacenar información adicional. D) Una clave de cifrado debe acompañar los datos comprimidos. |