A) John Smith B) Robert Johnson C) Alice Jones D) David A. Huffman
A) Codificação ASCII B) Codificação de comprimento fixo C) Codificação de comprimento variável D) Codificação binária
A) Símbolos raros B) Símbolos com índices ímpares C) Símbolos que começam por A D) Símbolos frequentes
A) Um código com palavras-código de igual comprimento B) Um código que começa com o mesmo símbolo C) Um código em que nenhuma palavra-código é um prefixo de outra D) Um código que utiliza apenas 0s e 1s
A) Árvore equilibrada B) Árvore completa C) Árvore binária óptima D) Árvore perfeita
A) O(n log n) B) O(n) C) O(n2) D) O(log n)
A) Cálculo de frequências de símbolo B) Compressão dos dados C) Atribuição de códigos binários a símbolos D) Construir uma lista ligada
A) Taxa de compressão B) Número de símbolos C) Velocidade de codificação D) Consumo de memória
A) Códigos postais B) Códigos de infixo C) Códigos de sufixo D) Códigos de prefixo
A) Lista ligada B) Pilha binária C) Pilha D) Fila de espera
A) Símbolo mais frequente B) Símbolo com um número primo C) Símbolo menos frequente D) Símbolo com o nome mais longo
A) 1949 B) 1955 C) 1952 D) 1960
A) Codificação Shannon-Fano B) Codificação por comprimentos de sequência C) Codificação Lempel-Ziv-Welch (LZW) D) Codificação aritmética
A) h(a_i) = 2w_i B) h(a_i) = -log₂ (w_i) C) h(a_i) = w_i * log₂ (w_i) D) h(a_i) = log₂ (1 / w_i)
A) H(A) = ∑(w_i > 0) w_i / log₂(w_i) B) H(A) = ∑(w_i > 0) h(a_i) / w_i C) H(A) = -∑(w_i > 0) w_i * log₂(w_i) D) H(A) = ∑(w_i > 0) log₂(w_i)
A) Ele contribui negativamente para a entropia. B) É igual ao conteúdo de informação do símbolo. C) É igual ao inverso do seu peso. D) Zero, pois o limite de w * log₂(w) quando w tende a 0 é igual a 0.
A) Um nó folha B) Seguindo o filho direito C) Um nó interno D) Seguindo o filho esquerdo
A) Fila de prioridade B) Fila C) Pilha D) Array (vetor)
A) Uma B) Duas C) Quatro D) Três
A) Em ambas as filas simultaneamente. B) Na primeira fila. C) Na segunda fila. D) Em nenhuma fila.
A) Ordenando ambas as filas por peso após cada inserção. B) Enfileirando apenas nós com pesos únicos. C) Mantendo os pesos iniciais na primeira fila e os pesos combinados na segunda fila. D) Selecionando aleatoriamente nós de qualquer uma das filas.
A) Remova os dois itens e comece novamente. B) Escolha o item na segunda fila. C) Selecione aleatoriamente um item de qualquer uma das filas. D) Escolha o item na primeira fila.
A) Eles permanecem como nós folha. B) Eles são removidos da árvore. C) Eles se tornam nós raiz. D) Eles são combinados para formar um novo nó interno.
A) Compressão de arquivos de áudio. B) Codificação de imagens para páginas da web. C) Compressão de texto em processadores de texto. D) Máquinas de fax.
A) Apenas problemas relacionados à compressão. B) Problemas que não envolvem pesos. C) Problemas relacionados à ordenação de dados. D) Minimizar o comprimento máximo do caminho ponderado, entre outros.
A) O algoritmo de Huffman adaptativo. B) O algoritmo de Huffman baseado em modelos. C) O algoritmo de Huffman binário. D) O algoritmo de fusão de pacotes.
A) Richard M. Karp. B) Adriano Garsia. C) Alan Turing. D) T. C. Hu.
A) A representação binária. B) A frequência de ocorrência. C) O custo de transmissão. D) A ordem alfabética.
A) Universidade de Harvard B) Universidade de Stanford C) Universidade de Princeton D) MIT
A) Uma tabela de frequência deve ser armazenada junto com o texto comprimido. B) O texto original deve ser armazenado junto com a versão comprimida. C) Não são necessárias informações adicionais para serem armazenadas. D) Uma chave de criptografia deve acompanhar os dados comprimidos. |