A) John Smith B) David A. Huffman C) Alice Jones D) Robert Johnson
A) Codificação ASCII B) Codificação binária C) Codificação de comprimento variável D) Codificação de comprimento fixo
A) Símbolos com índices ímpares B) Símbolos frequentes C) Símbolos que começam por A D) Símbolos raros
A) Um código que utiliza apenas 0s e 1s B) Um código com palavras-código de igual comprimento C) Um código que começa com o mesmo símbolo D) Um código em que nenhuma palavra-código é um prefixo de outra
A) Árvore equilibrada B) Árvore binária óptima C) Árvore completa D) Árvore perfeita
A) O(n) B) O(log n) C) O(n2) D) O(n log n)
A) Atribuição de códigos binários a símbolos B) Construir uma lista ligada C) Cálculo de frequências de símbolo D) Compressão dos dados
A) Número de símbolos B) Velocidade de codificação C) Consumo de memória D) Taxa de compressão
A) Códigos postais B) Códigos de prefixo C) Códigos de infixo D) Códigos de sufixo
A) Pilha B) Lista ligada C) Fila de espera D) Pilha binária
A) Símbolo com o nome mais longo B) Símbolo com um número primo C) Símbolo menos frequente D) Símbolo mais frequente
A) 1960 B) 1952 C) 1949 D) 1955
A) Codificação Shannon-Fano B) Codificação por comprimentos de sequência C) Codificação aritmética D) Codificação Lempel-Ziv-Welch (LZW)
A) h(a_i) = w_i * log₂ (w_i) B) h(a_i) = -log₂ (w_i) C) h(a_i) = 2w_i D) h(a_i) = log₂ (1 / w_i)
A) H(A) = -∑(w_i > 0) w_i * log₂(w_i) B) H(A) = ∑(w_i > 0) h(a_i) / w_i C) H(A) = ∑(w_i > 0) w_i / log₂(w_i) D) H(A) = ∑(w_i > 0) log₂(w_i)
A) Zero, pois o limite de w * log₂(w) quando w tende a 0 é igual a 0. B) Ele contribui negativamente para a entropia. C) É igual ao conteúdo de informação do símbolo. D) É igual ao inverso do seu peso.
A) Seguindo o filho esquerdo B) Um nó folha C) Seguindo o filho direito D) Um nó interno
A) Array (vetor) B) Fila C) Pilha D) Fila de prioridade
A) Uma B) Três C) Duas D) Quatro
A) Em ambas as filas simultaneamente. B) Na segunda fila. C) Na primeira fila. D) Em nenhuma fila.
A) Ordenando ambas as filas por peso após cada inserção. B) Enfileirando apenas nós com pesos únicos. C) Mantendo os pesos iniciais na primeira fila e os pesos combinados na segunda fila. D) Selecionando aleatoriamente nós de qualquer uma das filas.
A) Selecione aleatoriamente um item de qualquer uma das filas. B) Escolha o item na primeira fila. C) Escolha o item na segunda fila. D) Remova os dois itens e comece novamente.
A) Eles permanecem como nós folha. B) Eles se tornam nós raiz. C) Eles são combinados para formar um novo nó interno. D) Eles são removidos da árvore.
A) Compressão de texto em processadores de texto. B) Compressão de arquivos de áudio. C) Codificação de imagens para páginas da web. D) Máquinas de fax.
A) Problemas relacionados à ordenação de dados. B) Minimizar o comprimento máximo do caminho ponderado, entre outros. C) Apenas problemas relacionados à compressão. D) Problemas que não envolvem pesos.
A) O algoritmo de Huffman baseado em modelos. B) O algoritmo de Huffman binário. C) O algoritmo de fusão de pacotes. D) O algoritmo de Huffman adaptativo.
A) Adriano Garsia. B) T. C. Hu. C) Richard M. Karp. D) Alan Turing.
A) A representação binária. B) A ordem alfabética. C) A frequência de ocorrência. D) O custo de transmissão.
A) Universidade de Princeton B) Universidade de Stanford C) MIT D) Universidade de Harvard
A) Uma chave de criptografia deve acompanhar os dados comprimidos. B) O texto original deve ser armazenado junto com a versão comprimida. C) Não são necessárias informações adicionais para serem armazenadas. D) Uma tabela de frequência deve ser armazenada junto com o texto comprimido. |