A) Alice Jones B) Robert Johnson C) John Smith D) David A. Huffman
A) Codificação de comprimento variável B) Codificação de comprimento fixo C) Codificação binária D) Codificação ASCII
A) Símbolos com índices ímpares B) Símbolos raros C) Símbolos frequentes D) Símbolos que começam por A
A) Um código com palavras-código de igual comprimento B) Um código que começa com o mesmo símbolo C) Um código em que nenhuma palavra-código é um prefixo de outra D) Um código que utiliza apenas 0s e 1s
A) Árvore perfeita B) Árvore binária óptima C) Árvore completa D) Árvore equilibrada
A) O(n) B) O(n2) C) O(log n) D) O(n log n)
A) Compressão dos dados B) Atribuição de códigos binários a símbolos C) Construir uma lista ligada D) Cálculo de frequências de símbolo
A) Velocidade de codificação B) Número de símbolos C) Taxa de compressão D) Consumo de memória
A) Códigos postais B) Códigos de infixo C) Códigos de prefixo D) Códigos de sufixo
A) Pilha binária B) Lista ligada C) Pilha D) Fila de espera
A) Símbolo com o nome mais longo B) Símbolo com um número primo C) Símbolo mais frequente D) Símbolo menos frequente
A) 1955 B) 1952 C) 1960 D) 1949
A) Codificação aritmética B) Codificação Lempel-Ziv-Welch (LZW) C) Codificação Shannon-Fano D) Codificação por comprimentos de sequência
A) h(a_i) = -log₂ (w_i) B) h(a_i) = 2w_i C) h(a_i) = log₂ (1 / w_i) D) h(a_i) = w_i * log₂ (w_i)
A) H(A) = -∑(w_i > 0) w_i * log₂(w_i) B) H(A) = ∑(w_i > 0) log₂(w_i) C) H(A) = ∑(w_i > 0) h(a_i) / w_i D) H(A) = ∑(w_i > 0) w_i / log₂(w_i)
A) Zero, pois o limite de w * log₂(w) quando w tende a 0 é igual a 0. B) É igual ao conteúdo de informação do símbolo. C) Ele contribui negativamente para a entropia. D) É igual ao inverso do seu peso.
A) Um nó folha B) Seguindo o filho direito C) Um nó interno D) Seguindo o filho esquerdo
A) Fila de prioridade B) Pilha C) Array (vetor) D) Fila
A) Quatro B) Duas C) Uma D) Três
A) Em nenhuma fila. B) Na primeira fila. C) Em ambas as filas simultaneamente. D) Na segunda fila.
A) Mantendo os pesos iniciais na primeira fila e os pesos combinados na segunda fila. B) Enfileirando apenas nós com pesos únicos. C) Selecionando aleatoriamente nós de qualquer uma das filas. D) Ordenando ambas as filas por peso após cada inserção.
A) Selecione aleatoriamente um item de qualquer uma das filas. B) Remova os dois itens e comece novamente. C) Escolha o item na segunda fila. D) Escolha o item na primeira fila.
A) Eles permanecem como nós folha. B) Eles se tornam nós raiz. C) Eles são combinados para formar um novo nó interno. D) Eles são removidos da árvore.
A) Compressão de texto em processadores de texto. B) Máquinas de fax. C) Codificação de imagens para páginas da web. D) Compressão de arquivos de áudio.
A) Minimizar o comprimento máximo do caminho ponderado, entre outros. B) Problemas que não envolvem pesos. C) Problemas relacionados à ordenação de dados. D) Apenas problemas relacionados à compressão.
A) O algoritmo de Huffman baseado em modelos. B) O algoritmo de Huffman adaptativo. C) O algoritmo de fusão de pacotes. D) O algoritmo de Huffman binário.
A) Alan Turing. B) T. C. Hu. C) Richard M. Karp. D) Adriano Garsia.
A) A representação binária. B) A frequência de ocorrência. C) O custo de transmissão. D) A ordem alfabética.
A) MIT B) Universidade de Stanford C) Universidade de Harvard D) Universidade de Princeton
A) Uma chave de criptografia deve acompanhar os dados comprimidos. B) Uma tabela de frequência deve ser armazenada junto com o texto comprimido. C) Não são necessárias informações adicionais para serem armazenadas. D) O texto original deve ser armazenado junto com a versão comprimida. |