A) Robert Johnson B) John Smith C) David A. Huffman D) Alice Jones
A) Codifica ASCII B) Codifica a lunghezza fissa C) Codifica binaria D) Codifica a lunghezza variabile
A) Simboli che iniziano con A B) Simboli a indici dispari C) Simboli frequenti D) Simboli rari
A) Un codice in cui nessuna parola è un prefisso di un'altra. B) Un codice con parole chiave di uguale lunghezza C) Un codice che utilizza solo 0 e 1 D) Un codice che inizia con lo stesso simbolo
A) Codici postali B) Codici suffisso C) Codici prefissati D) Codici di prefisso
A) Heap binario B) Elenco collegato C) Pila D) Coda
A) O(n) B) O(n2) C) O(n log n) D) O(log n)
A) Velocità di codifica B) Rapporto di compressione C) Consumo di memoria D) Numero di simboli
A) Simbolo con il nome più lungo B) Simbolo più frequente C) Simbolo con un numero primo D) Simbolo meno frequente
A) Costruire un elenco collegato B) Assegnazione di codici binari ai simboli C) Calcolo delle frequenze dei simboli D) Comprimere i dati
A) Albero perfetto B) Albero binario ottimale C) Albero equilibrato D) Albero completo
A) 1952 B) 1960 C) 1955 D) 1949
A) Codifica a lunghezza di sequenza B) Codifica Lempel-Ziv-Welch (LZW) C) Codifica di Shannon-Fano D) Codifica aritmetica
A) h(a_i) = 2w_i B) h(a_i) = w_i * log2(w_i) C) h(a_i) = -log2(w_i) D) h(a_i) = log2(1 / w_i)
A) H(A) = ∑(per tutti i w_i > 0) log2(w_i) B) H(A) = ∑(per tutti i w_i > 0) h(a_i) / w_i C) H(A) = -∑(per tutti i w_i > 0) w_i * log2(w_i) D) H(A) = ∑(per tutti i w_i > 0) w_i / log2(w_i)
A) È uguale al contenuto informativo del simbolo. B) Zero, poiché il limite di w * log2(w) quando w tende a 0 da destra è 0. C) È uguale all'inverso del suo peso. D) Contribuisce negativamente all'entropia.
A) Un nodo interno B) Seguendo il figlio sinistro C) Un nodo foglia D) Seguendo il figlio destro
A) Array B) Coda di priorità C) Pila D) Coda
A) Una B) Tre C) Due D) Quattro
A) Nella prima coda B) In entrambe le code contemporaneamente C) Nella seconda coda D) In nessuna delle due code
A) Mantenendo i pesi iniziali nella prima coda e i pesi combinati nella seconda coda. B) Inserendo nelle code solo i nodi con pesi univoci. C) Selezionando casualmente i nodi da una qualsiasi delle due code. D) Ordinando entrambe le code in base al peso dopo ogni inserimento.
A) Scegliere l'elemento nella prima coda. B) Rimuovere entrambi gli elementi e ricominciare. C) Selezionare casualmente un elemento da una qualsiasi delle due code. D) Scegliere l'elemento nella seconda coda.
A) Rimangono come nodi foglia. B) Vengono rimossi dall'albero. C) Vengono combinati per formare un nuovo nodo interno. D) Diventano nodi radice.
A) Compressione di testo nei programmi di videoscrittura. B) Macchine fax. C) Codifica di immagini per pagine web. D) Compressione di file audio.
A) Minimizzare la lunghezza massima del percorso ponderato, tra le altre cose. B) Problemi relativi all'ordinamento dei dati. C) Problemi che non coinvolgono pesi. D) Solo problemi relativi alla compressione.
A) L'algoritmo di Huffman basato su template. B) L'algoritmo di Huffman adattivo. C) L'algoritmo di Huffman binario. D) L'algoritmo di fusione di pacchetti.
A) Richard M. Karp. B) Adriano Garsia. C) T. C. Hu. D) Alan Turing.
A) L'ordine alfabetico. B) La rappresentazione binaria. C) Il costo di trasmissione. D) La frequenza di occorrenza.
A) MIT B) Università di Stanford C) Università di Harvard D) Università di Princeton
A) Non è necessario memorizzare informazioni aggiuntive. B) Il testo originale deve essere memorizzato insieme alla versione compressa. C) Una chiave di crittografia deve accompagnare i dati compressi. D) È necessario memorizzare una tabella delle frequenze insieme al testo compresso. |