A) John Smith B) Alice Jones C) David A. Huffman D) Robert Johnson
A) Codifica ASCII B) Codifica a lunghezza fissa C) Codifica binaria D) Codifica a lunghezza variabile
A) Simboli frequenti B) Simboli che iniziano con A C) Simboli rari D) Simboli a indici dispari
A) Un codice che utilizza solo 0 e 1 B) Un codice che inizia con lo stesso simbolo C) Un codice con parole chiave di uguale lunghezza D) Un codice in cui nessuna parola è un prefisso di un'altra.
A) Codici di prefisso B) Codici prefissati C) Codici postali D) Codici suffisso
A) Pila B) Heap binario C) Coda D) Elenco collegato
A) O(log n) B) O(n log n) C) O(n2) D) O(n)
A) Numero di simboli B) Consumo di memoria C) Velocità di codifica D) Rapporto di compressione
A) Simbolo con un numero primo B) Simbolo più frequente C) Simbolo meno frequente D) Simbolo con il nome più lungo
A) Costruire un elenco collegato B) Comprimere i dati C) Assegnazione di codici binari ai simboli D) Calcolo delle frequenze dei simboli
A) Albero binario ottimale B) Albero perfetto C) Albero completo D) Albero equilibrato
A) 1949 B) 1952 C) 1960 D) 1955
A) Codifica aritmetica B) Codifica Lempel-Ziv-Welch (LZW) C) Codifica a lunghezza di sequenza D) Codifica di Shannon-Fano
A) h(a_i) = 2w_i B) h(a_i) = -log2(w_i) C) h(a_i) = log2(1 / w_i) D) h(a_i) = w_i * log2(w_i)
A) H(A) = -∑(per tutti i w_i > 0) w_i * log2(w_i) B) H(A) = ∑(per tutti i w_i > 0) w_i / log2(w_i) C) H(A) = ∑(per tutti i w_i > 0) log2(w_i) D) H(A) = ∑(per tutti i w_i > 0) h(a_i) / w_i
A) È uguale al contenuto informativo del simbolo. B) Contribuisce negativamente all'entropia. C) È uguale all'inverso del suo peso. D) Zero, poiché il limite di w * log2(w) quando w tende a 0 da destra è 0.
A) Un nodo foglia B) Un nodo interno C) Seguendo il figlio destro D) Seguendo il figlio sinistro
A) Coda B) Array C) Coda di priorità D) Pila
A) Una B) Tre C) Due D) Quattro
A) Nella seconda coda B) In entrambe le code contemporaneamente C) Nella prima coda D) In nessuna delle due code
A) Mantenendo i pesi iniziali nella prima coda e i pesi combinati nella seconda coda. B) Ordinando entrambe le code in base al peso dopo ogni inserimento. C) Selezionando casualmente i nodi da una qualsiasi delle due code. D) Inserendo nelle code solo i nodi con pesi univoci.
A) Rimuovere entrambi gli elementi e ricominciare. B) Scegliere l'elemento nella seconda coda. C) Selezionare casualmente un elemento da una qualsiasi delle due code. D) Scegliere l'elemento nella prima coda.
A) Diventano nodi radice. B) Vengono rimossi dall'albero. C) Rimangono come nodi foglia. D) Vengono combinati per formare un nuovo nodo interno.
A) Compressione di file audio. B) Macchine fax. C) Compressione di testo nei programmi di videoscrittura. D) Codifica di immagini per pagine web.
A) Solo problemi relativi alla compressione. B) Problemi che non coinvolgono pesi. C) Problemi relativi all'ordinamento dei dati. D) Minimizzare la lunghezza massima del percorso ponderato, tra le altre cose.
A) L'algoritmo di Huffman binario. B) L'algoritmo di Huffman adattivo. C) L'algoritmo di Huffman basato su template. D) L'algoritmo di fusione di pacchetti.
A) Alan Turing. B) T. C. Hu. C) Adriano Garsia. D) Richard M. Karp.
A) L'ordine alfabetico. B) La frequenza di occorrenza. C) La rappresentazione binaria. D) Il costo di trasmissione.
A) Università di Princeton B) Università di Stanford C) MIT D) Università di Harvard
A) Il testo originale deve essere memorizzato insieme alla versione compressa. B) Una chiave di crittografia deve accompagnare i dati compressi. C) È necessario memorizzare una tabella delle frequenze insieme al testo compresso. D) Non è necessario memorizzare informazioni aggiuntive. |