A) David A. Huffman B) Alice Jones C) Robert Johnson D) John Smith
A) Kodierung mit variabler Länge B) ASCII-Kodierung C) Kodierung mit fester Länge D) Binäre Kodierung
A) Symbole mit ungeraden Indizes B) Häufige Symbole C) Symbole, die mit A beginnen D) Seltene Symbole
A) Ein Code, der nur 0en und 1en verwendet B) Ein Code, der mit demselben Symbol beginnt C) Ein Code mit gleich langen Codewörtern D) Ein Code, bei dem kein Codewort ein Präfix eines anderen ist
A) Komprimierung der Daten B) Zuweisung von Binärcodes zu Symbolen C) Berechnung von Symbolfrequenzen D) Aufbau einer verknüpften Liste
A) Infix-Codes B) Präfix-Codes C) Suffix-Codes D) Postfix-Codes
A) Binärer Heap B) Verknüpfte Liste C) Warteschlange D) Stapel
A) Perfekter Baum B) Vollständiger Baum C) Ausgewogener Baum D) Optimaler binärer Baum
A) O(n) B) O(n log n) C) O(n2) D) O(log n)
A) Symbol mit einer Primzahl B) Am wenigsten häufiges Symbol C) Symbol mit dem längsten Namen D) Häufigstes Symbol
A) Kodiergeschwindigkeit B) Anzahl der Symbole C) Verdichtungsverhältnis D) Speicherverbrauch
A) 1949 B) 1952 C) 1955 D) 1960
A) Shannon-Fano-Kodierung B) Lempel-Ziv-Welch (LZW)-Kodierung C) Laufwerkslängenkodierung D) Arithmetische Kodierung
A) h(a_i) = -log2(w_i) B) h(a_i) = w_i * log2(w_i) C) h(a_i) = log2(1 / w_i) D) h(a_i) = 2w_i
A) H(A) = -∑(w_i > 0) w_i * log2(w_i) B) H(A) = ∑(w_i > 0) w_i / log2(w_i) C) H(A) = ∑(w_i > 0) log2(w_i) D) H(A) = ∑(w_i > 0) h(a_i) / w_i
A) Es entspricht dem Informationsgehalt des Symbols. B) Es trägt negativ zur Entropie bei. C) Es entspricht dem Kehrwert seines Gewichts. D) Null, da der Grenzwert von w * log2(w) für w gegen Null von unten gleich Null ist.
A) Ein interner Knoten B) Dem linken Kind folgen C) Ein Blattknoten D) Dem rechten Kind folgen
A) Array B) Warteschlange C) Prioritätswarteschlange D) Stapel
A) Eins B) Drei C) Vier D) Zwei
A) In der ersten Warteschlange B) Gleichzeitig in beiden Warteschlangen C) In keiner Warteschlange D) In der zweiten Warteschlange
A) Indem man die anfänglichen Gewichte in der ersten Warteschlange und die kombinierten Gewichte in der zweiten Warteschlange speichert. B) Indem man nur Knoten mit eindeutigen Gewichten in die Warteschlange stellt. C) Indem man Knoten zufällig aus einer der beiden Warteschlangen auswählt. D) Indem man beide Warteschlangen nach jeder Einfügung nach dem Gewicht sortiert.
A) Wählen Sie zufällig ein Element aus einer der Warteschlangen aus. B) Wählen Sie das Element in der ersten Warteschlange. C) Entfernen Sie beide Elemente und beginnen Sie von vorne. D) Wählen Sie das Element in der zweiten Warteschlange.
A) Sie werden zu einem neuen internen Knoten zusammengefasst. B) Sie werden zu Wurzelknoten. C) Sie werden aus dem Baum entfernt. D) Sie bleiben als Blattknoten erhalten.
A) Bildkodierung für Webseiten. B) Audio-Dateikomprimierung. C) Faxe. D) Textkompression in Textverarbeitungsprogrammen.
A) Probleme im Zusammenhang mit dem Sortieren von Daten. B) Nur Probleme im Zusammenhang mit der Datenkompression. C) Unter anderem die Minimierung der maximalen Länge eines gewichteten Pfades. D) Probleme, die keine Gewichtungen beinhalten.
A) Der adaptive Huffman-Algorithmus. B) Der Paket-Merge-Algorithmus. C) Der Template-Huffman-Algorithmus. D) Der binäre Huffman-Algorithmus.
A) T. C. Hu. B) Richard M. Karp. C) Adriano Garsia. D) Alan Turing.
A) Die alphabetische Reihenfolge. B) Die Übertragungskosten. C) Die Häufigkeit des Vorkommens. D) Die binäre Darstellung.
A) Stanford-Universität B) Harvard-Universität C) Princeton-Universität D) MIT
A) Eine Häufigkeitstabelle muss zusammen mit dem komprimierten Text gespeichert werden. B) Ein Verschlüsselungsschlüssel muss den komprimierten Daten beigefügt werden. C) Der ursprüngliche Text muss zusammen mit der komprimierten Version gespeichert werden. D) Es müssen keine zusätzlichen Informationen gespeichert werden. |