A) Alice Jones B) John Smith C) David A. Huffman D) Robert Johnson
A) Kodierung mit variabler Länge B) ASCII-Kodierung C) Kodierung mit fester Länge D) Binäre Kodierung
A) Seltene Symbole B) Symbole, die mit A beginnen C) Symbole mit ungeraden Indizes D) Häufige Symbole
A) Ein Code, der nur 0en und 1en verwendet B) Ein Code, bei dem kein Codewort ein Präfix eines anderen ist C) Ein Code mit gleich langen Codewörtern D) Ein Code, der mit demselben Symbol beginnt
A) Berechnung von Symbolfrequenzen B) Komprimierung der Daten C) Zuweisung von Binärcodes zu Symbolen D) Aufbau einer verknüpften Liste
A) Präfix-Codes B) Postfix-Codes C) Suffix-Codes D) Infix-Codes
A) Warteschlange B) Binärer Heap C) Verknüpfte Liste D) Stapel
A) Ausgewogener Baum B) Perfekter Baum C) Optimaler binärer Baum D) Vollständiger Baum
A) O(n2) B) O(log n) C) O(n) D) O(n log n)
A) Am wenigsten häufiges Symbol B) Symbol mit einer Primzahl C) Häufigstes Symbol D) Symbol mit dem längsten Namen
A) Verdichtungsverhältnis B) Kodiergeschwindigkeit C) Speicherverbrauch D) Anzahl der Symbole
A) 1960 B) 1955 C) 1949 D) 1952
A) Arithmetische Kodierung B) Laufwerkslängenkodierung C) Shannon-Fano-Kodierung D) Lempel-Ziv-Welch (LZW)-Kodierung
A) h(a_i) = 2w_i B) h(a_i) = -log2(w_i) C) h(a_i) = w_i * log2(w_i) D) h(a_i) = log2(1 / w_i)
A) H(A) = ∑(w_i > 0) h(a_i) / w_i B) H(A) = -∑(w_i > 0) w_i * log2(w_i) C) H(A) = ∑(w_i > 0) log2(w_i) D) H(A) = ∑(w_i > 0) w_i / log2(w_i)
A) Es entspricht dem Kehrwert seines Gewichts. B) Es entspricht dem Informationsgehalt des Symbols. C) Null, da der Grenzwert von w * log2(w) für w gegen Null von unten gleich Null ist. D) Es trägt negativ zur Entropie bei.
A) Dem linken Kind folgen B) Dem rechten Kind folgen C) Ein interner Knoten D) Ein Blattknoten
A) Prioritätswarteschlange B) Stapel C) Array D) Warteschlange
A) Zwei B) Eins C) Vier D) Drei
A) In der zweiten Warteschlange B) In der ersten Warteschlange C) In keiner Warteschlange D) Gleichzeitig in beiden Warteschlangen
A) Indem man beide Warteschlangen nach jeder Einfügung nach dem Gewicht sortiert. B) Indem man die anfänglichen Gewichte in der ersten Warteschlange und die kombinierten Gewichte in der zweiten Warteschlange speichert. C) Indem man nur Knoten mit eindeutigen Gewichten in die Warteschlange stellt. D) Indem man Knoten zufällig aus einer der beiden Warteschlangen auswählt.
A) Wählen Sie das Element in der ersten Warteschlange. B) Wählen Sie das Element in der zweiten Warteschlange. C) Entfernen Sie beide Elemente und beginnen Sie von vorne. D) Wählen Sie zufällig ein Element aus einer der Warteschlangen aus.
A) Sie bleiben als Blattknoten erhalten. B) Sie werden zu einem neuen internen Knoten zusammengefasst. C) Sie werden aus dem Baum entfernt. D) Sie werden zu Wurzelknoten.
A) Bildkodierung für Webseiten. B) Faxe. C) Textkompression in Textverarbeitungsprogrammen. D) Audio-Dateikomprimierung.
A) Probleme im Zusammenhang mit dem Sortieren von Daten. B) Nur Probleme im Zusammenhang mit der Datenkompression. C) Unter anderem die Minimierung der maximalen Länge eines gewichteten Pfades. D) Probleme, die keine Gewichtungen beinhalten.
A) Der Template-Huffman-Algorithmus. B) Der Paket-Merge-Algorithmus. C) Der adaptive Huffman-Algorithmus. D) Der binäre Huffman-Algorithmus.
A) Adriano Garsia. B) Richard M. Karp. C) T. C. Hu. D) Alan Turing.
A) Die alphabetische Reihenfolge. B) Die binäre Darstellung. C) Die Übertragungskosten. D) Die Häufigkeit des Vorkommens.
A) Princeton-Universität B) Harvard-Universität C) MIT D) Stanford-Universität
A) Eine Häufigkeitstabelle muss zusammen mit dem komprimierten Text gespeichert werden. B) Es müssen keine zusätzlichen Informationen gespeichert werden. C) Ein Verschlüsselungsschlüssel muss den komprimierten Daten beigefügt werden. D) Der ursprüngliche Text muss zusammen mit der komprimierten Version gespeichert werden. |