A) John Smith B) Robert Johnson C) Alice Jones D) David A. Huffman
A) Kodierung mit variabler Länge B) Binäre Kodierung C) Kodierung mit fester Länge D) ASCII-Kodierung
A) Häufige Symbole B) Symbole mit ungeraden Indizes C) Symbole, die mit A beginnen D) Seltene Symbole
A) Ein Code, der mit demselben Symbol beginnt B) Ein Code, der nur 0en und 1en verwendet C) Ein Code mit gleich langen Codewörtern D) Ein Code, bei dem kein Codewort ein Präfix eines anderen ist
A) Aufbau einer verknüpften Liste B) Zuweisung von Binärcodes zu Symbolen C) Komprimierung der Daten D) Berechnung von Symbolfrequenzen
A) Postfix-Codes B) Infix-Codes C) Suffix-Codes D) Präfix-Codes
A) Binärer Heap B) Warteschlange C) Verknüpfte Liste D) Stapel
A) Perfekter Baum B) Ausgewogener Baum C) Vollständiger Baum D) Optimaler binärer Baum
A) O(n log n) B) O(log n) C) O(n2) D) O(n)
A) Symbol mit dem längsten Namen B) Am wenigsten häufiges Symbol C) Symbol mit einer Primzahl D) Häufigstes Symbol
A) Speicherverbrauch B) Anzahl der Symbole C) Kodiergeschwindigkeit D) Verdichtungsverhältnis
A) 1949 B) 1955 C) 1960 D) 1952
A) Shannon-Fano-Kodierung B) Lempel-Ziv-Welch (LZW)-Kodierung C) Arithmetische Kodierung D) Laufwerkslängenkodierung
A) h(a_i) = 2w_i B) h(a_i) = -log2(w_i) C) h(a_i) = w_i * log2(w_i) D) h(a_i) = log2(1 / w_i)
A) H(A) = ∑(w_i > 0) w_i / log2(w_i) B) H(A) = ∑(w_i > 0) log2(w_i) C) H(A) = ∑(w_i > 0) h(a_i) / w_i D) H(A) = -∑(w_i > 0) w_i * log2(w_i)
A) Es entspricht dem Informationsgehalt des Symbols. B) Es entspricht dem Kehrwert seines Gewichts. C) Null, da der Grenzwert von w * log2(w) für w gegen Null von unten gleich Null ist. D) Es trägt negativ zur Entropie bei.
A) Dem linken Kind folgen B) Ein Blattknoten C) Ein interner Knoten D) Dem rechten Kind folgen
A) Prioritätswarteschlange B) Warteschlange C) Array D) Stapel
A) Zwei B) Drei C) Vier D) Eins
A) In keiner Warteschlange B) In der zweiten Warteschlange C) Gleichzeitig in beiden Warteschlangen D) In der ersten Warteschlange
A) Indem man Knoten zufällig aus einer der beiden Warteschlangen auswählt. B) Indem man nur Knoten mit eindeutigen Gewichten in die Warteschlange stellt. C) Indem man die anfänglichen Gewichte in der ersten Warteschlange und die kombinierten Gewichte in der zweiten Warteschlange speichert. D) Indem man beide Warteschlangen nach jeder Einfügung nach dem Gewicht sortiert.
A) Entfernen Sie beide Elemente und beginnen Sie von vorne. B) Wählen Sie das Element in der zweiten Warteschlange. C) Wählen Sie zufällig ein Element aus einer der Warteschlangen aus. D) Wählen Sie das Element in der ersten Warteschlange.
A) Sie bleiben als Blattknoten erhalten. B) Sie werden zu Wurzelknoten. C) Sie werden aus dem Baum entfernt. D) Sie werden zu einem neuen internen Knoten zusammengefasst.
A) Faxe. B) Textkompression in Textverarbeitungsprogrammen. C) Audio-Dateikomprimierung. D) Bildkodierung für Webseiten.
A) Nur Probleme im Zusammenhang mit der Datenkompression. B) Probleme, die keine Gewichtungen beinhalten. C) Probleme im Zusammenhang mit dem Sortieren von Daten. D) Unter anderem die Minimierung der maximalen Länge eines gewichteten Pfades.
A) Der binäre Huffman-Algorithmus. B) Der adaptive Huffman-Algorithmus. C) Der Paket-Merge-Algorithmus. D) Der Template-Huffman-Algorithmus.
A) Richard M. Karp. B) T. C. Hu. C) Alan Turing. D) Adriano Garsia.
A) Die Übertragungskosten. B) Die alphabetische Reihenfolge. C) Die binäre Darstellung. D) Die Häufigkeit des Vorkommens.
A) Stanford-Universität B) Princeton-Universität C) Harvard-Universität D) MIT
A) Ein Verschlüsselungsschlüssel muss den komprimierten Daten beigefügt werden. B) Eine Häufigkeitstabelle muss zusammen mit dem komprimierten Text gespeichert werden. C) Es müssen keine zusätzlichen Informationen gespeichert werden. D) Der ursprüngliche Text muss zusammen mit der komprimierten Version gespeichert werden. |