A) John Smith B) Alice Jones C) Robert Johnson D) David A. Huffman
A) ASCII-Kodierung B) Binäre Kodierung C) Kodierung mit fester Länge D) Kodierung mit variabler Länge
A) Symbole, die mit A beginnen B) Seltene Symbole C) Symbole mit ungeraden Indizes D) Häufige Symbole
A) Ein Code, der nur 0en und 1en verwendet B) Ein Code mit gleich langen Codewörtern C) Ein Code, bei dem kein Codewort ein Präfix eines anderen ist D) Ein Code, der mit demselben Symbol beginnt
A) Zuweisung von Binärcodes zu Symbolen B) Berechnung von Symbolfrequenzen C) Aufbau einer verknüpften Liste D) Komprimierung der Daten
A) Suffix-Codes B) Infix-Codes C) Postfix-Codes D) Präfix-Codes
A) Stapel B) Warteschlange C) Binärer Heap D) Verknüpfte Liste
A) Perfekter Baum B) Ausgewogener Baum C) Optimaler binärer Baum D) Vollständiger Baum
A) O(log n) B) O(n log n) C) O(n2) D) O(n)
A) Symbol mit dem längsten Namen B) Häufigstes Symbol C) Am wenigsten häufiges Symbol D) Symbol mit einer Primzahl
A) Kodiergeschwindigkeit B) Speicherverbrauch C) Anzahl der Symbole D) Verdichtungsverhältnis
A) 1952 B) 1955 C) 1949 D) 1960
A) Arithmetische Kodierung B) Laufwerkslängenkodierung C) Shannon-Fano-Kodierung D) Lempel-Ziv-Welch (LZW)-Kodierung
A) h(a_i) = 2w_i B) h(a_i) = w_i * log2(w_i) C) h(a_i) = log2(1 / w_i) D) h(a_i) = -log2(w_i)
A) H(A) = ∑(w_i > 0) log2(w_i) B) H(A) = ∑(w_i > 0) h(a_i) / w_i C) H(A) = ∑(w_i > 0) w_i / log2(w_i) D) H(A) = -∑(w_i > 0) w_i * log2(w_i)
A) Es entspricht dem Kehrwert seines Gewichts. B) Es entspricht dem Informationsgehalt des Symbols. C) Null, da der Grenzwert von w * log2(w) für w gegen Null von unten gleich Null ist. D) Es trägt negativ zur Entropie bei.
A) Dem rechten Kind folgen B) Ein Blattknoten C) Dem linken Kind folgen D) Ein interner Knoten
A) Stapel B) Prioritätswarteschlange C) Array D) Warteschlange
A) Eins B) Vier C) Zwei D) Drei
A) In keiner Warteschlange B) In der ersten Warteschlange C) Gleichzeitig in beiden Warteschlangen D) In der zweiten Warteschlange
A) Indem man nur Knoten mit eindeutigen Gewichten in die Warteschlange stellt. B) Indem man beide Warteschlangen nach jeder Einfügung nach dem Gewicht sortiert. C) Indem man die anfänglichen Gewichte in der ersten Warteschlange und die kombinierten Gewichte in der zweiten Warteschlange speichert. D) Indem man Knoten zufällig aus einer der beiden Warteschlangen auswählt.
A) Wählen Sie das Element in der zweiten Warteschlange. B) Wählen Sie das Element in der ersten Warteschlange. C) Entfernen Sie beide Elemente und beginnen Sie von vorne. D) Wählen Sie zufällig ein Element aus einer der Warteschlangen aus.
A) Sie bleiben als Blattknoten erhalten. B) Sie werden zu einem neuen internen Knoten zusammengefasst. C) Sie werden aus dem Baum entfernt. D) Sie werden zu Wurzelknoten.
A) Bildkodierung für Webseiten. B) Textkompression in Textverarbeitungsprogrammen. C) Faxe. D) Audio-Dateikomprimierung.
A) Unter anderem die Minimierung der maximalen Länge eines gewichteten Pfades. B) Probleme im Zusammenhang mit dem Sortieren von Daten. C) Probleme, die keine Gewichtungen beinhalten. D) Nur Probleme im Zusammenhang mit der Datenkompression.
A) Der adaptive Huffman-Algorithmus. B) Der binäre Huffman-Algorithmus. C) Der Template-Huffman-Algorithmus. D) Der Paket-Merge-Algorithmus.
A) Adriano Garsia. B) T. C. Hu. C) Alan Turing. D) Richard M. Karp.
A) Die Häufigkeit des Vorkommens. B) Die binäre Darstellung. C) Die alphabetische Reihenfolge. D) Die Übertragungskosten.
A) Stanford-Universität B) Princeton-Universität C) MIT D) Harvard-Universität
A) Eine Häufigkeitstabelle muss zusammen mit dem komprimierten Text gespeichert werden. B) Es müssen keine zusätzlichen Informationen gespeichert werden. C) Der ursprüngliche Text muss zusammen mit der komprimierten Version gespeichert werden. D) Ein Verschlüsselungsschlüssel muss den komprimierten Daten beigefügt werden. |