A) Robert Johnson B) David A. Huffman C) Alice Jones D) John Smith
A) Kodowanie o stałej długości B) Kodowanie ASCII C) Kodowanie o zmiennej długości D) Kodowanie binarne
A) Rzadkie symbole B) Symbole przy nieparzystych indeksach C) Symbole zaczynające się od A D) Często występujące symbole
A) Kod z kodami o jednakowej długości B) Kod, w którym żadne słowo kodowe nie jest prefiksem innego C) Kod zaczynający się od tego samego symbolu D) Kod, który używa tylko 0 i 1
A) Tworzenie połączonej listy B) Kompresja danych C) Obliczanie częstotliwości symboli D) Przypisywanie kodów binarnych do symboli
A) Zużycie pamięci B) Liczba symboli C) Prędkość kodowania D) Współczynnik kompresji
A) Stos B) Sterta binarna C) Kolejka D) Lista połączona
A) O(log n) B) O(n2) C) O(n) D) O(n log n)
A) Najrzadziej występujący symbol B) Symbol z liczbą pierwszą C) Symbol o najdłuższej nazwie D) Najczęściej występujący symbol
A) Kody postfiksów B) Kody infiksów C) Kody prefiksów D) Kody sufiksów
A) Optymalne drzewo binarne B) Kompletne drzewo C) Idealne drzewo D) Zrównoważone drzewo
A) 1952 B) 1949 C) 1955 D) 1960
A) Kodowanie długości serii B) Kodowanie arytmetyczne C) Kodowanie Shannon-Fano D) Algorytm Lempel-Ziv-Welch (LZW)
A) h(a_i) = 2w_i B) h(a_i) = log2(1 / w_i) C) h(a_i) = -log2(w_i) D) h(a_i) = w_i * log2(w_i)
A) H(A) = ∑(dla w_i > 0) log2(w_i) B) H(A) = -∑(dla w_i > 0) w_i * log2(w_i) C) H(A) = ∑(dla w_i > 0) h(a_i) / w_i D) H(A) = ∑(dla w_i > 0) w_i / log2(w_i)
A) Zero, ponieważ lim_(w→0+) w * log2(w) = 0 B) Wpływa negatywnie na entropię. C) Jest równy odwrotności jego wagi. D) Jest równy zawartości informacyjnej symbolu.
A) Przechodzenie do prawego dziecka B) Węzeł wewnętrzny C) Przechodzenie do lewego dziecka D) Węzeł liściowy
A) Tablica B) Kolejka priorytetowa C) Stos D) Kolejka
A) Dwie B) Jedna C) Trzy D) Cztery
A) W pierwszej kolejce B) W drugiej kolejce C) Ani w jednej, ani w drugiej kolejce D) W obu kolejkach jednocześnie
A) Poprzez losowy wybór węzłów z dowolnej kolejki. B) Poprzez dodawanie do kolejki tylko węzłów o unikalnych wagach. C) Poprzez umieszczenie początkowych wag w pierwszej kolejce, a wag sumowanych w drugiej kolejce. D) Poprzez sortowanie obu kolejek według wagi po każdym dodaniu elementu.
A) Usuń oba elementy i rozpocznij proces od nowa. B) Losowo wybierz element z dowolnej kolejki. C) Wybierz element z drugiej kolejki. D) Wybierz element z pierwszej kolejki.
A) Stają się węzłami głównymi (korzeniami). B) Pozostają jako węzły liści. C) Są one łączone w nowy węzeł wewnętrzny. D) Są usuwane z drzewa.
A) Maszyny do faksów. B) Kodowanie obrazów do stron internetowych. C) Kompresja plików audio. D) Kompresja tekstu w edytorach tekstu.
A) Problemy, które nie uwzględniają wag. B) Minimalizacja maksymalnej długości ścieżki ważonej, między innymi. C) Tylko problemy związane z kompresją. D) Problemy związane z sortowaniem danych.
A) Algorytm łączenia pakietów. B) Algorytm Huffmana z wykorzystaniem szablonów. C) Algorytm Huffmana binarny. D) Adaptacyjny algorytm Huffmana.
A) Adriano Garsia. B) T. C. Hu. C) Alan Turing. D) Richard M. Karp.
A) Częstość występowania. B) Koszt transmisji. C) Reprezentacja binarna. D) Kolejność alfabetyczna.
A) Uniwersytet Harvarda B) Uniwersytet Princetonu C) Uniwersytet Stanforda D) MIT
A) Tabela częstotliwości musi być przechowywana wraz z skompresowanym tekstem. B) Nie trzeba przechowywać żadnych dodatkowych informacji. C) Klucz szyfrujący musi być dołączony do skompresowanych danych. D) Oryginalny tekst musi być przechowywany obok skompresowanej wersji. |