A) Robert Johnson B) David A. Huffman C) John Smith D) Alice Jones
A) Kodowanie ASCII B) Kodowanie o stałej długości C) Kodowanie binarne D) Kodowanie o zmiennej długości
A) Rzadkie symbole B) Symbole przy nieparzystych indeksach C) Symbole zaczynające się od A D) Często występujące symbole
A) Kod zaczynający się od tego samego symbolu B) Kod z kodami o jednakowej długości C) Kod, który używa tylko 0 i 1 D) Kod, w którym żadne słowo kodowe nie jest prefiksem innego
A) Kompresja danych B) Obliczanie częstotliwości symboli C) Przypisywanie kodów binarnych do symboli D) Tworzenie połączonej listy
A) Liczba symboli B) Prędkość kodowania C) Zużycie pamięci D) Współczynnik kompresji
A) Sterta binarna B) Kolejka C) Lista połączona D) Stos
A) O(n) B) O(n2) C) O(n log n) D) O(log n)
A) Symbol z liczbą pierwszą B) Najrzadziej występujący symbol C) Najczęściej występujący symbol D) Symbol o najdłuższej nazwie
A) Kody prefiksów B) Kody infiksów C) Kody postfiksów D) Kody sufiksów
A) Kompletne drzewo B) Idealne drzewo C) Zrównoważone drzewo D) Optymalne drzewo binarne
A) 1955 B) 1952 C) 1960 D) 1949
A) Kodowanie Shannon-Fano B) Algorytm Lempel-Ziv-Welch (LZW) C) Kodowanie arytmetyczne D) Kodowanie długości serii
A) h(a_i) = 2w_i B) h(a_i) = -log2(w_i) C) h(a_i) = log2(1 / w_i) D) h(a_i) = w_i * log2(w_i)
A) H(A) = -∑(dla w_i > 0) w_i * log2(w_i) B) H(A) = ∑(dla w_i > 0) w_i / log2(w_i) C) H(A) = ∑(dla w_i > 0) log2(w_i) D) H(A) = ∑(dla w_i > 0) h(a_i) / w_i
A) Wpływa negatywnie na entropię. B) Zero, ponieważ lim_(w→0+) w * log2(w) = 0 C) Jest równy zawartości informacyjnej symbolu. D) Jest równy odwrotności jego wagi.
A) Przechodzenie do prawego dziecka B) Węzeł wewnętrzny C) Przechodzenie do lewego dziecka D) Węzeł liściowy
A) Stos B) Kolejka priorytetowa C) Tablica D) Kolejka
A) Trzy B) Cztery C) Dwie D) Jedna
A) W obu kolejkach jednocześnie B) Ani w jednej, ani w drugiej kolejce C) W drugiej kolejce D) W pierwszej kolejce
A) Poprzez dodawanie do kolejki tylko węzłów o unikalnych wagach. B) Poprzez umieszczenie początkowych wag w pierwszej kolejce, a wag sumowanych w drugiej kolejce. C) Poprzez sortowanie obu kolejek według wagi po każdym dodaniu elementu. D) Poprzez losowy wybór węzłów z dowolnej kolejki.
A) Wybierz element z drugiej kolejki. B) Usuń oba elementy i rozpocznij proces od nowa. C) Losowo wybierz element z dowolnej kolejki. D) Wybierz element z pierwszej kolejki.
A) Pozostają jako węzły liści. B) Są usuwane z drzewa. C) Są one łączone w nowy węzeł wewnętrzny. D) Stają się węzłami głównymi (korzeniami).
A) Kompresja tekstu w edytorach tekstu. B) Kodowanie obrazów do stron internetowych. C) Kompresja plików audio. D) Maszyny do faksów.
A) Problemy, które nie uwzględniają wag. B) Problemy związane z sortowaniem danych. C) Minimalizacja maksymalnej długości ścieżki ważonej, między innymi. D) Tylko problemy związane z kompresją.
A) Adaptacyjny algorytm Huffmana. B) Algorytm łączenia pakietów. C) Algorytm Huffmana z wykorzystaniem szablonów. D) Algorytm Huffmana binarny.
A) Alan Turing. B) Richard M. Karp. C) T. C. Hu. D) Adriano Garsia.
A) Koszt transmisji. B) Kolejność alfabetyczna. C) Reprezentacja binarna. D) Częstość występowania. |