A) Alice Jones B) Robert Johnson C) David A. Huffman D) John Smith
A) Kodowanie o zmiennej długości B) Kodowanie o stałej długości C) Kodowanie ASCII D) Kodowanie binarne
A) Symbole przy nieparzystych indeksach B) Często występujące symbole C) Rzadkie symbole D) Symbole zaczynające się od A
A) Kod zaczynający się od tego samego symbolu B) Kod, w którym żadne słowo kodowe nie jest prefiksem innego C) Kod z kodami o jednakowej długości D) Kod, który używa tylko 0 i 1
A) Obliczanie częstotliwości symboli B) Kompresja danych C) Tworzenie połączonej listy D) Przypisywanie kodów binarnych do symboli
A) Liczba symboli B) Zużycie pamięci C) Współczynnik kompresji D) Prędkość kodowania
A) Sterta binarna B) Kolejka C) Stos D) Lista połączona
A) O(n) B) O(log n) C) O(n2) D) O(n log n)
A) Symbol z liczbą pierwszą B) Najrzadziej występujący symbol C) Najczęściej występujący symbol D) Symbol o najdłuższej nazwie
A) Kody infiksów B) Kody sufiksów C) Kody prefiksów D) Kody postfiksów
A) Idealne drzewo B) Optymalne drzewo binarne C) Kompletne drzewo D) Zrównoważone drzewo
A) 1955 B) 1960 C) 1952 D) 1949
A) Kodowanie arytmetyczne B) Kodowanie długości serii C) Algorytm Lempel-Ziv-Welch (LZW) D) Kodowanie Shannon-Fano
A) h(a_i) = log2(1 / w_i) B) h(a_i) = 2w_i C) h(a_i) = -log2(w_i) D) h(a_i) = w_i * log2(w_i)
A) H(A) = -∑(dla w_i > 0) w_i * log2(w_i) B) H(A) = ∑(dla w_i > 0) log2(w_i) C) H(A) = ∑(dla w_i > 0) w_i / log2(w_i) D) H(A) = ∑(dla w_i > 0) h(a_i) / w_i
A) Jest równy zawartości informacyjnej symbolu. B) Zero, ponieważ lim_(w→0+) w * log2(w) = 0 C) Wpływa negatywnie na entropię. D) Jest równy odwrotności jego wagi.
A) Węzeł liściowy B) Przechodzenie do prawego dziecka C) Przechodzenie do lewego dziecka D) Węzeł wewnętrzny
A) Stos B) Kolejka C) Tablica D) Kolejka priorytetowa
A) Jedna B) Trzy C) Dwie D) Cztery
A) W obu kolejkach jednocześnie B) W pierwszej kolejce C) Ani w jednej, ani w drugiej kolejce D) W drugiej kolejce
A) Poprzez dodawanie do kolejki tylko węzłów o unikalnych wagach. B) Poprzez umieszczenie początkowych wag w pierwszej kolejce, a wag sumowanych w drugiej kolejce. C) Poprzez sortowanie obu kolejek według wagi po każdym dodaniu elementu. D) Poprzez losowy wybór węzłów z dowolnej kolejki.
A) Losowo wybierz element z dowolnej kolejki. B) Usuń oba elementy i rozpocznij proces od nowa. C) Wybierz element z pierwszej kolejki. D) Wybierz element z drugiej kolejki.
A) Są usuwane z drzewa. B) Stają się węzłami głównymi (korzeniami). C) Pozostają jako węzły liści. D) Są one łączone w nowy węzeł wewnętrzny.
A) Kodowanie obrazów do stron internetowych. B) Kompresja tekstu w edytorach tekstu. C) Maszyny do faksów. D) Kompresja plików audio.
A) Tylko problemy związane z kompresją. B) Minimalizacja maksymalnej długości ścieżki ważonej, między innymi. C) Problemy związane z sortowaniem danych. D) Problemy, które nie uwzględniają wag.
A) Adaptacyjny algorytm Huffmana. B) Algorytm Huffmana z wykorzystaniem szablonów. C) Algorytm łączenia pakietów. D) Algorytm Huffmana binarny.
A) Alan Turing. B) T. C. Hu. C) Richard M. Karp. D) Adriano Garsia.
A) Koszt transmisji. B) Reprezentacja binarna. C) Częstość występowania. D) Kolejność alfabetyczna.
A) Uniwersytet Princetonu B) MIT C) Uniwersytet Harvarda D) Uniwersytet Stanforda
A) Klucz szyfrujący musi być dołączony do skompresowanych danych. B) Oryginalny tekst musi być przechowywany obok skompresowanej wersji. C) Tabela częstotliwości musi być przechowywana wraz z skompresowanym tekstem. D) Nie trzeba przechowywać żadnych dodatkowych informacji. |