A) Джон Сміт B) Еліс Джонс C) Роберт Джонсон D) Девід А. Хаффман
A) Двійкове кодування B) Кодування змінної довжини C) Кодування з фіксованою довжиною D) Кодування ASCII
A) Часті символи B) Символи, що починаються з A C) Символи з непарними індексами D) Рідкісні символи
A) Код з кодовими словами однакової довжини B) Код, який починається з того самого символу C) Код, який використовує лише 0 та 1 D) Код, в якому жодне кодове слово не є префіксом іншого
A) Коди префіксів B) Постфіксні коди C) Інфіксні коди D) Коди суфіксів
A) Повне дерево B) Збалансоване дерево C) Оптимальне бінарне дерево D) Ідеальне дерево
A) Стек B) Черга. C) Бінарна купа D) Список посилань
A) Створення пов'язаного списку B) Стиснення даних C) Розрахунок частот символів D) Присвоєння двійкових кодів символам
A) O(n2) B) O(n) C) O(log n) D) O(n log n)
A) Ступінь стиснення B) Кількість символів C) Швидкість кодування D) Споживання пам'яті
A) Найпоширеніший символ B) Найменш поширений символ C) Символ з найдовшою назвою D) Символ з простим числом
A) 1955 B) 1949 C) 1960 D) 1952
A) Кодування Лемпеля-Зіва-Велча (LZW) B) Кодування з використанням довжини послідовностей C) Кодування Шеннона-Фано D) Арифметичне кодування
A) h(a_i) = -log2(w_i) B) h(a_i) = w_i * log2(w_i) C) h(a_i) = 2w_i D) h(a_i) = log2(1 / w_i)
A) H(A) = ∑(для всіх w_i > 0) log2(w_i) B) H(A) = ∑(для всіх w_i > 0) h(a_i) / w_i C) H(A) = ∑(для всіх w_i > 0) w_i / log2(w_i) D) H(A) = -∑(для всіх w_i > 0) w_i * log2(w_i)
A) Він негативно впливає на ентропію. B) Нуль, оскільки lim_(w→0+) w * log2(w) = 0 C) Він дорівнює інформаційній цінності символу. D) Він дорівнює оберненій величині його ваги.
A) Внутрішній вузол B) Перехід до лівого нащадка C) Перехід до правого нащадка D) Вузол-лист
A) Черга B) Стек C) Пріоритетна черга D) Масив
A) Три B) Дві C) Чотири D) Одна
A) У другу чергу. B) Ні в одну чергу. C) У першу чергу. D) Одночасно в обидві черги.
A) Завдяки тому, що початкові ваги зберігаються в першій черзі, а об'єднані ваги - у другій. B) Завдяки тому, що в чергу додаються лише вузли з унікальними вагами. C) Завдяки випадковому вибору вузлів з будь-якої з черг. D) Завдяки сортуванню обох черг за вагою після кожного додавання елемента.
A) Випадковим чином виберіть елемент з будь-якої черги. B) Виберіть елемент з другої черги. C) Видаліть обидва елементи та почніть спочатку. D) Виберіть елемент з першої черги.
A) Вони об'єднуються в новий внутрішній вузол. B) Вони видаляються з дерева. C) Вони залишаються листковими вузлами. D) Вони стають кореневими вузлами.
A) Кодування зображень для веб-сторінок. B) Стиснення аудіофайлів. C) Факсимільні апарати. D) Стиснення тексту в текстових редакторах.
A) Проблеми, які не передбачають використання вагових коефіцієнтів. B) Лише проблеми, пов'язані зі стисненням даних. C) Зменшення максимальної довжини зваженого шляху, серед іншого. D) Проблеми, пов'язані з сортуванням даних.
A) Адаптивний алгоритм Хаффмана. B) Бінарний алгоритм Хаффмана. C) Алгоритм Хаффмана на основі шаблонів. D) Алгоритм об'єднання пакетів.
A) Алан Тьюрінг. B) Т. К. Ху. C) Річард М. Карп. D) Адріано Гарсія.
A) Частота появи. B) Алфавітний порядок. C) Двійкове представлення. D) Вартість передачі.
A) Університет Стенфорда B) Прінстонський університет C) Гарвардський університет D) Массачусетський технологічний інститут (MIT)
A) Ключ шифрування повинен супроводжувати стиснені дані. B) Не потрібно зберігати додаткову інформацію. C) Оригінальний текст повинен зберігатися разом із стисненою версією. D) Таблиця частот повинна зберігатися разом із стисненим текстом. |