A) Девід А. Хаффман B) Роберт Джонсон C) Еліс Джонс D) Джон Сміт
A) Кодування ASCII B) Кодування змінної довжини C) Кодування з фіксованою довжиною D) Двійкове кодування
A) Часті символи B) Рідкісні символи C) Символи з непарними індексами D) Символи, що починаються з A
A) Код, який починається з того самого символу B) Код з кодовими словами однакової довжини C) Код, в якому жодне кодове слово не є префіксом іншого D) Код, який використовує лише 0 та 1
A) Коди префіксів B) Постфіксні коди C) Інфіксні коди D) Коди суфіксів
A) Повне дерево B) Оптимальне бінарне дерево C) Збалансоване дерево D) Ідеальне дерево
A) Стек B) Черга. C) Бінарна купа D) Список посилань
A) Розрахунок частот символів B) Стиснення даних C) Присвоєння двійкових кодів символам D) Створення пов'язаного списку
A) O(n) B) O(n log n) C) O(n2) D) O(log n)
A) Швидкість кодування B) Кількість символів C) Споживання пам'яті D) Ступінь стиснення
A) Найменш поширений символ B) Символ з найдовшою назвою C) Найпоширеніший символ D) Символ з простим числом
A) 1955 B) 1960 C) 1952 D) 1949
A) Кодування з використанням довжини послідовностей B) Кодування Шеннона-Фано C) Кодування Лемпеля-Зіва-Велча (LZW) D) Арифметичне кодування
A) h(a_i) = -log2(w_i) B) h(a_i) = log2(1 / w_i) C) h(a_i) = w_i * log2(w_i) D) h(a_i) = 2w_i
A) H(A) = ∑(для всіх w_i > 0) h(a_i) / w_i B) H(A) = ∑(для всіх w_i > 0) log2(w_i) C) H(A) = -∑(для всіх w_i > 0) w_i * log2(w_i) D) H(A) = ∑(для всіх w_i > 0) w_i / log2(w_i)
A) Він дорівнює оберненій величині його ваги. B) Він дорівнює інформаційній цінності символу. C) Він негативно впливає на ентропію. D) Нуль, оскільки lim_(w→0+) w * log2(w) = 0
A) Вузол-лист B) Перехід до правого нащадка C) Внутрішній вузол D) Перехід до лівого нащадка
A) Черга B) Масив C) Пріоритетна черга D) Стек
A) Одна B) Дві C) Три D) Чотири
A) Одночасно в обидві черги. B) У другу чергу. C) Ні в одну чергу. D) У першу чергу.
A) Завдяки тому, що початкові ваги зберігаються в першій черзі, а об'єднані ваги - у другій. B) Завдяки випадковому вибору вузлів з будь-якої з черг. C) Завдяки тому, що в чергу додаються лише вузли з унікальними вагами. D) Завдяки сортуванню обох черг за вагою після кожного додавання елемента.
A) Виберіть елемент з першої черги. B) Випадковим чином виберіть елемент з будь-якої черги. C) Видаліть обидва елементи та почніть спочатку. D) Виберіть елемент з другої черги.
A) Вони видаляються з дерева. B) Вони стають кореневими вузлами. C) Вони залишаються листковими вузлами. D) Вони об'єднуються в новий внутрішній вузол.
A) Стиснення тексту в текстових редакторах. B) Кодування зображень для веб-сторінок. C) Стиснення аудіофайлів. D) Факсимільні апарати.
A) Зменшення максимальної довжини зваженого шляху, серед іншого. B) Лише проблеми, пов'язані зі стисненням даних. C) Проблеми, які не передбачають використання вагових коефіцієнтів. D) Проблеми, пов'язані з сортуванням даних.
A) Бінарний алгоритм Хаффмана. B) Алгоритм об'єднання пакетів. C) Адаптивний алгоритм Хаффмана. D) Алгоритм Хаффмана на основі шаблонів.
A) Алан Тьюрінг. B) Річард М. Карп. C) Адріано Гарсія. D) Т. К. Ху.
A) Алфавітний порядок. B) Частота появи. C) Вартість передачі. D) Двійкове представлення.
A) Університет Стенфорда B) Массачусетський технологічний інститут (MIT) C) Гарвардський університет D) Прінстонський університет
A) Таблиця частот повинна зберігатися разом із стисненим текстом. B) Ключ шифрування повинен супроводжувати стиснені дані. C) Оригінальний текст повинен зберігатися разом із стисненою версією. D) Не потрібно зберігати додаткову інформацію. |