A) Sztuczna inteligencja B) Zaawansowany interfejs C) Automatyczna integracja D) Analiza i badania
A) Toyota B) Honda C) Sony D) LG
A) C-3PO B) EVE C) BOLT D) R2-D2
A) C-3PO B) Optimus Prime C) Robot B-9 D) WALL-E
A) Neuromancer B) Snow Crash C) Czy androidzi śnią o elektrycznych owcach? D) Ja, Robot
A) HAL 9000 B) Ultron C) Matka D) Skynet
A) Johnny 5 B) Dalek C) Bender D) R2-D2
A) Algorytm B) Automatyzacja C) Artikulacja D) Antropomorfizacja
A) Boston Dynamics B) Rethink Robotics C) Blue Origin D) iRobot
A) Sztuczne sieci neuronowe B) Głębokie uczenie się przez wzmacnianie C) Programowanie przez demonstrację D) Algorytmy genetyczne
A) Uczenie maszynowe B) Rzeczywistość wirtualna C) Łączność bezprzewodowa D) Sieci społecznościowe
A) Niemcy B) Chiny C) Korea Południowa D) Japonia
A) meta-tagi.html B) sitemap.xml C) robots.txt D) crawler-rules.json
A) Charles Stross B) Tim Berners-Lee C) Martijn Koster D) Vint Cerf
A) RobotsNotWanted.txt B) CrawlerExclusion.txt C) WebBotRules.txt D) PageAccessControl.txt
A) 1998 B) 2005 C) 2019 D) 2022
A) Zwiększenie bezpieczeństwa strony internetowej poprzez szyfrowanie. B) Wyświetlanie reklam. C) Przechowywanie danych uwierzytelniających użytkowników. D) Wskazywanie, które części strony internetowej mogą być odwiedzane przez roboty indeksujące.
A) Wewnątrz każdego katalogu, którego dotyczy. B) W plikach konfiguracyjnych serwera. C) W głównym katalogu struktury strony internetowej. D) W pamięci podręcznej przeglądarki użytkownika.
A) Wszystkie strony internetowe są automatycznie indeksowane. B) Roboty internetowe zakładają, że nie ma żadnych ograniczeń dotyczących indeksowania całej strony. C) Strona internetowa jest zablokowana dla wyszukiwarek. D) Serwer zwraca błąd 404.
A) Użyj tego samego pliku robots.txt dla wszystkich poddomen. B) Umieść pojedynczy plik robots.txt w katalogu głównym. C) Każda poddomena musi mieć swój własny plik robots.txt. D) Zignoruj plik robots.txt dla poddomen.
A) Tylko jeśli właściciel strony wyrazi na to zgodę ręcznie. B) Nie, nigdy nie pojawią się w wynikach wyszukiwania. C) Tak, jeśli są linkowane z innej strony, która jest indeksowana. D) Pojawiają się one tylko wtedy, gdy plik robots.txt jest nieobecny.
A) Internet był na tyle mały, że można było utrzymać kompletną listę wszystkich botów. B) Złożone zapytania do baz danych. C) Wysokie zużycie przepustowości spowodowane strumieniowaniem wideo. D) Duże przesyłanie plików przez użytkowników.
A) Kod binarny B) Określony format oparty na tekście C) Obiekty JSON D) Tagi HTML
A) Internet Engineering Task Force (IETF) B) Institute of Electrical and Electronics Engineers (IEEE) C) Międzynarodowa Organizacja Normalizacyjna (ISO) D) World Wide Web Consortium (W3C)
A) Zastosowanie zabezpieczeń opartych na ukrywaniu informacji. B) Wykorzystanie szyfrowania. C) Wdrożenie zapór ogniowych (firewalli). D) Wdrożenie systemów CAPTCHA.
A) Służy do szyfrowania transmisji danych. B) Poprawia wygląd wizualny strony. C) Umożliwia kontrolowanie, które części strony internetowej są indeksowane i przeszukiwane. D) Zwiększa szybkość ładowania stron.
A) RFC 9309 B) RFC 2616 C) RFC 7230 D) RFC 3986
A) Aby zwiększyć liczbę odwiedzających. B) Aby ulepszyć odtwarzanie treści multimedialnych. C) Aby poprawić wydajność sprzętu serwera. D) Aby zapobiec wyświetlaniu treści, które mogłyby być mylące lub nieistotne w wynikach wyszukiwania.
A) Był wykorzystywany jako podstawa do działań prawnych przeciwko operatorom botów, którzy nie przestrzegają jego zasad. B) Sprawy sądowe wykazały, że plik robots.txt jest nieistotny dla działania botów. C) Sądy nakazują tworzenie plików robots.txt dla wszystkich stron internetowych. D) Sądy zawsze ignorują plik robots.txt w tego typu sprawach.
A) Facebook, Twitter, Instagram B) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex C) Amazon, eBay, Alibaba D) LinkedIn, WhatsApp, Telegram
A) 100 B) 500 C) 50 D) 306
A) Amazon, eBay, Alibaba B) Google, Facebook, Twitter C) LinkedIn, WhatsApp, Telegram D) Medium, Reddit, Yahoo
A) Googlebot B) Yandex C) Wszystkie roboty indeksujące D) BingBot
A) Bez ograniczeń B) 500 kibibajtów (512000 bajtów) C) 1 megabajt D) 256 kilobajtów
A) Crawl-delay B) Sitemap C) Disallow D) Content-Signal
A) Crawl-delay B) Allow C) Sitemap D) Disallow |