![]()
A) Zaawansowany interfejs B) Analiza i badania C) Automatyczna integracja D) Sztuczna inteligencja
A) Toyota B) LG C) Honda D) Sony
A) EVE B) R2-D2 C) BOLT D) C-3PO
A) WALL-E B) Optimus Prime C) C-3PO D) Robot B-9
A) Czy androidzi śnią o elektrycznych owcach? B) Snow Crash C) Ja, Robot D) Neuromancer
A) Matka B) Skynet C) HAL 9000 D) Ultron
A) Bender B) Johnny 5 C) R2-D2 D) Dalek
A) Artikulacja B) Antropomorfizacja C) Algorytm D) Automatyzacja
A) iRobot B) Blue Origin C) Boston Dynamics D) Rethink Robotics
A) Sztuczne sieci neuronowe B) Głębokie uczenie się przez wzmacnianie C) Programowanie przez demonstrację D) Algorytmy genetyczne
A) Sieci społecznościowe B) Uczenie maszynowe C) Rzeczywistość wirtualna D) Łączność bezprzewodowa
A) Japonia B) Niemcy C) Chiny D) Korea Południowa
A) robots.txt B) crawler-rules.json C) meta-tagi.html D) sitemap.xml
A) Tim Berners-Lee B) Martijn Koster C) Charles Stross D) Vint Cerf
A) RobotsNotWanted.txt B) CrawlerExclusion.txt C) PageAccessControl.txt D) WebBotRules.txt
A) 2022 B) 2019 C) 1998 D) 2005
A) Przechowywanie danych uwierzytelniających użytkowników. B) Wskazywanie, które części strony internetowej mogą być odwiedzane przez roboty indeksujące. C) Zwiększenie bezpieczeństwa strony internetowej poprzez szyfrowanie. D) Wyświetlanie reklam.
A) Wewnątrz każdego katalogu, którego dotyczy. B) W głównym katalogu struktury strony internetowej. C) W pamięci podręcznej przeglądarki użytkownika. D) W plikach konfiguracyjnych serwera.
A) Roboty internetowe zakładają, że nie ma żadnych ograniczeń dotyczących indeksowania całej strony. B) Wszystkie strony internetowe są automatycznie indeksowane. C) Strona internetowa jest zablokowana dla wyszukiwarek. D) Serwer zwraca błąd 404.
A) Użyj tego samego pliku robots.txt dla wszystkich poddomen. B) Każda poddomena musi mieć swój własny plik robots.txt. C) Zignoruj plik robots.txt dla poddomen. D) Umieść pojedynczy plik robots.txt w katalogu głównym.
A) Tak, jeśli są linkowane z innej strony, która jest indeksowana. B) Pojawiają się one tylko wtedy, gdy plik robots.txt jest nieobecny. C) Tylko jeśli właściciel strony wyrazi na to zgodę ręcznie. D) Nie, nigdy nie pojawią się w wynikach wyszukiwania.
A) Duże przesyłanie plików przez użytkowników. B) Internet był na tyle mały, że można było utrzymać kompletną listę wszystkich botów. C) Złożone zapytania do baz danych. D) Wysokie zużycie przepustowości spowodowane strumieniowaniem wideo.
A) Określony format oparty na tekście B) Tagi HTML C) Obiekty JSON D) Kod binarny
A) Międzynarodowa Organizacja Normalizacyjna (ISO) B) Institute of Electrical and Electronics Engineers (IEEE) C) Internet Engineering Task Force (IETF) D) World Wide Web Consortium (W3C)
A) Wdrożenie zapór ogniowych (firewalli). B) Wykorzystanie szyfrowania. C) Wdrożenie systemów CAPTCHA. D) Zastosowanie zabezpieczeń opartych na ukrywaniu informacji.
A) Poprawia wygląd wizualny strony. B) Służy do szyfrowania transmisji danych. C) Umożliwia kontrolowanie, które części strony internetowej są indeksowane i przeszukiwane. D) Zwiększa szybkość ładowania stron.
A) RFC 7230 B) RFC 9309 C) RFC 3986 D) RFC 2616
A) Aby ulepszyć odtwarzanie treści multimedialnych. B) Aby zapobiec wyświetlaniu treści, które mogłyby być mylące lub nieistotne w wynikach wyszukiwania. C) Aby zwiększyć liczbę odwiedzających. D) Aby poprawić wydajność sprzętu serwera.
A) Sprawy sądowe wykazały, że plik robots.txt jest nieistotny dla działania botów. B) Był wykorzystywany jako podstawa do działań prawnych przeciwko operatorom botów, którzy nie przestrzegają jego zasad. C) Sądy nakazują tworzenie plików robots.txt dla wszystkich stron internetowych. D) Sądy zawsze ignorują plik robots.txt w tego typu sprawach.
A) Amazon, eBay, Alibaba B) LinkedIn, WhatsApp, Telegram C) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex D) Facebook, Twitter, Instagram
A) 500 B) 306 C) 50 D) 100
A) Medium, Reddit, Yahoo B) Google, Facebook, Twitter C) LinkedIn, WhatsApp, Telegram D) Amazon, eBay, Alibaba
A) Wszystkie roboty indeksujące B) Googlebot C) BingBot D) Yandex
A) 1 megabajt B) 256 kilobajtów C) 500 kibibajtów (512000 bajtów) D) Bez ograniczeń
A) Disallow B) Sitemap C) Content-Signal D) Crawl-delay
A) Disallow B) Allow C) Sitemap D) Crawl-delay |