ThatQuiz Biblioteka Testów Podejdź teraz do testu
Roboty - Test
Opracowany przez: Wilk
  • 1. Roboty to maszyny zaprojektowane do automatycznego wykonywania zadań, często z dużą precyzją i wydajnością. Występują w różnych kształtach i rozmiarach, od robotów przemysłowych wykorzystywanych w produkcji, po roboty humanoidalne, które mogą pomagać w pracach domowych. Dzięki postępom w technologii, takich jak sztuczna inteligencja i uczenie maszynowe, roboty stają się coraz bardziej zaawansowane, zdolne do uczenia się i adaptacji do nowych sytuacji. Chociaż niektórzy mogą obawiać się, że roboty zastąpią miejsca pracy ludzi, mają one również potencjał, aby poprawić nasze życie, przejęcie niebezpiecznych lub powtarzalnych zadań, co pozwoli ludziom skupić się na bardziej kreatywnych zajęciach.

    Co oznacza skrót AI w odniesieniu do robotów?
A) Sztuczna inteligencja
B) Zaawansowany interfejs
C) Automatyczna integracja
D) Analiza i badania
  • 2. Który producent robotów jest znany z tworzenia humanoidalnego robota 'ASIMO'?
A) Toyota
B) Honda
C) Sony
D) LG
  • 3. Jak nazywa się robot towarzysz w filmie 'Wall-E'?
A) C-3PO
B) EVE
C) BOLT
D) R2-D2
  • 4. Który słynny robot jest znany z charakterystycznego zdania 'Niebezpieczeństwo, Willu!'?
A) C-3PO
B) Optimus Prime
C) Robot B-9
D) WALL-E
  • 5. Jaki był tytuł słynnej antologii opowiadań science fiction Isaaca Asimova, która wprowadziła Trzy Prawa Robotyki?
A) Neuromancer
B) Snow Crash
C) Czy androidzi śnią o elektrycznych owcach?
D) Ja, Robot
  • 6. Jak nazywał się system sztucznej inteligencji, który wystąpił w filmie '2001: Odyseja kosmiczna'?
A) HAL 9000
B) Ultron
C) Matka
D) Skynet
  • 7. Który słynny robot jest często przedstawiany jako pragnący 'wyeliminować' ludzi?
A) Johnny 5
B) Dalek
C) Bender
D) R2-D2
  • 8. Jak nazywa się zdolność robota do naśladowania ludzkich zachowań lub wyrazów?
A) Algorytm
B) Automatyzacja
C) Artikulacja
D) Antropomorfizacja
  • 9. Która firma zajmująca się robotyką jest znana z tworzenia modułowego systemu robotycznego o nazwie 'Baxter'?
A) Boston Dynamics
B) Rethink Robotics
C) Blue Origin
D) iRobot
  • 10. Jak nazywa się proces programowania robota do wykonywania określonego zadania poprzez demonstrację tego zadania dla robota?
A) Sztuczne sieci neuronowe
B) Głębokie uczenie się przez wzmacnianie
C) Programowanie przez demonstrację
D) Algorytmy genetyczne
  • 11. Jak nazywa się zdolność robota do uczenia się na podstawie doświadczeń i poprawy wydajności w czasie?
A) Uczenie maszynowe
B) Rzeczywistość wirtualna
C) Łączność bezprzewodowa
D) Sieci społecznościowe
  • 12. W którym kraju znajduje się rekord świata pod względem liczby robotów na 10 000 pracowników sektora produkcyjnego?
A) Niemcy
B) Chiny
C) Korea Południowa
D) Japonia
  • 13. Jak powszechnie nazywany jest protokół wykluczania robotów?
A) meta-tagi.html
B) sitemap.xml
C) robots.txt
D) crawler-rules.json
  • 14. Kto zaproponował standard dla pliku robots.txt w 1994 roku?
A) Charles Stross
B) Tim Berners-Lee
C) Martijn Koster
D) Vint Cerf
  • 15. Jaka była pierwotna nazwa pliku robots.txt, kiedy został zaproponowany?
A) RobotsNotWanted.txt
B) CrawlerExclusion.txt
C) WebBotRules.txt
D) PageAccessControl.txt
  • 16. W którym roku firma Google zaproponowała protokół Robots Exclusion Protocol jako oficjalny standard?
A) 1998
B) 2005
C) 2019
D) 2022
  • 17. Jaki jest główny cel pliku robots.txt?
A) Zwiększenie bezpieczeństwa strony internetowej poprzez szyfrowanie.
B) Wyświetlanie reklam.
C) Przechowywanie danych uwierzytelniających użytkowników.
D) Wskazywanie, które części strony internetowej mogą być odwiedzane przez roboty indeksujące.
  • 18. Gdzie powinien być umieszczony plik robots.txt na stronie internetowej?
A) Wewnątrz każdego katalogu, którego dotyczy.
B) W plikach konfiguracyjnych serwera.
C) W głównym katalogu struktury strony internetowej.
D) W pamięci podręcznej przeglądarki użytkownika.
  • 19. Co się dzieje, jeśli na stronie internetowej nie istnieje plik robots.txt?
A) Wszystkie strony internetowe są automatycznie indeksowane.
B) Roboty internetowe zakładają, że nie ma żadnych ograniczeń dotyczących indeksowania całej strony.
C) Strona internetowa jest zablokowana dla wyszukiwarek.
D) Serwer zwraca błąd 404.
  • 20. Co należy zrobić, jeśli strona internetowa ma wiele poddomen, a każda z nich wymaga własnego pliku robots.txt?
A) Użyj tego samego pliku robots.txt dla wszystkich poddomen.
B) Umieść pojedynczy plik robots.txt w katalogu głównym.
C) Każda poddomena musi mieć swój własny plik robots.txt.
D) Zignoruj plik robots.txt dla poddomen.
  • 21. Czy linki do stron wymienionych w pliku robots.txt mogą pojawiać się w wynikach wyszukiwania?
A) Tylko jeśli właściciel strony wyrazi na to zgodę ręcznie.
B) Nie, nigdy nie pojawią się w wynikach wyszukiwania.
C) Tak, jeśli są linkowane z innej strony, która jest indeksowana.
D) Pojawiają się one tylko wtedy, gdy plik robots.txt jest nieobecny.
  • 22. Jakim głównym problemem związanym z przeciążeniem serwerów było zarządzanie, gdy po raz pierwszy wprowadzono plik robots.txt?
A) Internet był na tyle mały, że można było utrzymać kompletną listę wszystkich botów.
B) Złożone zapytania do baz danych.
C) Wysokie zużycie przepustowości spowodowane strumieniowaniem wideo.
D) Duże przesyłanie plików przez użytkowników.
  • 23. Jaki jest format instrukcji w pliku robots.txt?
A) Kod binarny
B) Określony format oparty na tekście
C) Obiekty JSON
D) Tagi HTML
  • 24. Która organizacja opublikowała protokół Robots Exclusion Protocol jako oficjalny standard we wrześniu 2022 roku?
A) Internet Engineering Task Force (IETF)
B) Institute of Electrical and Electronics Engineers (IEEE)
C) Międzynarodowa Organizacja Normalizacyjna (ISO)
D) World Wide Web Consortium (W3C)
  • 25. Jakie praktyki są odradzane przez organizacje standaryzacyjne w przypadku złośliwych botów, w odniesieniu do pliku robots.txt?
A) Zastosowanie zabezpieczeń opartych na ukrywaniu informacji.
B) Wykorzystanie szyfrowania.
C) Wdrożenie zapór ogniowych (firewalli).
D) Wdrożenie systemów CAPTCHA.
  • 26. Jaki jest cel używania pliku robots.txt w połączeniu z mapami strony?
A) Służy do szyfrowania transmisji danych.
B) Poprawia wygląd wizualny strony.
C) Umożliwia kontrolowanie, które części strony internetowej są indeksowane i przeszukiwane.
D) Zwiększa szybkość ładowania stron.
  • 27. Jaki jest numer RFC dla proponowanego standardu, który został opublikowany we wrześniu 2022 roku?
A) RFC 9309
B) RFC 2616
C) RFC 7230
D) RFC 3986
  • 28. Jaki może być powód, dla którego strona internetowa korzysta z pliku robots.txt?
A) Aby zwiększyć liczbę odwiedzających.
B) Aby ulepszyć odtwarzanie treści multimedialnych.
C) Aby poprawić wydajność sprzętu serwera.
D) Aby zapobiec wyświetlaniu treści, które mogłyby być mylące lub nieistotne w wynikach wyszukiwania.
  • 29. Jakie znaczenie ma plik robots.txt w sprawach sądowych dotyczących botów?
A) Był wykorzystywany jako podstawa do działań prawnych przeciwko operatorom botów, którzy nie przestrzegają jego zasad.
B) Sprawy sądowe wykazały, że plik robots.txt jest nieistotny dla działania botów.
C) Sądy nakazują tworzenie plików robots.txt dla wszystkich stron internetowych.
D) Sądy zawsze ignorują plik robots.txt w tego typu sprawach.
  • 30. Które wyszukiwarki przestrzegają standardu robots.txt?
A) Facebook, Twitter, Instagram
B) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex
C) Amazon, eBay, Alibaba
D) LinkedIn, WhatsApp, Telegram
  • 31. W roku 2023, ile spośród tysiąca najczęściej odwiedzanych stron internetowych zablokowało robota GPTBot firmy OpenAI?
A) 100
B) 500
C) 50
D) 306
  • 32. Które firmy wzięły udział w uruchomieniu RSL?
A) Amazon, eBay, Alibaba
B) Google, Facebook, Twitter
C) LinkedIn, WhatsApp, Telegram
D) Medium, Reddit, Yahoo
  • 33. Który robot indeksujący interpretuje parametr 'crawl-delay' jako wielkość okna czasowego, w którym odwiedzi stronę tylko raz?
A) Googlebot
B) Yandex
C) Wszystkie roboty indeksujące
D) BingBot
  • 34. Jaka jest maksymalna dopuszczalna wielkość pliku robots.txt zgodnie z ograniczeniami Google?
A) Bez ograniczeń
B) 500 kibibajtów (512000 bajtów)
C) 1 megabajt
D) 256 kilobajtów
  • 35. Która dyrektywa wprowadzona przez Cloudflare określa akceptowalne zachowanie robotów indeksujących?
A) Crawl-delay
B) Sitemap
C) Disallow
D) Content-Signal
  • 36. Która z poniższych opcji nie jest częścią standardowego protokołu Robots Exclusion Protocol?
A) Crawl-delay
B) Allow
C) Sitemap
D) Disallow
Test utworzony z That Quiz — tu znajdziesz testy matematyczne dla uczniów na różnym poziomie.