Roboty - Test
Robots
  • 1. Roboty to maszyny zaprojektowane do automatycznego wykonywania zadań, często z dużą precyzją i wydajnością. Występują w różnych kształtach i rozmiarach, od robotów przemysłowych wykorzystywanych w produkcji, po roboty humanoidalne, które mogą pomagać w pracach domowych. Dzięki postępom w technologii, takich jak sztuczna inteligencja i uczenie maszynowe, roboty stają się coraz bardziej zaawansowane, zdolne do uczenia się i adaptacji do nowych sytuacji. Chociaż niektórzy mogą obawiać się, że roboty zastąpią miejsca pracy ludzi, mają one również potencjał, aby poprawić nasze życie, przejęcie niebezpiecznych lub powtarzalnych zadań, co pozwoli ludziom skupić się na bardziej kreatywnych zajęciach.

    Co oznacza skrót AI w odniesieniu do robotów?
A) Zaawansowany interfejs
B) Analiza i badania
C) Automatyczna integracja
D) Sztuczna inteligencja
  • 2. Który producent robotów jest znany z tworzenia humanoidalnego robota 'ASIMO'?
A) Toyota
B) LG
C) Honda
D) Sony
  • 3. Jak nazywa się robot towarzysz w filmie 'Wall-E'?
A) EVE
B) R2-D2
C) BOLT
D) C-3PO
  • 4. Który słynny robot jest znany z charakterystycznego zdania 'Niebezpieczeństwo, Willu!'?
A) WALL-E
B) Optimus Prime
C) C-3PO
D) Robot B-9
  • 5. Jaki był tytuł słynnej antologii opowiadań science fiction Isaaca Asimova, która wprowadziła Trzy Prawa Robotyki?
A) Czy androidzi śnią o elektrycznych owcach?
B) Snow Crash
C) Ja, Robot
D) Neuromancer
  • 6. Jak nazywał się system sztucznej inteligencji, który wystąpił w filmie '2001: Odyseja kosmiczna'?
A) Matka
B) Skynet
C) HAL 9000
D) Ultron
  • 7. Który słynny robot jest często przedstawiany jako pragnący 'wyeliminować' ludzi?
A) Bender
B) Johnny 5
C) R2-D2
D) Dalek
  • 8. Jak nazywa się zdolność robota do naśladowania ludzkich zachowań lub wyrazów?
A) Artikulacja
B) Antropomorfizacja
C) Algorytm
D) Automatyzacja
  • 9. Która firma zajmująca się robotyką jest znana z tworzenia modułowego systemu robotycznego o nazwie 'Baxter'?
A) iRobot
B) Blue Origin
C) Boston Dynamics
D) Rethink Robotics
  • 10. Jak nazywa się proces programowania robota do wykonywania określonego zadania poprzez demonstrację tego zadania dla robota?
A) Sztuczne sieci neuronowe
B) Głębokie uczenie się przez wzmacnianie
C) Programowanie przez demonstrację
D) Algorytmy genetyczne
  • 11. Jak nazywa się zdolność robota do uczenia się na podstawie doświadczeń i poprawy wydajności w czasie?
A) Sieci społecznościowe
B) Uczenie maszynowe
C) Rzeczywistość wirtualna
D) Łączność bezprzewodowa
  • 12. W którym kraju znajduje się rekord świata pod względem liczby robotów na 10 000 pracowników sektora produkcyjnego?
A) Japonia
B) Niemcy
C) Chiny
D) Korea Południowa
  • 13. Jak powszechnie nazywany jest protokół wykluczania robotów?
A) robots.txt
B) crawler-rules.json
C) meta-tagi.html
D) sitemap.xml
  • 14. Kto zaproponował standard dla pliku robots.txt w 1994 roku?
A) Tim Berners-Lee
B) Martijn Koster
C) Charles Stross
D) Vint Cerf
  • 15. Jaka była pierwotna nazwa pliku robots.txt, kiedy został zaproponowany?
A) RobotsNotWanted.txt
B) CrawlerExclusion.txt
C) PageAccessControl.txt
D) WebBotRules.txt
  • 16. W którym roku firma Google zaproponowała protokół Robots Exclusion Protocol jako oficjalny standard?
A) 2022
B) 2019
C) 1998
D) 2005
  • 17. Jaki jest główny cel pliku robots.txt?
A) Przechowywanie danych uwierzytelniających użytkowników.
B) Wskazywanie, które części strony internetowej mogą być odwiedzane przez roboty indeksujące.
C) Zwiększenie bezpieczeństwa strony internetowej poprzez szyfrowanie.
D) Wyświetlanie reklam.
  • 18. Gdzie powinien być umieszczony plik robots.txt na stronie internetowej?
A) Wewnątrz każdego katalogu, którego dotyczy.
B) W głównym katalogu struktury strony internetowej.
C) W pamięci podręcznej przeglądarki użytkownika.
D) W plikach konfiguracyjnych serwera.
  • 19. Co się dzieje, jeśli na stronie internetowej nie istnieje plik robots.txt?
A) Roboty internetowe zakładają, że nie ma żadnych ograniczeń dotyczących indeksowania całej strony.
B) Wszystkie strony internetowe są automatycznie indeksowane.
C) Strona internetowa jest zablokowana dla wyszukiwarek.
D) Serwer zwraca błąd 404.
  • 20. Co należy zrobić, jeśli strona internetowa ma wiele poddomen, a każda z nich wymaga własnego pliku robots.txt?
A) Użyj tego samego pliku robots.txt dla wszystkich poddomen.
B) Każda poddomena musi mieć swój własny plik robots.txt.
C) Zignoruj plik robots.txt dla poddomen.
D) Umieść pojedynczy plik robots.txt w katalogu głównym.
  • 21. Czy linki do stron wymienionych w pliku robots.txt mogą pojawiać się w wynikach wyszukiwania?
A) Tak, jeśli są linkowane z innej strony, która jest indeksowana.
B) Pojawiają się one tylko wtedy, gdy plik robots.txt jest nieobecny.
C) Tylko jeśli właściciel strony wyrazi na to zgodę ręcznie.
D) Nie, nigdy nie pojawią się w wynikach wyszukiwania.
  • 22. Jakim głównym problemem związanym z przeciążeniem serwerów było zarządzanie, gdy po raz pierwszy wprowadzono plik robots.txt?
A) Duże przesyłanie plików przez użytkowników.
B) Internet był na tyle mały, że można było utrzymać kompletną listę wszystkich botów.
C) Złożone zapytania do baz danych.
D) Wysokie zużycie przepustowości spowodowane strumieniowaniem wideo.
  • 23. Jaki jest format instrukcji w pliku robots.txt?
A) Określony format oparty na tekście
B) Tagi HTML
C) Obiekty JSON
D) Kod binarny
  • 24. Która organizacja opublikowała protokół Robots Exclusion Protocol jako oficjalny standard we wrześniu 2022 roku?
A) Międzynarodowa Organizacja Normalizacyjna (ISO)
B) Institute of Electrical and Electronics Engineers (IEEE)
C) Internet Engineering Task Force (IETF)
D) World Wide Web Consortium (W3C)
  • 25. Jakie praktyki są odradzane przez organizacje standaryzacyjne w przypadku złośliwych botów, w odniesieniu do pliku robots.txt?
A) Wdrożenie zapór ogniowych (firewalli).
B) Wykorzystanie szyfrowania.
C) Wdrożenie systemów CAPTCHA.
D) Zastosowanie zabezpieczeń opartych na ukrywaniu informacji.
  • 26. Jaki jest cel używania pliku robots.txt w połączeniu z mapami strony?
A) Poprawia wygląd wizualny strony.
B) Służy do szyfrowania transmisji danych.
C) Umożliwia kontrolowanie, które części strony internetowej są indeksowane i przeszukiwane.
D) Zwiększa szybkość ładowania stron.
  • 27. Jaki jest numer RFC dla proponowanego standardu, który został opublikowany we wrześniu 2022 roku?
A) RFC 7230
B) RFC 9309
C) RFC 3986
D) RFC 2616
  • 28. Jaki może być powód, dla którego strona internetowa korzysta z pliku robots.txt?
A) Aby ulepszyć odtwarzanie treści multimedialnych.
B) Aby zapobiec wyświetlaniu treści, które mogłyby być mylące lub nieistotne w wynikach wyszukiwania.
C) Aby zwiększyć liczbę odwiedzających.
D) Aby poprawić wydajność sprzętu serwera.
  • 29. Jakie znaczenie ma plik robots.txt w sprawach sądowych dotyczących botów?
A) Sprawy sądowe wykazały, że plik robots.txt jest nieistotny dla działania botów.
B) Był wykorzystywany jako podstawa do działań prawnych przeciwko operatorom botów, którzy nie przestrzegają jego zasad.
C) Sądy nakazują tworzenie plików robots.txt dla wszystkich stron internetowych.
D) Sądy zawsze ignorują plik robots.txt w tego typu sprawach.
  • 30. Które wyszukiwarki przestrzegają standardu robots.txt?
A) Amazon, eBay, Alibaba
B) LinkedIn, WhatsApp, Telegram
C) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex
D) Facebook, Twitter, Instagram
  • 31. W roku 2023, ile spośród tysiąca najczęściej odwiedzanych stron internetowych zablokowało robota GPTBot firmy OpenAI?
A) 500
B) 306
C) 50
D) 100
  • 32. Które firmy wzięły udział w uruchomieniu RSL?
A) Medium, Reddit, Yahoo
B) Google, Facebook, Twitter
C) LinkedIn, WhatsApp, Telegram
D) Amazon, eBay, Alibaba
  • 33. Który robot indeksujący interpretuje parametr 'crawl-delay' jako wielkość okna czasowego, w którym odwiedzi stronę tylko raz?
A) Wszystkie roboty indeksujące
B) Googlebot
C) BingBot
D) Yandex
  • 34. Jaka jest maksymalna dopuszczalna wielkość pliku robots.txt zgodnie z ograniczeniami Google?
A) 1 megabajt
B) 256 kilobajtów
C) 500 kibibajtów (512000 bajtów)
D) Bez ograniczeń
  • 35. Która dyrektywa wprowadzona przez Cloudflare określa akceptowalne zachowanie robotów indeksujących?
A) Disallow
B) Sitemap
C) Content-Signal
D) Crawl-delay
  • 36. Która z poniższych opcji nie jest częścią standardowego protokołu Robots Exclusion Protocol?
A) Disallow
B) Allow
C) Sitemap
D) Crawl-delay
Test utworzony z That Quiz — tu znajdziesz testy matematyczne dla uczniów na różnym poziomie.