ThatQuiz Prüfungsbibliothek Starten Sie jetzt die Prüfung
Roboter - Prüfung
Beigesteuert von: Koch
  • 1. Roboter sind Maschinen, die dazu bestimmt sind, Aufgaben automatisch auszuführen, oft mit Präzision und Effizienz. Es gibt sie in verschiedenen Formen und Größen, von Industrierobotern, die in der Fertigung eingesetzt werden, bis hin zu humanoiden Robotern, die bei der Hausarbeit helfen können. Dank technologischer Fortschritte wie künstlicher Intelligenz und maschinellem Lernen werden Roboter immer ausgereifter und sind in der Lage, zu lernen und sich auf neue Situationen einzustellen. Auch wenn manche befürchten, dass Roboter menschliche Arbeitsplätze ersetzen könnten, so haben sie doch das Potenzial, unser Leben zu verbessern, indem sie gefährliche oder sich wiederholende Aufgaben übernehmen, so dass sich der Mensch auf kreativere Tätigkeiten konzentrieren kann.

    Wofür steht KI im Zusammenhang mit Robotern?
A) Analyse und Untersuchung
B) Künstliche Intelligenz
C) Automatisierte Integration
D) Erweiterte Schnittstelle
  • 2. Welcher Roboterhersteller ist für die Entwicklung des humanoiden Roboters "ASIMO" bekannt?
A) Honda
B) Sony
C) LG
D) Toyota
  • 3. Wie heißt der Roboter in dem Film "Wall-E"?
A) R2-D2
B) BOLT
C) EVE
D) C-3PO
  • 4. Welcher berühmte Roboter ist für seinen Slogan "Gefahr, Will Robinson!" bekannt?
A) Roboter B-9
B) Optimus Prime
C) WALL-E
D) C-3PO
  • 5. Wie hieß das KI-System, das im Film "2001: Odyssee im Weltraum" zu sehen ist?
A) Mutter
B) HAL 9000
C) Skynet
D) Ultron
  • 6. Wie lautete der Titel von Isaac Asimovs berühmter Sammlung von Science-Fiction-Geschichten, in der die Drei Gesetze der Robotik vorgestellt wurden?
A) Neuromancer
B) Träumen Androiden von elektrischen Schafen?
C) Ich, Roboter
D) Schneegestöber
  • 7. Welches Land hält den Weltrekord für die meisten Roboter pro 10.000 Beschäftigte im verarbeitenden Gewerbe?
A) Deutschland
B) China
C) Südkorea
D) Japan
  • 8. Wie nennt man die Fähigkeit eines Roboters, menschenähnliche Handlungen oder Ausdrücke zu imitieren?
A) Algorithmus
B) Automatisierung
C) Artikulation
D) Anthropomorphismus
  • 9. Wie nennt man die Fähigkeit eines Roboters, aus Erfahrungen zu lernen und seine Leistung mit der Zeit zu verbessern?
A) Soziale Netzwerke
B) Virtuelle Realität
C) Drahtlose Konnektivität
D) Maschinelles Lernen
  • 10. Wie nennt man den Vorgang, einen Roboter so zu programmieren, dass er eine bestimmte Aufgabe ausführt, indem man dem Roboter diese Aufgabe vorführt?
A) Genetische Algorithmen
B) Tiefes Reinforcement Learning
C) Programmierung durch Demonstration
D) Künstliche neuronale Netze
  • 11. Welches Robotikunternehmen ist für die Entwicklung des modularen Robotersystems "Baxter" bekannt?
A) Boston Dynamics
B) iRobot
C) Robotik neu überdenken
D) Blauer Ursprung
  • 12. Welcher berühmte Roboter wird oft als jemand beschrieben, der die Menschen "ausrotten" will?
A) Johnny 5
B) Bender
C) Dalek
D) R2-D2
  • 13. Wie ist das Robots Exclusion Protocol allgemein bekannt?
A) robots.txt
B) crawler-regeln.json
C) meta-tags.html
D) sitemap.xml
  • 14. Wer hat 1994 den Standard für die robots.txt-Datei vorgeschlagen?
A) Vint Cerf
B) Tim Berners-Lee
C) Martijn Koster
D) Charles Stross
  • 15. Wie lautete der ursprüngliche Name für die Datei robots.txt, als sie vorgeschlagen wurde?
A) RobotsNotWanted.txt
B) CrawlerExclusion.txt
C) PageAccessControl.txt
D) WebBotRules.txt
  • 16. In welchem Jahr schlug Google das Robots Exclusion Protocol als offiziellen Standard vor?
A) 1998
B) 2019
C) 2005
D) 2022
  • 17. Was ist der Hauptzweck einer robots.txt-Datei?
A) Um Benutzeranmeldedaten zu speichern.
B) Um anzugeben, welche Bereiche einer Website Web-Crawler besuchen dürfen.
C) Um Werbung anzuzeigen.
D) Um die Sicherheit einer Website durch Verschlüsselung zu erhöhen.
  • 18. Wo sollte die robots.txt-Datei auf einer Website platziert werden?
A) Im Browser-Cache des Benutzers.
B) In den Konfigurationsdateien des Servers.
C) Innerhalb jedes Verzeichnisses, für das sie gilt.
D) Im Stammverzeichnis der Website-Struktur.
  • 19. Was passiert, wenn eine robots.txt-Datei auf einer Website nicht vorhanden ist?
A) Alle Webseiten werden automatisch indexiert.
B) Web-Roboter gehen davon aus, dass es keine Einschränkungen beim Crawlen der gesamten Website gibt.
C) Die Website wird von Suchmaschinen gesperrt.
D) Der Server gibt einen Fehler 404 zurück.
  • 20. Was sollte man tun, wenn eine Website mehrere Subdomains hat und jede Subdomain eine eigene robots.txt-Datei benötigt?
A) Jede Subdomain benötigt eine eigene robots.txt-Datei.
B) Platzieren Sie eine einzige robots.txt-Datei im Stammverzeichnis.
C) Ignorieren Sie die robots.txt-Datei für Subdomains.
D) Verwenden Sie für alle Subdomains dieselbe robots.txt-Datei.
  • 21. Können Links zu Seiten, die in der robots.txt-Datei aufgeführt sind, in den Suchergebnissen erscheinen?
A) Ja, wenn sie von einer anderen Seite verlinkt werden, die gecrawlt wird.
B) Sie erscheinen nur, wenn die robots.txt-Datei fehlt.
C) Nein, sie werden niemals in den Suchergebnissen erscheinen.
D) Nur, wenn der Website-Betreiber dies manuell genehmigt.
  • 22. Welche Hauptsorge bezüglich einer Überlastung der Server bestand bei der ersten Implementierung der robots.txt-Datei?
A) Große Datei-Uploads durch Benutzer.
B) Das Internet war klein genug, um eine vollständige Liste aller Bots zu führen.
C) Hoher Bandbreitenverbrauch durch Videostreaming.
D) Komplexe Datenbankabfragen.
  • 23. Welches Format haben Anweisungen in einer robots.txt-Datei?
A) Binärcode
B) JSON-Objekte
C) HTML-Tags
D) Ein bestimmtes, textbasiertes Format
  • 24. Welche Organisation hat das Robots Exclusion Protocol im September 2022 als offiziellen Standard veröffentlicht?
A) Internationale Organisation für Normung (ISO)
B) Institute of Electrical and Electronics Engineers (IEEE)
C) World Wide Web Consortium (W3C)
D) Internet Engineering Task Force (IETF)
  • 25. Was empfehlen Standardorganisationen bei der Abwehr von bösartigen Bots, die die robots.txt-Datei missbrauchen?
A) Verwendung von Verschlüsselung
B) Sicherheitsmaßnahmen durch Verschleierung
C) Einsatz von Firewalls
D) Implementierung von CAPTCHA-Systemen
  • 26. Welchen Zweck hat die Verwendung der robots.txt-Datei in Verbindung mit Sitemap-Dateien?
A) Um das visuelle Design zu verbessern.
B) Um die Datenübertragung zu verschlüsseln.
C) Um zu steuern, welche Teile einer Website gecrawlt und indexiert werden.
D) Um die Ladezeit von Seiten zu erhöhen.
  • 27. Welche RFC-Nummer hat der vorgeschlagene Standard, der im September 2022 veröffentlicht wurde?
A) RFC 9309
B) RFC 7230
C) RFC 2616
D) RFC 3986
  • 28. Welchen möglichen Grund gibt es, warum eine Website eine robots.txt-Datei verwendet?
A) Um zu verhindern, dass bestimmte Inhalte in den Suchergebnissen irreführend oder irrelevant dargestellt werden.
B) Um die Wiedergabe von Multimedia-Inhalten zu optimieren.
C) Um die Leistung der Serverhardware zu verbessern.
D) Um die Anzahl der Besucher zu erhöhen.
  • 29. Welche Bedeutung hat die robots.txt-Datei in Rechtsfällen, die Bots betreffen?
A) Rechtsfälle haben gezeigt, dass die robots.txt-Datei für den Betrieb von Bots irrelevant ist.
B) Sie wurde als Grundlage für rechtliche Schritte gegen Bot-Betreiber verwendet, die die Regeln nicht einhalten.
C) Gerichte fordern die Erstellung von robots.txt-Dateien für alle Websites.
D) Die robots.txt-Datei wird von Gerichten in solchen Fällen immer ignoriert.
  • 30. Welche Suchmaschinen befolgen den robots.txt-Standard?
A) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex
B) Amazon, eBay, Alibaba
C) LinkedIn, WhatsApp, Telegram
D) Facebook, Twitter, Instagram
  • 31. Wie viele der tausend am häufigsten besuchten Websites blockierten im Jahr 2023 den GPTBot von OpenAI?
A) 500
B) 50
C) 100
D) 306
  • 32. Welche Unternehmen haben an der Einführung von RSL teilgenommen?
A) Amazon, eBay, Alibaba
B) Medium, Reddit, Yahoo
C) Google, Facebook, Twitter
D) LinkedIn, WhatsApp, Telegram
  • 33. Welcher Crawler interpretiert die Einstellung 'crawl-delay' als die Größe eines Zeitfensters, innerhalb dessen er eine Website nur einmal besucht?
A) Alle Crawler
B) BingBot
C) Googlebot
D) Yandex
  • 34. Welche maximale Größe hat eine robots.txt-Datei gemäß den Richtlinien von Google?
A) 500 Kibibyte (512000 Byte)
B) Unbegrenzt
C) 1 Megabyte
D) 256 Kilobyte
  • 35. Welche von Cloudflare eingeführte Direktive gibt akzeptables Verhalten für Webcrawler vor?
A) Disallow
B) Content-Signal
C) Crawl-delay
D) Sitemap
  • 36. Welche Direktive ist kein Teil des Standard-Robots-Exclusion-Protokolls?
A) Disallow
B) Allow
C) Crawl-delay
D) Sitemap
Erstellt mit ThatQuiz — Eine Mathe-Test-Site für Schüler aller Klassenstufen.