![]()
A) Automatisierte Integration B) Erweiterte Schnittstelle C) Künstliche Intelligenz D) Analyse und Untersuchung
A) Honda B) Sony C) LG D) Toyota
A) EVE B) R2-D2 C) BOLT D) C-3PO
A) Roboter B-9 B) Optimus Prime C) C-3PO D) WALL-E
A) Skynet B) Ultron C) HAL 9000 D) Mutter
A) Träumen Androiden von elektrischen Schafen? B) Ich, Roboter C) Schneegestöber D) Neuromancer
A) Südkorea B) Deutschland C) China D) Japan
A) Automatisierung B) Artikulation C) Algorithmus D) Anthropomorphismus
A) Maschinelles Lernen B) Drahtlose Konnektivität C) Virtuelle Realität D) Soziale Netzwerke
A) Künstliche neuronale Netze B) Programmierung durch Demonstration C) Genetische Algorithmen D) Tiefes Reinforcement Learning
A) Blauer Ursprung B) iRobot C) Robotik neu überdenken D) Boston Dynamics
A) Johnny 5 B) R2-D2 C) Bender D) Dalek
A) crawler-regeln.json B) sitemap.xml C) meta-tags.html D) robots.txt
A) Vint Cerf B) Tim Berners-Lee C) Charles Stross D) Martijn Koster
A) CrawlerExclusion.txt B) PageAccessControl.txt C) RobotsNotWanted.txt D) WebBotRules.txt
A) 2005 B) 2022 C) 1998 D) 2019
A) Um anzugeben, welche Bereiche einer Website Web-Crawler besuchen dürfen. B) Um die Sicherheit einer Website durch Verschlüsselung zu erhöhen. C) Um Benutzeranmeldedaten zu speichern. D) Um Werbung anzuzeigen.
A) In den Konfigurationsdateien des Servers. B) Im Browser-Cache des Benutzers. C) Innerhalb jedes Verzeichnisses, für das sie gilt. D) Im Stammverzeichnis der Website-Struktur.
A) Die Website wird von Suchmaschinen gesperrt. B) Web-Roboter gehen davon aus, dass es keine Einschränkungen beim Crawlen der gesamten Website gibt. C) Der Server gibt einen Fehler 404 zurück. D) Alle Webseiten werden automatisch indexiert.
A) Ignorieren Sie die robots.txt-Datei für Subdomains. B) Verwenden Sie für alle Subdomains dieselbe robots.txt-Datei. C) Platzieren Sie eine einzige robots.txt-Datei im Stammverzeichnis. D) Jede Subdomain benötigt eine eigene robots.txt-Datei.
A) Nein, sie werden niemals in den Suchergebnissen erscheinen. B) Sie erscheinen nur, wenn die robots.txt-Datei fehlt. C) Ja, wenn sie von einer anderen Seite verlinkt werden, die gecrawlt wird. D) Nur, wenn der Website-Betreiber dies manuell genehmigt.
A) Große Datei-Uploads durch Benutzer. B) Komplexe Datenbankabfragen. C) Hoher Bandbreitenverbrauch durch Videostreaming. D) Das Internet war klein genug, um eine vollständige Liste aller Bots zu führen.
A) JSON-Objekte B) Ein bestimmtes, textbasiertes Format C) HTML-Tags D) Binärcode
A) Internet Engineering Task Force (IETF) B) World Wide Web Consortium (W3C) C) Internationale Organisation für Normung (ISO) D) Institute of Electrical and Electronics Engineers (IEEE)
A) Einsatz von Firewalls B) Verwendung von Verschlüsselung C) Sicherheitsmaßnahmen durch Verschleierung D) Implementierung von CAPTCHA-Systemen
A) Um zu steuern, welche Teile einer Website gecrawlt und indexiert werden. B) Um die Datenübertragung zu verschlüsseln. C) Um die Ladezeit von Seiten zu erhöhen. D) Um das visuelle Design zu verbessern.
A) RFC 2616 B) RFC 9309 C) RFC 3986 D) RFC 7230
A) Um die Leistung der Serverhardware zu verbessern. B) Um zu verhindern, dass bestimmte Inhalte in den Suchergebnissen irreführend oder irrelevant dargestellt werden. C) Um die Anzahl der Besucher zu erhöhen. D) Um die Wiedergabe von Multimedia-Inhalten zu optimieren.
A) Gerichte fordern die Erstellung von robots.txt-Dateien für alle Websites. B) Sie wurde als Grundlage für rechtliche Schritte gegen Bot-Betreiber verwendet, die die Regeln nicht einhalten. C) Rechtsfälle haben gezeigt, dass die robots.txt-Datei für den Betrieb von Bots irrelevant ist. D) Die robots.txt-Datei wird von Gerichten in solchen Fällen immer ignoriert.
A) LinkedIn, WhatsApp, Telegram B) Facebook, Twitter, Instagram C) Amazon, eBay, Alibaba D) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex
A) 500 B) 50 C) 306 D) 100
A) Google, Facebook, Twitter B) Medium, Reddit, Yahoo C) Amazon, eBay, Alibaba D) LinkedIn, WhatsApp, Telegram
A) Yandex B) Alle Crawler C) Googlebot D) BingBot
A) Unbegrenzt B) 1 Megabyte C) 256 Kilobyte D) 500 Kibibyte (512000 Byte)
A) Sitemap B) Disallow C) Content-Signal D) Crawl-delay
A) Allow B) Sitemap C) Crawl-delay D) Disallow |