A) Semi-überwachtes Lernen. B) Überwachtes Lernen. C) Unüberwachtes Lernen. D) Verstärkungslernen.
A) Code schreiben. B) Speicherung von Daten. C) Mustererkennung und Klassifizierung. D) Sicherheit im Netz.
A) Ein Modell, das schneller lernt. B) Ein Modell ohne Parameter. C) Ein Modell, das zu komplex ist und bei neuen Daten schlecht abschneidet. D) Ein Modell, das sich gut verallgemeinern lässt.
A) K-means-Clustering. B) Gradientenabstieg. C) Genetische Algorithmen. D) Support-Vektor-Maschinen.
A) Zur direkten Zuordnung von Eingängen zu Ausgängen. B) Zur Optimierung linearer Gleichungen. C) Verhaltensweisen durch Versuch und Irrtum lernen. D) Einteilung der Daten in Kategorien.
A) Die Speicherkapazität eines Computers. B) Die Fähigkeit einer Maschine, intelligentes Verhalten zu zeigen, das dem eines Menschen entspricht. C) Die Leistungsaufnahme eines Systems. D) Die Verarbeitungsgeschwindigkeit eines Computers.
A) Funktioniert besser bei kleinen Datensätzen. B) Benötigt weniger Daten als herkömmliche Methoden. C) Einfacher zu implementieren als Standardalgorithmen. D) Fähigkeit zum automatischen Lernen von Merkmalen aus Daten.
A) K-means. B) Zufällige Wälder. C) Entscheidungsbäume. D) Lineare Regression.
A) Bereinigung der Daten für die Analyse. B) Speicherung großer Datenmengen in Datenbanken. C) Verschlüsselung von Daten zur Sicherheit. D) Extraktion von Mustern und Informationen aus großen Datenbeständen.
A) Neuronale Netze mit Vorwärtskopplung. B) Rekurrente neuronale Netze (RNNs). C) Faltungsneuronale Netze (CNNs). D) Netze mit radialen Basisfunktionen.
A) Das Überleben des Stärkeren durch die Evolution. B) Iteration durch Zufallsstichproben. C) Sortieren durch Quicksort. D) Angleichung der Funktionen.
A) Große und komplexe Datensätze, deren Verarbeitung fortgeschrittene Werkzeuge erfordert. B) Daten, die für eine Analyse zu klein sind. C) Von Apps gesammelte private Nutzerdaten. D) In einer relationalen Datenbank gespeicherte Daten.
A) Statistische Modelle. B) Das Internet. C) Geometrische Transformationen. D) Die Struktur und die Funktionen des menschlichen Gehirns.
A) Zum Ersetzen von Testsätzen. B) Um Modelle glücklicher zu machen. C) Bewertung der Modellleistung während des Trainings. D) Vergrößerung der Trainingsdaten.
A) Fläschchen. B) Scikit-learn. C) Pygame. D) Schöne Suppe.
A) Minimierung des Abstands zwischen allen Punkten. B) Maximierung des Volumens des Datensatzes. C) Einsatz von Deep Learning für die Klassifizierung. D) Suche nach der Hyperebene, die die Datenpunkte am besten trennt.
A) Verschiebt Modelle von einem Datensatz zu einem anderen ohne Änderungen. B) Überträgt Daten zwischen verschiedenen Benutzern. C) Nutzt das bei einer Aufgabe gewonnene Wissen, um die Leistung bei einer verwandten Aufgabe zu verbessern. D) Verschiebt Softwareanwendungen zwischen Plattformen.
A) Hardware-Einschränkungen. B) Verzerrungen in Daten und Algorithmen. C) Zu viel öffentliches Interesse. D) Einheitliche Kodierungsstandards.
A) HTML. B) C++. C) Montage. D) Python.
A) Klassifizierung B) Vorhersage C) Regression D) Clustering
A) Monte-Carlo-Simulation B) Entscheidungsbäume C) Gradienter Abstieg D) Genetische Algorithmen
A) Abweichung B) Genauigkeit C) Durchsatz D) Entropie
A) MySQL B) TensorFlow C) Git D) Windows
A) Bandbreite B) Latenzzeit C) Durchsatz D) Überanpassung
A) Grundlegende arithmetische Berechnungen. B) Verarbeitung natürlicher Sprache. C) Tabellenkalkulationen. D) Textverarbeitung.
A) Lineare Regression. B) Verstärkungslernen. C) Genetische Algorithmen. D) K-means-Clustering.
A) Support-Vektor-Maschine. B) K-means-Clustering. C) Q-learning. D) Lineare Regression. |