A) Überwachtes Lernen. B) Unüberwachtes Lernen. C) Verstärkungslernen. D) Semi-überwachtes Lernen.
A) Code schreiben. B) Speicherung von Daten. C) Mustererkennung und Klassifizierung. D) Sicherheit im Netz.
A) Ein Modell, das zu komplex ist und bei neuen Daten schlecht abschneidet. B) Ein Modell ohne Parameter. C) Ein Modell, das schneller lernt. D) Ein Modell, das sich gut verallgemeinern lässt.
A) K-means-Clustering. B) Support-Vektor-Maschinen. C) Gradientenabstieg. D) Genetische Algorithmen.
A) Zur Optimierung linearer Gleichungen. B) Verhaltensweisen durch Versuch und Irrtum lernen. C) Einteilung der Daten in Kategorien. D) Zur direkten Zuordnung von Eingängen zu Ausgängen.
A) Die Verarbeitungsgeschwindigkeit eines Computers. B) Die Fähigkeit einer Maschine, intelligentes Verhalten zu zeigen, das dem eines Menschen entspricht. C) Die Leistungsaufnahme eines Systems. D) Die Speicherkapazität eines Computers.
A) Fähigkeit zum automatischen Lernen von Merkmalen aus Daten. B) Einfacher zu implementieren als Standardalgorithmen. C) Funktioniert besser bei kleinen Datensätzen. D) Benötigt weniger Daten als herkömmliche Methoden.
A) K-means. B) Lineare Regression. C) Entscheidungsbäume. D) Zufällige Wälder.
A) Extraktion von Mustern und Informationen aus großen Datenbeständen. B) Bereinigung der Daten für die Analyse. C) Speicherung großer Datenmengen in Datenbanken. D) Verschlüsselung von Daten zur Sicherheit.
A) Netze mit radialen Basisfunktionen. B) Neuronale Netze mit Vorwärtskopplung. C) Faltungsneuronale Netze (CNNs). D) Rekurrente neuronale Netze (RNNs).
A) Das Überleben des Stärkeren durch die Evolution. B) Iteration durch Zufallsstichproben. C) Sortieren durch Quicksort. D) Angleichung der Funktionen.
A) Große und komplexe Datensätze, deren Verarbeitung fortgeschrittene Werkzeuge erfordert. B) Daten, die für eine Analyse zu klein sind. C) Von Apps gesammelte private Nutzerdaten. D) In einer relationalen Datenbank gespeicherte Daten.
A) Das Internet. B) Statistische Modelle. C) Die Struktur und die Funktionen des menschlichen Gehirns. D) Geometrische Transformationen.
A) Vergrößerung der Trainingsdaten. B) Zum Ersetzen von Testsätzen. C) Um Modelle glücklicher zu machen. D) Bewertung der Modellleistung während des Trainings.
A) Scikit-learn. B) Pygame. C) Schöne Suppe. D) Fläschchen.
A) Suche nach der Hyperebene, die die Datenpunkte am besten trennt. B) Maximierung des Volumens des Datensatzes. C) Einsatz von Deep Learning für die Klassifizierung. D) Minimierung des Abstands zwischen allen Punkten.
A) Nutzt das bei einer Aufgabe gewonnene Wissen, um die Leistung bei einer verwandten Aufgabe zu verbessern. B) Überträgt Daten zwischen verschiedenen Benutzern. C) Verschiebt Modelle von einem Datensatz zu einem anderen ohne Änderungen. D) Verschiebt Softwareanwendungen zwischen Plattformen.
A) Verzerrungen in Daten und Algorithmen. B) Zu viel öffentliches Interesse. C) Hardware-Einschränkungen. D) Einheitliche Kodierungsstandards.
A) HTML. B) Python. C) C++. D) Montage.
A) Clustering B) Klassifizierung C) Regression D) Vorhersage
A) Monte-Carlo-Simulation B) Genetische Algorithmen C) Gradienter Abstieg D) Entscheidungsbäume
A) Entropie B) Genauigkeit C) Abweichung D) Durchsatz
A) Git B) Windows C) TensorFlow D) MySQL
A) Latenzzeit B) Überanpassung C) Bandbreite D) Durchsatz
A) Grundlegende arithmetische Berechnungen. B) Tabellenkalkulationen. C) Textverarbeitung. D) Verarbeitung natürlicher Sprache.
A) Verstärkungslernen. B) Lineare Regression. C) K-means-Clustering. D) Genetische Algorithmen.
A) K-means-Clustering. B) Q-learning. C) Support-Vektor-Maschine. D) Lineare Regression. |