
Unified Computer Vision Engine
Freemium
Ultralytics YOLO ist ein branchenübliches Framework für Echtzeit-Objekterkennung, Segmentierung und Klassifizierung. Im Gegensatz zu fragmentierten CV-Bibliotheken bietet es eine einheitliche API, die komplexe Modellarchitekturen (YOLOv8, YOLOv11, NAS) in einer einfachen Python-Schnittstelle abstrahiert. Es zeichnet sich durch extreme Optimierung für Edge-Geräte aus und unterstützt den Export nach TensorRT, CoreML und ONNX. Das Framework wurde für Entwickler und Forscher konzipiert, die ohne Code-Umschreiben von Prototypen zu produktionsreifen Inferenz-Pipelines übergehen müssen, und bietet hohen Durchsatz sowohl in CPU- als auch in GPU-Umgebungen.
Ultralytics bietet eine konsistente, objektorientierte API über alle Modellversionen hinweg. Dies eliminiert die Notwendigkeit, beim Wechsel zwischen Erkennungs-, Segmentierungs- oder Pose-Estimation-Aufgaben neue Syntax zu erlernen. Durch die Standardisierung der Trainings-, Validierungs- und Vorhersage-Workflows können Entwickler den Boilerplate-Code im Vergleich zu benutzerdefinierten PyTorch-Implementierungen um bis zu 70 % reduzieren, was schnellere Iterationszyklen in Produktionsumgebungen gewährleistet.
Das Framework unterstützt über 10 Exportformate, darunter TensorRT, CoreML, TFLite und ONNX. Dies ermöglicht es Entwicklern, Modelle auf High-End-NVIDIA-GPUs zu trainieren und nahtlos auf ressourcenbeschränkten Edge-Geräten wie Raspberry Pi, Mobiltelefonen oder eingebetteten Systemen bereitzustellen. Das Export-Utility handhabt automatisch Quantisierung und Graph-Optimierung, was einen minimalen Latenz-Overhead während der Inferenz sicherstellt.
Die auf Geschwindigkeit ausgelegte Ultralytics-Engine erreicht Sub-Millisekunden-Inferenzzeiten auf moderner Hardware. Durch die Nutzung optimierter CUDA-Kernels und effizienter Speicherverwaltung übertrifft sie Standard-PyTorch-Implementierungen. Dies macht sie geeignet für Echtzeit-Videoverarbeitung bei 60+ FPS, was für Anwendungen wie autonome Robotik, Verkehrsüberwachung und industrielle Qualitätskontrolle, bei denen Latenz ein Hauptfaktor ist, entscheidend ist.
Enthält eine integrierte, hochgradig konfigurierbare Augmentierungs-Pipeline, die während des Trainings on-the-fly Mosaic-, Mixup- und geometrische Transformationen anwendet. Dies verbessert die Robustheit und Generalisierung des Modells erheblich und reduziert den Bedarf an massiven manuellen Datensätzen. Durch die Automatisierung dieser komplexen Vorverarbeitungsschritte können Entwickler modernste mAP-Werte (mean Average Precision) mit kleineren, vielfältigeren Trainingssets erzielen.
Bietet eine umfassende Bibliothek vortrainierter Modelle, die von 'Nano' (n) für Edge-Geräte bis 'Extra Large' (x) für hochpräzise serverseitige Aufgaben reicht. Diese Skalierbarkeit ermöglicht es Teams, die optimale Balance zwischen Geschwindigkeit und Genauigkeit für ihre spezifischen Hardware-Beschränkungen zu wählen. Jedes Modell ist auf dem COCO-Datensatz vortrainiert und bietet eine starke Basis für Transfer Learning auf benutzerdefinierten, domänenspezifischen Daten.
Installieren Sie die Bibliothek via pip: 'pip install ultralytics'.,Importieren Sie die YOLO-Klasse in Ihr Python-Skript: 'from ultralytics import YOLO'.,Laden Sie ein vortrainiertes Modell: 'model = YOLO("yolo11n.pt")'.,Führen Sie die Inferenz auf einer Bild- oder Videoquelle aus: 'results = model.predict("source.jpg")'.,Greifen Sie über das Ergebnisobjekt auf die Erkennungsergebnisse zu, um Bounding Boxes, Masken oder Klassenwahrscheinlichkeiten zu extrahieren.,Exportieren Sie Ihr trainiertes Modell für die Bereitstellung mit 'model.export(format="onnx")' für eine optimierte Produktionsinferenz.
Fertigungsunternehmen nutzen Ultralytics, um Oberflächenfehler an Montagelinien in Echtzeit zu erkennen. Durch den Einsatz von YOLO-Modellen auf Edge-Kameras erreichen sie eine sofortige Identifizierung fehlerhafter Komponenten, was Ausschuss reduziert und eine 100%ige Inspektionsabdeckung ohne menschliches Eingreifen sicherstellt.
Robotikingenieure integrieren YOLO für Echtzeit-Objekterkennung und räumliches Bewusstsein. Das Framework ermöglicht es Robotern, Hindernisse zu identifizieren, Umgebungen zu navigieren und mit Objekten zu interagieren, wodurch das für einen sicheren und effizienten autonomen Betrieb notwendige visuelle Feedback mit geringer Latenz bereitgestellt wird.
Verkehrsmanagementsysteme nutzen das Framework, um Video-Feeds für Fahrzeugzählung, Kennzeichenerkennung und Fußgängersicherheit zu analysieren. Die Inferenz mit hohem Durchsatz ermöglicht es einem einzelnen Server, mehrere Kamerastreams gleichzeitig zu verarbeiten und so verwertbare Daten für die Stadtplanung zu liefern.
Müssen produktionsreife Modelle schnell bereitstellen. Ultralytics bietet die Werkzeuge, um von der Forschung zur Bereitstellung überzugehen, ohne den Overhead, benutzerdefinierte Inferenz-Pipelines von Grund auf neu zu erstellen.
Konzentrieren sich auf die Bereitstellung von Modellen auf Hardware mit begrenzter Rechenleistung. Sie verlassen sich auf die robusten Export- und Quantisierungsfunktionen von Ultralytics, um eine hohe Leistung auf eingebetteten Geräten aufrechtzuerhalten.
Benötigen ein zuverlässiges, gut dokumentiertes Framework für schnelles Prototyping und Experimente. Die Benutzerfreundlichkeit und die umfangreiche Dokumentation von Ultralytics ermöglichen es ihnen, Hypothesen zu testen und Datensätze effizient zu iterieren.
Open Source (AGPL-3.0 Lizenz). Enterprise-Support und kommerzielle Lizenzoptionen sind über Ultralytics HUB für verwaltete Cloud-Bereitstellungen verfügbar.