Vereinfachte Entwicklung von AI/ML-Modellen auf smarten Geräten am Netzwerkrand
Lattice Semiconductor Corporation, Technologieführer bei energieeffizienten programmierbaren ICs, hat seinen preisgekrönten Lattice sensAI™-Lösungsstack um Funktionen für die schnellere Entwicklung von AI/ML-Anwendungen auf stromsparenden Lattice FPGAs erweitert.
Das ist eine Produktankündigung von Lattice Semiconductor Corporation. Allein der Emittent ist für den Inhalt verantwortlich.
Zu den Verbesserungen zählen Unterstützung für die Embedded-Prozessor-Entwicklungsumgebung Lattice Propel™ und das TensorFlow Lite Deep-Learning-Framework für Inferencing auf solchen Prozessoren. Die neue Version umfasst Lattice sensAI Studio, eine Entwicklungsumgebung für Ende-zu-Ende-Training, Validierung und Compilierung von ML-Modellen. Mit sensAI 4.0 können Entwickler über eine einfache Drag-and-Drop-Schnittstelle FPGA-Designs mit einem RISC-V-Prozessor und einer CNN-Beschleunigungs-Engine erstellen, um ML-Anwendungen schnell und einfach auf stromsparenden Edge-Geräten zu implementieren.
In verschiedenen Endmärkten gibt es eine wachsende Nachfrage nach Unterstützung für stromsparendes AI/ML-Inferencing für Anwendungen wie Objekterkennung und -klassifizierung. KI/ML-Modelle können so trainiert werden, dass sie Anwendungen für unterschiedlichste Geräte unterstützen, die einen stromsparenden Betrieb am Netzwerkrand erfordern, darunter Sicherheits- und Überwachungskameras, Industrieroboter sowie Consumer-Robotik und Spielzeug. Der Lattice sensAI Lösungsstack unterstützt Entwickler beim schnellen Erstellen von AI/ML-Anwendungen, die auf vielseitig einsetzbaren, stromsparenden Lattice FPGAs laufen.
“Die stromsparenden FPGAs für Embedded-Vision- und der sensAI-Lösungsstack von Lattice für Edge-AI/ML-Anwendungen spielen eine entscheidende Rolle, wenn es darum geht, intelligente IoT-Geräte mit neuester Technologie schnell und effizient auf den Markt zu bringen,” sagte Hideto Kotani, Unit Executive, Canon Inc.
"Durch die Unterstützung von TensorFlow Lite und das neue Lattice sensAI Studio ist es für Entwickler jetzt einfacher denn je, unseren sensAI-Lösungsstack zu nutzen, um KI/ML-Anwendungen zu erstellen, die auf batteriebetriebenen Geräten am Netzwerkrand laufen", sagt Hussein Osman, Marketing Director bei Lattice.
Hier die wichtigsten Verbesserungen am Lattice sensAI-4.0-Lösungsstack:
- TensorFlow Lite – die Unterstützung für dieses Framework reduziert den Stromverbrauch und steigert die Daten-Co-Processing-Leistung in AI/ML-Inferencing-Anwendungen. TensorFlow Lite läuft auf einem Lattice FPGA zwei- bis zehnmal schneller als auf einer MCU auf der Basis von ARM® Cortex®-M4.
- Lattice Propel – der Stack unterstützt sowohl die grafische Benutzeroberfläche als auch die Befehlszeilenkommandos der Propel-Umgebung und ermöglicht dadurch Erstellung, Analyse, Compilierung und Debugging sowohl des Hardware- als auch Software-Designs eines FPGA-basierten Prozessorsystems. Selbst Entwickler, die mit FPGA-Design nicht vertraut sind, können mithilfe der benutzerfreundlichen Drag-and-Drop-Oberfläche des Tools AI/ML-Anwendungen auf stromsparenden Lattice-FPGAs mit Unterstützung für RISC-V-basiertes Co-Processing erstellen.
- Lattice sensAI Studio – ein Tool mit grafischer Benutzeroberfläche für Training, Validierung und Compilierung von ML-Modellen, die für Lattice FPGAs optimiert sind. Das Tool macht es einfach, die Vorteile des Transfer-Lernens für den Einsatz von ML-Modellen zu nutzen.
- Verbesserte Leistung – durch die Nutzung von Fortschritten bei der ML-Modellkompression und beim Pruning unterstützt sensAI 4.0 die Bildverarbeitung mit 60 FPS bei QVGA-Auflösung oder 30 FPS bei VGA-Auflösung.