Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Produkte |

Verein­fachte Ent­wick­lung von AI/ML-Modellen auf smarten Geräten am Netz­werk­rand

Lattice Semiconductor Corporation, Technologieführer bei energieeffizienten programmierbaren ICs, hat seinen preisgekrönten Lattice sensAI™-Lösungsstack um Funk­tionen für die schnellere Ent­wick­lung von AI/ML-Anwen­dungen auf strom­sparenden Lattice FPGAs erwei­tert.

Das ist eine Produktankündigung von Lattice Semiconductor Corporation. Allein der Emittent ist für den Inhalt verantwortlich.
Zu den Verbes­se­rungen zählen Unterstützung für die Embedded-Prozes­sor-Ent­wick­lungs­umge­bung Lattice Propel™ und das TensorFlow Lite Deep-Learning-Framework für Inferencing auf solchen Prozes­soren. Die neue Version umfasst Lattice sensAI Studio, eine Ent­wick­lungs­umge­bung für Ende-zu-Ende-Training, Vali­die­rung und Compilierung von ML-Modellen. Mit sensAI 4.0 können Entwickler über eine einfache Drag-and-Drop-Schnittstelle FPGA-Designs mit einem RISC-V-Prozessor und einer CNN-Beschleunigungs-Engine erstellen, um ML-Anwendungen schnell und einfach auf strom­sparenden Edge-Geräten zu implementieren. In verschiedenen Endmärkten gibt es eine wachsende Nachfrage nach Unterstützung für strom­sparendes AI/ML-Inferencing für Anwendungen wie Objekterkennung und -klassifizierung. KI/ML-Modelle können so trainiert werden, dass sie Anwendungen für unter­schied­lichste Geräte unterstützen, die einen stromsparenden Betrieb am Netz­werk­rand erfor­dern, darunter Sicher­heits- und Überwachungskameras, Industrieroboter sowie Consumer-Robotik und Spielzeug. Der Lattice sensAI Lösungsstack unter­stützt Ent­wick­ler beim schnellen Erstellen von AI/ML-Anwen­dungen, die auf viel­seitig ein­setz­baren, strom­sparenden Lattice FPGAs laufen. “Die strom­sparenden FPGAs für Embedded-Vision- und der sensAI-Lösungsstack von Lattice für Edge-AI/ML-Anwen­dungen spielen eine entscheidende Rolle, wenn es darum geht, intel­ligente IoT-Geräte mit neuester Tech­no­logie schnell und effizient auf den Markt zu bringen,” sagte Hideto Kotani, Unit Executive, Canon Inc. "Durch die Unterstützung von TensorFlow Lite und das neue Lattice sensAI Studio ist es für Entwickler jetzt einfacher denn je, unseren sensAI-Lösungsstack zu nutzen, um KI/ML-Anwen­dungen zu erstellen, die auf batteriebetriebenen Geräten am Netz­werk­rand laufen", sagt Hussein Osman, Marketing Director bei Lattice. Hier die wichtigsten Verbes­se­rungen am Lattice sensAI-4.0-Lösungsstack:
  • TensorFlow Lite – die Unterstützung für dieses Framework redu­ziert den Strom­ver­brauch und steigert die Daten-Co-Processing-Leis­tung in AI/ML-Inferencing-Anwen­dungen. TensorFlow Lite läuft auf einem Lattice FPGA zwei- bis zehnmal schneller als auf einer MCU auf der Basis von ARM® Cortex®-M4.
  • Lattice Propel – der Stack unter­stützt sowohl die grafische Benutzer­ober­fläche als auch die Befehlszeilenkommandos der Propel-Umge­bung und ermög­licht dadurch Erstellung, Analyse, Compilierung und Debug­ging sowohl des Hard­ware- als auch Soft­ware-Designs eines FPGA-basierten Prozes­sor­systems. Selbst Entwickler, die mit FPGA-Design nicht vertraut sind, können mithilfe der benutzer­freund­lichen Drag-and-Drop-Oberfläche des Tools AI/ML-Anwendungen auf stromsparenden Lattice-FPGAs mit Unterstützung für RISC-V-basiertes Co-Processing erstellen.
  • Lattice sensAI Studio – ein Tool mit grafischer Benutzer­ober­fläche für Training, Vali­die­rung und Compilierung von ML-Modellen, die für Lattice FPGAs opti­miert sind. Das Tool macht es einfach, die Vorteile des Transfer-Lernens für den Einsatz von ML-Modellen zu nutzen.
  • Verbesserte Leistung – durch die Nutzung von Fortschritten bei der ML-Modellkompres­sion und beim Pruning unter­stützt sensAI 4.0 die Bildverarbeitung mit 60 FPS bei QVGA-Auflösung oder 30 FPS bei VGA-Auflösung.

Anzeige
Weitere Nachrichten
2024.04.26 09:38 V22.4.33-1
Anzeige
Anzeige