Häufig gesucht
Vorschläge
    Direkt zu
      • Stories
      Deep Learning-Algorithmen
      Pressemeldung
      25. Juli 2017

      Die neueste Kamera-Generation von Continental verleiht dem Bordcomputer größere Augen

      • Modulare, skalierbare und vernetzte Kamera-Plattform MFC 500 bedient alle Kamera-Aufgaben und Fahrzeug-Architekturen.
      • Hardware und Software bieten alles von einfacher Objekterkennung bis hin zum komplexen Szenenverständnis mit neuronalen Netzen für automatisiertes Fahren.
      • Mit bis zu acht Megapixeln Auflösung und einem Öffnungswinkel von bis zu 125 Grad eröffnet die neueste Kamera-Generation vielfältige Anwendungsmöglichkeiten.

      Frankfurt am Main, 25. Juli 2017. Kameras spielen eine Schlüsselrolle bei der Realisierung moderner Fahrerassistenzsysteme und sind fester Bestandteil der Sensorik für automatisiertes Fahren. Fortschritte in der Kamera-Entwicklung schaffen wichtige Voraussetzungen für ein sicheres und komfortables Fahren ohne Unfälle. Das Technologieunternehmen Continental hat die neueste Kamera-Generation gezielt für die wachsende Bandbreite von Anforderungen an das „wachsame Auge“ des Autos ausgelegt. Mit der neuen Kamera-Plattform MFC 500 (Multi Function Camera) können Fahrzeughersteller aus einem Baukasten maßgeschneiderte Kamera-Lösungen umsetzen. Die herausragenden Merkmale der neuen Kamera-Generation sind die hohe Bildauflösung, die nun von einem bis zu acht Megapixeln reicht, sowie die exzellenten Nachtsichteigenschaften. Ferner wurde der Öffnungswinkel deutlich erhöht auf bis zu 125 Grad, um querende Objekte im Straßenverkehr noch früher erkennen zu können.

      „Die entscheidenden Merkmale der MFC 500 sind Modularität, Skalierbarkeit und Vernetzung“, sagt Karl Haupt, Leiter des Geschäftsbereichs Fahrerassistenzsysteme und Mitglied des Management Boards der Continental Division Chassis & Safety. „Unser modularer Baukasten besteht hierbei aus der intelligenten MFC 500 Kamera, verschiedenen Satellitenkameras sowie einem Zentralrechner für assistiertes oder automatisiertes Fahren (Assisted & Automated Driving Control Unit, ADCU), die sich je nach Kundenwunsch kombinieren lassen.“

      Größtmögliche Flexibilität entsteht dadurch, dass Umfelderkennung und Fahrfunktionen wahlweise in der Kamera integriert sind, genauso gut aber auch in einem separaten Steuergerät (ADCU) beheimatet sein können. Der modulare Ansatz unterstützt beide Möglichkeiten. Ferner lässt sich die skalierbare Software optimal an die gegebenen Rahmenbedingen im Fahrzeug wie beispielsweise Infrastruktur und Rechenleistung anpassen.

      High Performance und 360-Grad-Umfelderkennung

      Der wachsende Stellenwert der Kamera spiegelt sich auch in der Zahl und Vielfalt der Anwendungen im Fahrzeug wider: Die Palette reicht von nach vorne schauenden Kameras über Surround View-Kameras mit Weitwinkel-Objektiven bis zu dedizierten Kameras für den Spiegelersatz und die Rückfahrunterstützung. „Der Einsatz von Multi-Kamera-Systemen und 360-Grad-Umfelderkennung ist essentiell für die Realisierung des automatisierten Fahrens“, erläutert Dr. Sascha Semmler, Leiter Programm-Management Kamera des Geschäftsbereichs Fahrerassistenzsysteme. „Hierbei greifen wir auf Komponenten unseres Baukastens zurück, die sich sowohl für das assistierte und automatisierte Fahren als auch für Surround View einsetzen lassen.“

      Computer Vision und neuronale Netze

      Auch die Anforderungen auf dem Gebiet der Umfelderkennung steigen stetig: Diese reichen von einfacher Objekterkennung für das Parken über die gemeinsame Verarbeitung von Surround View-Kamera-Bildern bis hin zum Beherrschen komplexer Situationen im Straßenverkehr, wie zum Beispiel von Kreuzungssituationen mit sich näherndem Querverkehr. „Es geht darum, ein vollständiges Szenenverständnis zu entwickeln, mithilfe dessen wir Vorhersagen über die Zukunft treffen und entsprechend reagieren können“, sagt Dr. Thomas Brohm, Entwicklungsleiter Sensorik des Geschäftsbereichs Fahrerassistenzsysteme. Dazu kommen bei der MFC 500 neben den klassischen Computer Vision-Verfahren neuronale Netze zum Einsatz, die sich entsprechend der zur Verfügung stehenden Hardware skalieren lassen. Neuronale Netze bestehen aus mathematischen Einheiten, die lernfähig sind und komplexe Funktionen verarbeiten sowie ausführen können.

      Vernetzt mit der Umwelt

      Darüber hinaus ist die Kamera vernetzt mit der Umwelt. Durch Anbindung der Kamera an den elektronischen Horizont („eHorizon“) und „Road Database“ können Straßeninformationen und Landmarken an die Cloud übertragen und von dort empfangen werden, um das Fahrzeug zu lokalisieren und vorausschauendes Fahren zu ermöglichen. „Ein weiterer Vorteil der Vernetzung liegt darin, die Software und somit die Funktionen immer auf dem aktuellsten Stand zu halten, hier mittels Over-The-Air-Updates“, sagt Dr. Sascha Semmler. „Damit ist unsere neueste Kamera-Generation noch zukunftssicherer aufgestellt.“

      Continental demonstriert die neue Kamerageneration auch im September auf der IAA 2017 in Frankfurt am Main (Halle 5.1. Stand A07 / A08).

      Verfügbare Dokumente