Texas Instruments ist Hersteller und Lieferant eines solchen Systems. Das Unternehmen erklärt in einem Whitepaper, dass das Automotive Advanced Driver Assistance System eine Reihe von 180-Grad-Kameras, einen System-on-Chip (SoC)-Prozessor und eine clevere Programmierung verwendet, um Bilder von vier bis sechs an der Vorderseite montierten Kameras zusammenzufügen Stoßstange, Heckstoßstange und Seiten eines Fahrzeugs. Jede Kamera nimmt superweite Ansichten ihrer Umgebung auf, und Algorithmen richten die Geometrie in den überlappenden Bildern benachbarter Kameras aus und fügen alles effektiv zusammen. Das Sammeln und Kombinieren der Daten ist jedoch nur ein Teil der Gleichung.
Bevor die Bilder der verschiedenen Kameras zusammengefügt werden, muss der SoC die von den Fischaugenobjektiven erzeugten Verzerrungen und Artefakte korrigieren und eine perspektivische Transformation vornehmen, wodurch das Bild eher wie eine Aufnahme von oben erscheint. Nach der Korrektur führt das System Helligkeit, Weißabgleich und Farbabgleich durch, um Unterschiede zwischen den Inhalten auszugleichen. Dadurch wird sichergestellt, dass das endgültige Bild, das den Fahrer über das Infotainmentsystem erreicht, zusammenhängend und ohne sichtbare Nähte aussieht. Das Ergebnis ist ein scheinbar magischer Blick auf die Umgebung des Autos, aber es gibt eine Lücke, wo das Fahrzeug sein sollte.
Diese Lücke wird gefüllt, indem das Fahrzeug in den generierten Video-Feed eingeblendet wird. Das System ist nicht Plug-and-Play, und jedes Fahrzeugdesign erfordert einige Forschung und Entwicklung, um die Parameter des Algorithmus abzustimmen. Bei einigen größeren Fahrzeugen ist es immer noch nicht immer einfach, den Maßstab von Fahrzeugen zu beurteilen, wenn sie auf einem Bildschirm im Auto dargestellt werden, daher fügen die Hersteller oft Begrenzungslinien und Richtlinien hinzu, die den projizierten Weg basierend auf der Ausrichtung des Lenkrads zeigen. auch.