Die Fahrerassistenz- und Autonomiefunktionen von XPENG basieren auf einer Sensor-Fusion: Mehrere Sensortypen erfassen gleichzeitig die Umgebung und liefern gemeinsam ein möglichst zuverlässiges Gesamtbild. Diese Architektur ist die Grundlage für XPILOT und XNGP.
Die Sensorik bei XPENG im Überblick
1) Kameras (visuelle Wahrnehmung)
Aufgabe:
-
Erkennen von Fahrspuren, Fahrzeugen, Fußgängern, Verkehrszeichen
-
Klassifikation von Objekten und Szenen
Eigenschaften:
-
Hohe Detailgenauigkeit
-
Stark bei Tageslicht und klaren Markierungen
-
Grundlage für KI-basierte Objekterkennung
Grenzen:
-
Abhängig von Licht, Wetter und Markierungsqualität
2) Radar (Millimeterwellen)
Aufgabe:
-
Messen von Abstand und Relativgeschwindigkeit
-
Absicherung bei schlechten Sichtbedingungen
Eigenschaften:
-
Funktioniert bei Regen, Nebel und Dunkelheit
-
Sehr zuverlässig für ACC und Notbremsfunktionen
Grenzen:
-
Geringere Detailauflösung als Kameras
3) Ultraschallsensoren (Nahbereich)
Aufgabe:
-
Erkennen von Hindernissen im direkten Umfeld
-
Parken, Rangieren, niedrige Geschwindigkeiten
Eigenschaften:
-
Sehr präzise im Nahbereich
-
Wichtig für Parkassistenz und 360°-Systeme
Grenzen:
-
Nur kurze Reichweite
4) LiDAR (modell- & ausstattungsabhängig)
Aufgabe:
-
Erzeugt ein hochpräzises 3D-Umgebungsmodell
-
Exakte Entfernungsmessung unabhängig vom Licht
Eigenschaften:
-
Sehr zuverlässig bei Nacht und komplexen Szenen
-
Verbessert die Stabilität in schwierigen Situationen
Grenzen:
-
Teurer als Kamera/Radar
-
Nicht bei allen Modellen oder Märkten serienmäßig
Warum XPENG auf Sensor-Fusion setzt
Kein einzelner Sensor ist perfekt. XPENG kombiniert daher:
-
Kameras (Detail & Kontext)
-
Radar (Distanz & Geschwindigkeit)
-
Ultraschall (Nahbereich)
-
LiDAR (3D-Präzision)
Erst die Fusion dieser Daten erlaubt ein robustes, redundantes System, das auch bei wechselnden Bedingungen stabil bleibt.
Zusammenspiel mit Software & KI
Alle Sensordaten werden:
-
In einer zentralen Recheneinheit zusammengeführt
-
Von KI-Modellen (neuronale Netze) interpretiert
-
Mit Karten- und Navigationsdaten (bei XNGP) kombiniert
-
In konkrete Fahrentscheidungen übersetzt (Lenken, Bremsen, Beschleunigen)
Durch Over-the-Air-Updates kann XPENG die Auswertung kontinuierlich verbessern – auch ohne neue Hardware.
Sensorik nach Einsatzbereich
| Bereich | Hauptsensoren |
|---|---|
| Autobahn & ACC | Kamera + Radar |
| Spurführung | Kamera |
| Stop-and-Go | Kamera + Radar |
| Parken | Ultraschall + Kamera |
| Komplexe Szenen | Kamera + Radar + ggf. LiDAR |
Was XPENG (noch) nicht nutzt
-
Keine vollständige Abhängigkeit von nur einem Sensortyp
-
Kein rein kamerabasiertes System ohne Redundanz
-
Kein vollautonomes Level-3-System im Serienbetrieb
Fazit
XPENG setzt auf eine moderne, redundante Sensorik aus Kamera, Radar, Ultraschall und – je nach Modell – LiDAR. Diese Kombination ermöglicht sehr leistungsfähige Level-2-Assistenzsysteme, besonders auf Autobahnen. Entscheidend ist nicht der einzelne Sensor, sondern das Zusammenspiel aus Hardware, KI-Software und Daten.
Beratung & Kontakt
Du willst zusätzlich Zubehör, Reifen, Felgen oder Winter-/Allwetterkompletträder, optimal abgestimmt auf Preis-Leistung, Fahrzeuggewicht und Effizienz – mit kostenlosem Versand auf Kompletträder per Rabattcode EVWINTER?
📞 Telefon: +49 7021 725 6506
📧 E-Mail: info@ev-supply.de
Wir beraten dich gerne persönlich.


