[ Video ] Ford stellt nächste Generation der autonom fahrenden Autos vor

| 04.01.2017


Ford hat dieser Tage in den USA die nächste
Generation von Forschungsträgern für autonomes Fahren vorgestellt.
Als Basis-Fahrzeug (Plattform) dient dabei erneut der Ford Fusion
(Mondeo) Hybrid. Die Rechenleistung dieser Fahrzeuge wurde durch
modernste Computer-Hardware jedoch wesentlich verbessert, die
elektrischen Steuerungen sind deutlich näher an der Serienreife und
die Sensor-Technologie mitsamt den Platzierungen der Sensoren
ermöglicht den Autos eine noch bessere "Sicht" auf die Umgebung. Die
neuen LiDAR-Sensoren (Light Detection And Ranging) sind zum einen
noch schlanker ausgeführt, zum anderen erfassen sie einen noch
exakteren Zielbereich. Auf diese Weise kommt die neue
Fahrzeug-Generation mit zwei statt vier Sensoren aus - die aber
genauso viele Daten liefern. Ford hatte vor drei Jahren die ersten
autonom fahrenden Ford Fusion Hybrid-Forschungsfahrzeuge vorgestellt
- alles, was der Konzern seitdem gelernt hat, floss in die jüngste
Fahrzeug-Generation ein.

Name: _MB_0223_11.jpg Größe: 3293x2103 Dateigröße: 2092344 Bytes

Ein autonom fahrendes Auto besteht prinzipiell aus zwei
Grundelementen: der Fahrzeug-Plattform, die auf einem Serienmodell
von Ford basiert, und dem virtuellen Fahrersystem. Beide Elemente
erreichen nun eine weitere Evolutionsstufe. Besonders die Entwicklung
und die Tests des virtuellen Fahrersystems haben durch die erweiterte
Sensor- und Rechenleistung einen großen Sprung gemacht.

Was ist ein virtuelles Fahrersystem?
Ford versteht unter einem "virtuellem Fahrersystem" ein Fahrzeug der
Autonomiestufe 4 auf der sechsstufigen Skala der Society of
Automotive Engineers (SAE). Es benötigt keinen Fahrer, folglich muss
das Auto alle Steuersysteme ebenso gut bedienen können wie der
Mensch. Das virtuelle Ford-Fahrersystem ist auf diese hohe
Autonomiestufe ausgelegt und umfasst:

- Sensoren - LiDAR, Kameras und Radar
- Algorithmen für die Lokalisation und Routen-/Streckenplanung
- Computerbasierte Bild-Auswertung und maschinelles Lernen
- Hochdetaillierte 3D-Karten
- Hohe Computer- und Elektronikleistung für die praktische Umsetzung


Hybrid-Ansatz von Ford: Wie das virtuelle Fahrersystem seine Umgebung
wahrnimmt
Die Aufgabe lautet, ein robustes virtuelles Fahrersystem zu
entwickeln, das genauso zuverlässig Entscheidungen trifft und sie
umgehend ausführt, wie der Fahrer selbst und andere
Verkehrsteilnehmer. Ford realisiert das mit einem Ansatz, der den
autonomen Autos hilft, genauso zu sehen, zu denken und zu handeln wie
ein Mensch - und in manchen Fällen sogar besser. Auf Basis der
heutigen Technologien und gestützt auf Annahmen über künftige
Möglichkeiten arbeiten die Ford-Ingenieure an zwei Methoden, mit
denen das virtuelle Fahrersystem eines autonomen Fahrzeugs seine
Umgebung wahrnimmt: vermittelte Wahrnehmung und direkte Wahrnehmung.

- Die vermittelte Wahrnehmung erfordert das Erzeugen hochauflösender
3D-Karten der Umgebung, in der das autonome Auto fahren soll. Dieses
Kartenmaterial umfasst alles, was das virtuelle Fahrersystem über die
Straßen weiß, bevor das Auto überhaupt startet - etwa die genaue
Position von Ampeln, Stoppschildern, Fußgängerüberwegen und anderen
statischen Merkmalen. Nach dem Losfahren nutzt das virtuelle
Fahrersystem dann sein LiDAR, bei dem Radarsensoren und Kameras
kontinuierlich das Umfeld des Autos erfassen und es mit den
Informationen der 3D-Karte vergleichen - daher die Bezeichnung
"vermitteln". So kann das System die Position des Fahrzeugs auf der
Straße sehr genau lokalisieren sowie erkennen und verstehen, was rund
um das Auto auf der Straße vorgeht. Zudem umfasst die vermittelte
Wahrnehmung ein System, in dem die Verkehrsregeln hinterlegt sind. So
kann das System das Fahrzeug auf alle Ge- und Verbote vorbereiten.

- Die direkte Wahrnehmung ergänzt die vermittelte Wahrnehmung. Sie
nutzt die Sensoren, um die Position des Fahrzeugs auf der Straße zu
"sehen" und dynamische Elemente - wie Fußgänger, Radfahrer oder
andere Autos - zu erkennen. Die Sensoren können sogar helfen, Gesten
zu interpretieren, etwa wenn ein Polizist den Verkehr mit Handzeichen
regelt. Selbstverständlich erfordert die direkte Wahrnehmung noch
bessere Software und eine noch höhere Rechenleistung, denn sie muss
beispielweise die dynamischen Verkehrsteilnehmer klassifizieren und
vorausberechnen, wie schnell und wohin sich ein Fußgänger oder
Radfahrer bewegt.

Dieser Hybrid-Ansatz, der vermittelte und direkte Wahrnehmung
zusammenführt, versetzt das virtuelle Fahrersystem in die Lage, ein
Fahrzeug genauso gut zu steuern wie ein Mensch oder möglicherweise
sogar besser.

Wie sich ein von Menschen gelenktes Auto in ein voll autonomes
verwandelt
Wie verwandelt sich ein serienmäßiger, von Menschen gelenkter Ford
Fusion Hybrid in ein voll autonomes Fahrzeug? Zur Beantwortung dieser
Frage unterteilt Ford die Herausforderungen des virtuellen Fahrens
schematisch in drei Kategorien: das Wahrnehmen der Umgebung, das
Treffen von Entscheidungen auf Basis dieser Wahrnehmungen sowie das
Bedienen des Fahrzeugs.

Das Wahrnehmen der Umgebung
Rein äußerlich unterscheidet sich die jüngste Generation des
autonomen Ford Fusion Hybrid-Forschungsfahrzeugs vor allem durch die
zahlreichen Sensoren von einem herkömmlichen Ford Fusion Hybrid.
Diese Sensoren sind im Grunde die Augen und Ohren des Autos, die das
autonome Fahren überhaupt erst ermöglichen.

- An den A-Säulen befinden sich zwei LiDAR-Sensoren jeweils von der
Größe eines Eishockey-Pucks. Jeder dieser Laser erzeugt Millionen
sogenannter LiDAR-Strahlen, die das Fahrzeug in Form eines Gitters
umgeben und somit eine 360-Grad-Rundumsicht ermöglichen. Diese
Sensoren der neuesten Generation scannen eine Fläche, die ungefähr
der Größe von zwei Fußballfeldern entspricht - und zwar jeweils in
alle Richtungen rund um das Fahrzeug. Mithilfe der hochauflösenden
LiDAR-Technologie kann das System nicht nur genau erkennen, wo sich
ein Objekt befindet, sondern auch, wie groß es ist und welche Form es
hat.






Elektro + Hybrid Antrieb News von route66