Prime Movers Lab Webinar Series: Autonomous Vehicles | by Alessandro Levi | Prime Movers Lab | May, 2021

Ein Gespräch mit Experten und Unternehmern über die neuesten Trends, Technologien und die Sicherheit autonomer Fahrzeuge

In der Folge der Webinar-Reihe Prime Movers Lab in der vergangenen Woche haben wir mit dem Experten für selbstfahrende Technologie Kevin Peterson, dem Sicherheitsmanager Antonio Priore und dem Radarentwickler und Unternehmer Natan Mintz gesprochen, um den aktuellen Stand der selbstfahrenden Technologie und die zukünftigen Entwicklungen zu verstehen .

Nathan Mintz ist Mitbegründer und CEO von Spartan, einem Startup für Automobilradartechnologie. Als Serienunternehmer war er vor Spartan Gründungs-CEO von Epirus, einem Start-up im Verteidigungsbereich. Nathan hat auch dazu beigetragen, mehrere Startups in den Bereichen Verteidigung, Autonomie, SaaS und Cybersicherheit zu inkubieren, zu führen und zu beraten. Nathan verbrachte die ersten 14 Jahre seiner Karriere in einer Mischung aus Geschäftsentwicklung, Systemtechnik und Führungspositionen bei Boeing und Raytheon. Nathan hält sechs US-Patente. Er erhielt seinen Bachelor- und Master-Abschluss in Materialwissenschaften von der Stanford University.

Kevin Peterson ist Head of Perception für Trucking bei Waymo. Davor war er Autonomy Architect bei Caterpillar, nachdem er den von ihm mitbegründeten Lieferroboterhersteller Marble übernommen hatte. Vor Marble war Kevin CTO bei Astrobotic Technology, wo er das Engineering-Team leitete und für das Design der Griffin- und Peregrine-Lander verantwortlich war. Kevin hat einen Ph.D. von der Carnegie Mellon University (CMU) und war Teil des autonomen Fahrerteams DARPA Urban Challenge der CMU.

Antonio Priore arbeitet für Arm als Director of Functional Safety (FuSa) und CyberSecurity. Er ist der amtierende Arm Global Functional Safety Manager und leitet das FuSa Center of Excellence-Team, das für die Definition und kontinuierliche Verbesserung der funktionalen Sicherheitsprozesse in Arm verantwortlich ist. Das Team ist dafür verantwortlich, die Einhaltung mehrerer Sicherheitsstandards (z. B. ISO 26262, IEC 61508, DO-254, DO-178C usw.) in verschiedenen Marktsegmenten nachzuweisen. Antonio ist ein britischer Chartered Engineer und Mitglied des IET. Seine Karriere erstreckt sich über mehr als ein Jahrzehnt im Bereich Functional Safety Engineering in verschiedenen Bereichen wie Automobil, Luft- und Raumfahrt, Industrie und Eisenbahn. Er hat mehrere Artikel verfasst und ist Mitglied des British Standard Institute. Antonio hat einen Master-Abschluss in Elektrotechnik von der Universität Pisa in Italien.

  • DARPA Grand Challenge inspirierte und drängte mehrere Universitäten, an vollständig autonomen Technologien zu arbeiten. Die ersten Pioniere waren Studenten, die von dem verrückten Projekt angezogen wurden, etwas anderes als Akademiker tun wollten und eine große Leidenschaft für Software hatten, die „Dinge“ bewegte. Die DARPA Grand Challenge ist ein Preiswettbewerb für autonome amerikanische Fahrzeuge, der von der Defense Advanced Research Projects Agency (DARPA) finanziert wird und das Ziel hat, die Entwicklung von Technologien für die ersten vollständig autonomen Bodenfahrzeuge zu fördern.
  • Einige von den Fachwissen und Erfahrung aus der Luft- und Raumfahrtindustrie kann genutzt werden, um autonome Fahrtechnologien zu entwickelnBerücksichtigen Sie dabei die unterschiedlichen Herausforderungen wie begrenzte Leistung, begrenzter Platz und begrenzte Rechenleistung.
  • Eine der Lehren aus der Luft- und Raumfahrt ist, dass manchmal mehr nicht unbedingt besser ist, weil mehr Sensoren mehr Konflikte darüber bedeuten, was tatsächlich da ist und was nicht. Oft kommen Sensoren mit Fehlalarmen und verschiedene Arten von Sensoren haben verschiedene Arten von Fehlalarmen. Das durchschnittliche autonome Fahrzeug verfügt über Petabyte an Daten pro Tag, die heruntergeladen werden. Wenn Sie diese Daten auf eine Flotte skalieren, ist diese Zahl entmutigend. Wenn Sie auf Hunderte von Millionen von Fahrzeugen skalieren, gibt es in keiner Cloud genügend Speicherplatz, um dies zu tun. Irgendwann wird es notwendig sein, das Sensorrohr dünner zu machen. Dies verbessert die Reaktionszeit autonomer Fahrzeuge auf Hindernisse, da die Wahrnehmungsschicht weniger Daten verarbeiten muss, was die Verarbeitungszeit verkürzt. Es wird einen Kompromiss zwischen Systemkomplexität und Systemzuverlässigkeit geben.
  • In den letzten 5 Jahren hat sich die Branche von eine Domäne, die überwiegend war akademisch (wo der Fokus darauf lag, wie man maschinelles Lernen macht, wie Software verstehen kann, wie die Welt aussieht) zu einem, der produktorientierter ist. Heute gibt es eine Konvergenz zwischen Technologie- und Geschäftsdisziplinen, um ein neues Produkt zu entwickeln, das die urbane Mobilität revolutionieren und Städte beeinflussen kann.
  • Es gibt zwei Denkschulen wenn es um voll autonome Fahrzeuge geht: Traditionelle OEMs verfolgen einen schrittweisen Ansatz Hinzufügen weiterer Sensoren für zusätzliche Funktionen, wie z. B. ADAS (Automated Driving Assistance Systems), die beispielsweise beim Bremsen helfen oder beim Einparken akustische Warnungen ausgeben können. Völlig autonome Entwickler oder Pioniere verfolgen einen Top-Down-Ansatz, bei dem sie das Fahrzeug vom ersten Tag an entwerfen und mit allen Sensoren ausstatten voll autonomes Fahren zu erreichen. Diese beiden Ansätze spiegeln sich in einem unterschiedlichen Grad an Komplexität der Hardwarearchitektur und auch in dem Arbeitsaufwand wider, der zum Nachweis der Erfassungsarchitektur erforderlich ist: Wenn sich beispielsweise ein Fahrer hinter den Rädern befindet, ist ein bestimmter Fehlergrad zulässig, während dies der Fall ist Kein Fahrer, die Anforderungen sind strenger.
  • Das verschiedene Ebenen des Software-Stacks sind:

1. Rohdaten, die von verschiedenen Sensorsätzen stammen, erzeugen einen Stream, der analysiert werden muss. Eine frühzeitige Verarbeitung kann durchgeführt werden, und Daten von Kameras, Radargeräten und anderen Sensoren müssen dann zusammengeführt werden.

2. Wahrnehmung bezieht sich auf die Verarbeitung von Informationen von Sensoren zu einem präzisen Modell der Umgebung.

3. Bei der Lokalisierung wird das Fahrzeug relativ zur Fahrspur, Straße und Welt positioniert, die durch die Karten dargestellt werden.

4. AI / ML-Szenenverständnis führt zu einem semantischen Verständnis der wahrgenommenen Welt: Beispielsweise muss die Software verstehen, ob sich das Auto in einer Bauzone befindet oder sich in der Nähe eines Fußgängers befindet, in dem sich die Straße befindet.

5. Auf dieser Ebene muss die Software darüber nachdenken, was als nächstes passiert. Dieser Schritt wird Vorhersage genannt. Zum Beispiel fährt das Auto in der Nähe eines Bikers und muss über ihn und seine Bewegungen nachdenken.

6. Der Planer ist die nächste Phase, in der die Software entscheidet, welche Flugbahn sie einschlagen soll, wenn man bedenkt, wie die Welt aussieht. Fahrentscheidungen werden auf der Grundlage einer Reihe von Zielen und Einschränkungen durch die Umgebung getroffen, und die Bewegung des Fahrzeugs wird geplant.

7. Die letzte Stufe ist, wenn die gewünschte Bewegung des Fahrzeugs über die Steuerung an die Aktuatoren gesendet wird. Am Ende dieses Stapels müssen wichtige Dinge wie Fallback und Sicherheit in Echtzeit geschehen. Beispielsweise muss das Fahrzeug wissen, wann ein Sensor ausfällt, oder die Situation bewältigen, in der ein Reifen beschädigt ist.

  • Unternehmen wie Arm ermutigen das Ökosystem, die nicht differenzierten Teile des Stapels zu standardisieren (dh die Hardware, die Low-Level-Software), bei der der Wert nicht vorhanden sein wird. Um Kosten zu sparen, ist es bequem, sie zu standardisieren, und dann kann sich jeder Autonomieentwickler oder OEM auf die unterschiedlichen Teile des Stapels konzentrieren.
  • Im Moment garantiert ein All-Kamera-Ansatz nicht genügend Sicherheit, damit ein Fahrer den Fahrersitz verlassen kann. Das Problem bei Kameras ist die schlechte Tiefenauflösung. Aber die Dinge entwickeln sich schnell und die Fähigkeit zu lernen, wie die Welt aussieht, um tatsächlich ein Tiefenbild von einigen Kameras zu erzeugen, hat sich in den letzten Jahren dramatisch weiterentwickelt, und wir werden diese Verschiebung im Laufe der Zeit sehen.
  • Das Hinzufügen weiterer Sensoren auf Kameras, wie z. B. Lidars oder Radar, hilft auf verschiedene Weise: 1. Hinzufügen einer Tiefenwahrnehmung 2. Redundanz von Informationen 3. Arbeiten bei allen Wetterbedingungen (Schnee, Nebel, Regen). Die Verwendung mehrerer Sensoren ermöglicht eine bessere Sicherheit und erweitert auch die ODD (Operational Design Domain), in der die Autonomie eingesetzt wird. Es erlaubt auch weniger schwarze Schwäne, Ereignisse, die nicht vorhergesagt wurden, und gegen die autonome Systeme nicht getestet wurden.
  • Die beiden Entwurfsansätze (mit und ohne Lidars) hängen von den Kosten und der Art der Anwendung ab: Bei LKW- oder Taxi-Anwendungen können Sie es sich leisten, mehr für die Hardware auszugeben, während für Privatwagen die Kosten für Lidars unerschwinglich sein können.
  • Wann erfolgt die Bereitstellung in großem Maßstab? Aus Hardware-Sicht befinden sich CPUs, die die Arbeitslast verwalten können, derzeit im Design und werden in den nächsten Jahren einsatzbereit sein. Dann wird es eine Frage der Regulierung und Gesetzgebung sein. Es gibt auch verschiedene Antwortgrade, da die Autonomie bereits vorhanden ist und Waymo beispielsweise seine Flotte in Phoenix eingesetzt hat. Die entscheidende Frage ist, wie wir mit der Komplexität umgehen, wie wir im Laufe der Zeit wachsen und wie wir aus autonomen Fahrzeugen ein Geschäft machen.
  • Die Kommerzialisierung vollständig autonomer Fahrzeuge wird zunächst in den Bereichen LKW, Bergbau, Bauwesen und Logistik erfolgen, und wir sehen dies bereits. Caterpillar verfügt bereits über 40 Millionen Meilen vollautonomen Lkw-Fahrens. in Kanada gibt es Pronto.AI; Aurora und Waymo haben ihre eigenen LKW-Flotten und die Zeitpläne für den Rollout werden 2024–2025 sein.
  • Lieferkette: Unternehmen wie Waymo sind vertikal integriert, da sie so die Leistung des gesamten Systems, die Sicherheit und die Qualität steuern können. Dies gilt insbesondere zu diesem Zeitpunkt, da nicht klar ist, wie hoch die Leistung des Sensors sein muss. In Zukunft könnte sich dieser Ansatz ändern.
  • In 10 bis 20 Jahren könnte es ein App-Ökosystem geben, Hier gibt ein Stück Hardware und Software einige Informationen über die Welt, die grundlegende Bausteine ​​darstellen (die wichtigsten Argumentationsfunktionen der Szene rund um das Fahrzeug). OEMs werden das Sicherheitssystem entwickeln, das der Funktionsweise der Bremsen zugrunde liegt, beispielsweise der Funktionsweise der Lenkräder. In Zukunft könnte es eine Zweiteilung wie bei Apple und Microsoft für PC geben: Einige Player bevorzugen eine vertikale Integration, um die Leistung zu steuern, während andere Player sich hauptsächlich auf die Software konzentrieren.
  • Worauf sollte ein Investor in einem Team, einer Technologie und einem Unternehmen im Transportbereich achten? Interessante Investitionsmöglichkeiten liegen auf der Sensorseite, da sie ein wesentlicher Bestandteil der vollständigen Autonomie sind. Es wird auch Platz für Hardware- und Softwaremodelle geben. Die drei grundlegenden Aspekte bei der Suche nach einer Investition sind:

1. Replizierbarkeit des Vorgangs, sodass Sie die Software, die Sie einmal geschrieben haben, immer wieder ausführen können

2. Die Betriebskosten außerhalb der Hardware. Zum Beispiel wäre die Lieferung von Lebensmitteln schwierig, da eine große Menge an Lieferungen erforderlich ist, um genügend Gewinne zu erzielen. Andere Anwendungen wie der Bergbau sind lukrativer, da autonome Lastwagen die Produktivität der Bergbauunternehmen steigern und in einigen Fällen die Fahrer ersetzen können, die Hunderttausende von Dollar pro Jahr kosten. In diesem Fall werden Sicherheit und Komfort von grundlegender Bedeutung.

3. Wie technisch herausfordernd ist das zu lösende Problem?

4. Identifizieren Sie eine einfachere Betriebsdomäne, in der autonomes Fahren eingesetzt wird, um einen klaren und schnelleren Weg zur Kommerzialisierung zu finden. Dies gilt für Bergbau, Landwirtschaftsroboter und andere Sektoren.

  • Was wir aus diesem riesigen menschlichen Streben nach Autonomie lernen, hat Auswirkungen auf andere Sektoren und es gibt Verbesserungen in Bezug auf bessere Radargeräte, Computer, die sehr zuverlässig sind, Verstärkungslernen, das in einer Simulation ausgeführt und dann in die reale Welt übertragen werden kann, mit direktem Einfluss auf Manipulationsaufgaben. Der größte Beitrag ist die Verbesserung der menschlichen Arbeitsfähigkeit. Wie Computer und das Internet organisierte Informationen und es gab eine Vielzahl von Anwendungen, wird die Verbesserung der menschlichen Arbeitsfähigkeit transformativ sein. Was als nächstes passiert, ist die größte Frage.

Artikel Hinweis: Ich habe mein Bestes getan, um die Konversation der Diskussionsteilnehmer mit einem hohen Maß an Genauigkeit zu paraphrasieren. Alle Fehler beim Zusammenfassen sind meine. Sehen Sie sich das vollständige Webinar an, um die Erfahrung zu genießen und das beste Wissen direkt von den Experten zu sammeln.

Comments are closed.