AboAutonomes FahrenSo lassen sich auch intelligente Roboter austricksen
KI-Forscher zeigen, wie man Roboter und selbstfahrende Autos reinlegen kann. Ungewohntes Verhalten von Menschen könnte zu gefährlichen Reaktionen der Software führen.
Der Passant winkt wie verrückt, zappelt mit den Beinen und sinkt auf das Trottoir nieder. Das selbstfahrende Auto auf der anderen Strassenseite legt daraufhin den Rückwärtsgang ein – so abrupt, dass der Wagen dahinter in das Heck kracht. Das ist bisher nur ein theoretisches Szenario. «Aber in Zukunft könnten solche Attacken auf selbstfahrende Autos möglich sein», sagt Adam Gleave von der University of California in Berkeley. Zusammen mit Kollegen hat der Informatiker jene Algorithmen ausgetrickst, die künftig unter anderem autonome Fahrzeuge durch Innenstädte lotsen sollen.