Anzeige

Anzeige

VERANSTALTUNGEN

DWX-Developer Week
24.06.19 - 27.06.19
In Nürnberg

4. Cyber Conference Week
01.07.19 - 05.07.19
In Online

IT kessel.19 – Der IT Fachkongress
04.07.19 - 04.07.19
In Messe Sindelfingen

ACMP Competence Days Berlin
11.09.19 - 11.09.19
In Stiftung Deutsches Technikmuseum Berlin, Berlin

MCC CyberRisks - for Critical Infrastructures
12.09.19 - 13.09.19
In Hotel Maritim, Bonn

Anzeige

Anzeige

autonomes Auto

Forscher der an der University of Southern California angesiedelten Viterbi-Ingenieursschule haben mit Kollegen der Arizona State University eine Möglichkeit verborgene Fehler in der Software autonom fahrender Autos gefunden.

Das Problem vieler Programme ist bislang die sichere Identifizierung dessen, was die Kameras aufnehmen. Sie müssen zwischen Fußgängern, Kinderwagen, Radlern, Autos und allen anderen Verkehrsteilnehmern unterscheiden können, um richtig zu reagieren.

Software lernt noch dazu

Die in autonom fahrenden Autos eingesetzte Software lernt selbstständig. Sie macht Erfahrungen, die sie im nächsten, ähnlichen oder gleichen Fall nutzt. Derartige Programme lassen sich schlecht testen, weil niemand ganz genau weiß, aufgrund welcher Umstände sie Entscheidungen treffen. Das kann verheerende Folgen haben, wenn das Fahrzeug auf die Straße kommt.

"Erkennungs-Software zuverlässig zu machen, ist die größte Herausforderung", sagt Viterbi-Doktorand Anand Balakrishnan. "Mit unserer Testmethode können Software-Entwickler Fehler schnell erkennen und dieses Wissen nutzen, um sie weiter zu trainieren. Es müsse vor der Zulassung eines fahrerlosen Autos auch für die eingesetzte Software eine Art Crashtest geben, so Balakrishnan.

Radler und Fußgänger verwechselt

Erkennungs-Software wird in den meisten Fällen mit gewaltigen Datenmengen gefüttert. Daran lernen die Algorithmen, die unterschiedlichen Verkehrsteilnehmer zu identifizieren. Das klappt nicht immer. Vor einem Jahr klassifizierte eine Software einen Fußgänger als nicht existent und entschied sich gegen einen Stopp. Der Fußgänger wich noch rechtzeitig aus.

Die US-Forscher haben ihre Prüf-Software an zwei maschinell lernenden Programmen getestet. Dabei stellten sie fest, dass das System einen Radfahrer von hinten nicht als solchen erkannte, weil er einem Fußgänger glich. Umgekehrt "sieht" das System oft Phantome, also Objekte, die es gar nicht gibt. Das verhindert eine zügige Fahrt oder beendet sie gar.

www.pressetext.com
 

GRID LIST
Smartphone, Tablet, Urlaub

Smartphones und Co. - Ohne Absicherung ab in den Urlaub

Smartphones und Co. sind für viele Menschen auch im Urlaub nicht wegzudenken. Mit der…
Huawei Smartphone

Auch Huawei verschiebt Start seines Auffalt-Smartphones

Nach Samsung hat auch der chinesische Huawei-Konzern den Marktstart seines neuartigen…
Mann wütend

PC-Abstürze bringen Angestellte zur Weißglut

Computerabstürze sind für Mitarbeiter in britischen Unternehmen der größte Störfaktor am…
Malware

Aufgepasst vor der Windows-RDP-Schwachstelle BlueKeep

Check Point Research, die Threat Intelligence-Abteilung von Check Point Software…
EuGH Richterhammer

Die Netzagentur verliert den Gmail-Streit mit Google vor dem EuGH

Seit Jahren will die Bundesnetzagentur erreichen, dass Googles Gmail als…
Matthias Laux

abas Software AG macht Dr. Matthias Laux zum neuen CTO

Seit dem 01. Mai 2019 hat die abas Software AG mit Dr. Matthias Laux einen neuen Chief…