Anzeige

Anzeige

VERANSTALTUNGEN

IT-SOURCING 2019 – Einkauf meets IT
09.09.19 - 10.09.19
In Düsseldorf

IT-Sourcing 2019 - Einkauf meets IT
09.09.19 - 10.09.19
In Düsseldorf

ACMP Competence Days Berlin
11.09.19 - 11.09.19
In Stiftung Deutsches Technikmuseum Berlin, Berlin

MCC CyberRisks - for Critical Infrastructures
12.09.19 - 13.09.19
In Hotel Maritim, Bonn

Rethink! IT 2019
16.09.19 - 17.09.19
In Berlin

Anzeige

Anzeige

autonomes Auto

Forscher der an der University of Southern California angesiedelten Viterbi-Ingenieursschule haben mit Kollegen der Arizona State University eine Möglichkeit verborgene Fehler in der Software autonom fahrender Autos gefunden.

Das Problem vieler Programme ist bislang die sichere Identifizierung dessen, was die Kameras aufnehmen. Sie müssen zwischen Fußgängern, Kinderwagen, Radlern, Autos und allen anderen Verkehrsteilnehmern unterscheiden können, um richtig zu reagieren.

Software lernt noch dazu

Die in autonom fahrenden Autos eingesetzte Software lernt selbstständig. Sie macht Erfahrungen, die sie im nächsten, ähnlichen oder gleichen Fall nutzt. Derartige Programme lassen sich schlecht testen, weil niemand ganz genau weiß, aufgrund welcher Umstände sie Entscheidungen treffen. Das kann verheerende Folgen haben, wenn das Fahrzeug auf die Straße kommt.

"Erkennungs-Software zuverlässig zu machen, ist die größte Herausforderung", sagt Viterbi-Doktorand Anand Balakrishnan. "Mit unserer Testmethode können Software-Entwickler Fehler schnell erkennen und dieses Wissen nutzen, um sie weiter zu trainieren. Es müsse vor der Zulassung eines fahrerlosen Autos auch für die eingesetzte Software eine Art Crashtest geben, so Balakrishnan.

Radler und Fußgänger verwechselt

Erkennungs-Software wird in den meisten Fällen mit gewaltigen Datenmengen gefüttert. Daran lernen die Algorithmen, die unterschiedlichen Verkehrsteilnehmer zu identifizieren. Das klappt nicht immer. Vor einem Jahr klassifizierte eine Software einen Fußgänger als nicht existent und entschied sich gegen einen Stopp. Der Fußgänger wich noch rechtzeitig aus.

Die US-Forscher haben ihre Prüf-Software an zwei maschinell lernenden Programmen getestet. Dabei stellten sie fest, dass das System einen Radfahrer von hinten nicht als solchen erkannte, weil er einem Fußgänger glich. Umgekehrt "sieht" das System oft Phantome, also Objekte, die es gar nicht gibt. Das verhindert eine zügige Fahrt oder beendet sie gar.

www.pressetext.com
 

GRID LIST
Dr. Ulrich Mehlhaus

SoftProject GmbH verstärkt die Geschäftsführung mit Dr. Ulrich Mehlhaus

Der Ettlinger Digitalisierungsspezialist SoftProject GmbH gewinnt mit Dr. Ulrich Mehlhaus…
Huawei - USA

Nach Entspannung im Handelskrieg: Huawei-Verkäufe ziehen an

Spionage-Vorwürfe und Anti-China-Rhetorik der US-Administration hat am guten Ruf des…
Receiver für den 6G-Mobilfunkstandard

Innovativer Mini-Transceiver ebnet Weg für 6G

Während das neue Mobilfunknetz 5G Schlagzeilen macht, ist schon der Nachfolger im…
Facebook

Neues Facebook-Tool entlarvt Werbebetrüger

Social-Media-Gigant Facebook hat vorerst nur in Großbritannien ein Tool veröffentlicht,…
Ransomware

Städte und Gemeinden im Fadenkreuz von Ransomware-Angriffen

Mit bis zu 6 Millionen betroffenen Bürgern war die Attacke der SamSam-Gruppe auf Atlanta…
Tb W190 H80 Crop Int 44883787f55492536df4fef88afdf2cc

Neue Phishing-Simulation von Network Box

Phishing-Angriffe haben in den letzten Jahren dramatisch zugenommen. 92% aller…