Anzeige

Anzeige

VERANSTALTUNGEN

Be CIO Summit
26.09.19 - 26.09.19
In Design Offices Frankfurt Wiesenhüttenplatz, Frankfurt am Main

3. DIGITAL MARKETING 4HEROES CONFERENCE
08.10.19 - 08.10.19
In Wien

it-sa 2019
08.10.19 - 10.10.19
In Nürnberg, Messezentrum

3. DIGITAL MARKETING 4HEROES CONFERENCE
15.10.19 - 15.10.19
In München

PM Forum 2019
22.10.19 - 23.10.19
In Nürnberg, NCC Ost

Anzeige

Anzeige

autonomes Auto

Forscher der an der University of Southern California angesiedelten Viterbi-Ingenieursschule haben mit Kollegen der Arizona State University eine Möglichkeit verborgene Fehler in der Software autonom fahrender Autos gefunden.

Das Problem vieler Programme ist bislang die sichere Identifizierung dessen, was die Kameras aufnehmen. Sie müssen zwischen Fußgängern, Kinderwagen, Radlern, Autos und allen anderen Verkehrsteilnehmern unterscheiden können, um richtig zu reagieren.

Software lernt noch dazu

Die in autonom fahrenden Autos eingesetzte Software lernt selbstständig. Sie macht Erfahrungen, die sie im nächsten, ähnlichen oder gleichen Fall nutzt. Derartige Programme lassen sich schlecht testen, weil niemand ganz genau weiß, aufgrund welcher Umstände sie Entscheidungen treffen. Das kann verheerende Folgen haben, wenn das Fahrzeug auf die Straße kommt.

"Erkennungs-Software zuverlässig zu machen, ist die größte Herausforderung", sagt Viterbi-Doktorand Anand Balakrishnan. "Mit unserer Testmethode können Software-Entwickler Fehler schnell erkennen und dieses Wissen nutzen, um sie weiter zu trainieren. Es müsse vor der Zulassung eines fahrerlosen Autos auch für die eingesetzte Software eine Art Crashtest geben, so Balakrishnan.

Radler und Fußgänger verwechselt

Erkennungs-Software wird in den meisten Fällen mit gewaltigen Datenmengen gefüttert. Daran lernen die Algorithmen, die unterschiedlichen Verkehrsteilnehmer zu identifizieren. Das klappt nicht immer. Vor einem Jahr klassifizierte eine Software einen Fußgänger als nicht existent und entschied sich gegen einen Stopp. Der Fußgänger wich noch rechtzeitig aus.

Die US-Forscher haben ihre Prüf-Software an zwei maschinell lernenden Programmen getestet. Dabei stellten sie fest, dass das System einen Radfahrer von hinten nicht als solchen erkannte, weil er einem Fußgänger glich. Umgekehrt "sieht" das System oft Phantome, also Objekte, die es gar nicht gibt. Das verhindert eine zügige Fahrt oder beendet sie gar.

www.pressetext.com
 

GRID LIST
Email Security

E-Mail-Verschlüsselungslösung jetzt auch „as a Service“

totemo, stellt totemomail Cloud Service auf Europas größter IT-Security-Messe it-sa vor.…
Tb W190 H80 Crop Int 49eb68de66203df26381654d9d5b4048

Huawei schweigt zur Verfügbarkeit seines neuen Smartphones

Huawei hat am Donnerstag sein neues Smartphone Mate 30 vorgestellt - dabei aber keine…
Mobile Security

iPhone-App mit Geheimhaltungsstufe

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) ermöglicht Behörden zum…
Papierstappel

Neufassung der GoBD: Neuerungen im Schreiben des BMF

Mit Schreiben vom 11.07.2019 hat das Bundesministerium für Finanzen (BMF) eine Neufassung…
Tb W190 H80 Crop Int F006de532bbbe3763f5fa219602d205e

IT-Sicherheit in Aktion

Auch 2019 wird sich die Fraunhofer Academy auf der IT-Security-Messe it-sa vom 8. bis 10.…
Tb W190 H80 Crop Int 13a7f19039aeb8c9c725386ffad31c63

Fuze stellt Integration in Slack vor

Fuze, Anbieter einer Cloud-basierten Kommunikationsplattform gibt bekannt, dass sich Fuze…