Apple zeigt neue Technologien für die App-Entwicklung

Bild: hans engbers / Shutterstock.com

Apple hat mehrere innovative Technologien gezeigt, mit denen Entwickler leistungsstarke neue Apps viel schneller und einfacher entwickeln können. 

SwiftUI ist ein Entwicklungs-Framework, mit dem es einfacher denn je wird leistungsstarke Benutzeroberflächen zu erstellen. ARKit 3, RealityKit und Reality Composer sind fortschrittliche Werkzeuge, mit denen Entwickler einfacher packende AR-Erlebnisse für Konsumenten und Unternehmen entwickeln können. Neue Tools und APIs vereinfachen den Prozess iPad Apps auf den Mac zu bringen. Und Updates für Core ML und Create ML ermöglichen leistungsstärkere und optimierte Apps für maschinelles Lernen direkt auf dem Gerät.

Anzeige

SwiftUI

Das Ziel für Swift war es immer, das Entwickeln schneller, einfacher und interaktiver zu machen. Das moderne UI Framework bietet ein leistungsstarke und intuitive neue Benutzeroberfläche. Unter Verwendung von einfachem, leicht verständlichem deklarativen Code können Entwickler funktionsreiche Benutzeroberflächen inklusive flüssiger Animationen kreieren. SwiftUI bietet sehr viele automatische Funktionalitäten, darunter Oberflächengestaltung, Dunkelmodus, Bedienungshilfen, Unterstützung für von rechts-nach-links laufende Sprachen und Internationalisierung. 

Xcode 11 erweckt SwiftUI zum Leben

Ein neues, in Xcode 11 integriertes graphisches Werkzeug zur Gestaltung des UIs macht es UI-Entwicklern ganz einfach mit SwiftUI eine Benutzeroberfläche zu gestalten – ohne, dass sie hierfür eine Codezeile schreiben müssen. Swift Code wird automatisch generiert und bei Modifikationen an diesem Code erscheinen die Änderungen automatisch im visuellen Gestaltungswerkzeug. Nun können Entwickler automatische Echtzeit-Vorschauen zu Aussehen und Verhalten ihrer UI erhalten, während sie ihren Code assemblieren, testen und überarbeiten. Außerdem können Softwareentwickler und UI-Designer enger zusammenarbeiten. Die Vorschauen können direkt auf verbundenen Apple-Geräten laufen, was Entwickler einen Eindruck vermittelt, wie die App auf Multi-Touch reagiert oder mit der Kamera und integrierten Sensoren funktioniert – all das geschieht live.

Augmented Reality

ARKit 3 stellt den Menschen ins Zentrum der AR. Mit Motion Capture können Entwickler die Bewegungen von Menschen in ihre App integrieren und mit People Occlusion können AR-Inhalte auf natürliche Weise vor oder hinter Personen angezeigt werden. Es ermöglicht der Frontkamera bis zu drei Gesichter zu verfolgen und bringt simultane Unterstützung für Front- und Rückkamera. Es ermöglicht auch gemeinsame Sessions, mit denen man noch schneller in geteilte AR-Erlebnisse eintauchen kann.

RealityKit wurde von Grund auf für AR entwickelt. Es bietet fotorealistisches Rendering, fantastische Umgebungsabbildung und Unterstützung für Kameraeffekte wie Bildrauschen und Bewegungsunschärfe. Mit Reality Composer, einer  neuen App für iOS, iPadOS und Mac, erstellen Entwickler ganz einfach Prototypen für AR-Erlebnisse und produzieren diese, auch ohne vorherige Erfahrung mit 3D. Mit einer  Drag & Drop-Benutzeroberfläche und einer Mediathek mit 3D-Objekten und -Animationen platzieren, bewegen und rotieren  AR-Objekte in Reality Composer, um eine AR-Erfahrung zu erstellen. Diese können sie in Xcode direkt in eine App integrieren oder in AR Quick Look exportieren.

iPad Apps einfacher auf den Mac bringen

Mit Xcode können Entwickler ein bestehendes iPad-Projekt öffnen und einfach ein Feld markieren, um automatisch grundlegende Mac- und Windowing-Funktionen hinzuzufügen sowie Plattform-spezifischen Elementen wie Touch-Steuerung für Tastatur und Maus anzupassen – was einen Riesenvorsprung beim Erstellen einer nativen Mac Version ihrer App bedeutet. Mac und iPad Apps haben denselben Projekt- und Quellcode. Alle Änderungen am Code werden also in die iPadOS- und die macOS-Versionen der App übernommen. 

Core ML und Create ML

Core ML 3 unterstützt die Beschleunigung mehrerer Typen fortschrittlicher Modelle für maschinelles Lernen in Echtzeit. Mit den jetzt in Core ML über 100 unterstützten Modellebenen können Apps die Modelle nutzen. Entwickler können Modelle für maschinelles Lernen mit der Modellanpassung direkt auf dem Gerät aktualisieren, ohne einen Code zu schreiben. Das Training mehrerer Modelle mit verschiedenen Datensätzen kann für neue Modelltypen verwendet werden, wie Objekterkennung, Aktivitäts- und Geräuschklassifizierung.

Apple Watch

Entwickler können sich auch die Neural Engine von Apple auf der Apple Watch Series 4 mit Core ML zunutze machen. Durch Integration von Core ML-trainierten Modellen in ihre Apps und Interpretationen von Inputs direkt auf dem Gerät erhalten Nutzer Zugriff auf intelligentere Apps. Mit einer neuen API für Audiostreaming können Benutzer nur mit ihrer Apple Watch Inhalte ihrer bevorzugten Medienapps anderer Anbieter streamen. Eine erweiterte Runtime API gibt Apps zusätzliche Zeit, um Aufgaben auf der Apple Watch zu erledigen, während die App im Vordergrund bleibt, selbst wenn sich das Display ausschaltet. Dazu gehört auch der Zugriff auf zugelassene Sensoren, die Herzfrequenz, Standort und Bewegung messen.

www.apple.com/de/
 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.