Anwendungsbasierte Infrastrukturen

Die Public Cloud als Entwicklungsmotor

Die Bedeutung von Applikationen nimmt in der Geschäftswelt einen immer höheren Stellenwert ein, um der stetig wachsenden Datenflut Herr zu werden. Man könnte fast sagen: Anwendungsentwickler werden die IT-Welt beherrschen. Vor der Verfügbarkeit von Public Clouds waren die Entstehungsprozesse für Applikationen infrastrukturbasiert und wurden dadurch langwierig und kostenintensiv.

Neue Ideen wurden kritisch hinterfragt. Nur wenn sie massive Einsparungen oder hohe Gewinne versprachen, konnten sie finanziert werden. Entsprechend schwierig gestaltete es sich, neue Innovationen voranzutreiben. Die Public Cloud hat die Entwickler von den langsamen und kostspieligen Prozessen der traditionellen IT-Plattformen befreit. Dadurch verschob sich der Fokus darauf, Innovationen voranzubringen.

Anzeige

Die Public Cloud als Standardplattform für Entwickler

Mit dem Aufkommen der Public Cloud wurden die vormals teuren und langen Prozesse erschwinglich. Applikationen entstehen heute auf Basis von Continuous Integration und Continuous Deployment (CI/CD). Dabei handelt es sich um einen Automatisierungsprozess, der Konflikte bei der Entstehung neuer Anwendungen verhindern soll. Über Microservices wird der Code in der Cloud bereitgestellt und die Entwickler wählen über eine Programmierschnittstelle die für ihre Anforderungen benötigten Ressourcen aus. Dadurch stiegen Public Clouds zur Standardplattform für die Anwendungsentwicklungen auf.

Zunehmende Komplexität von Applikationen

Durch die Möglichkeiten der Public Cloud wurde die Entwicklung von neuen Anwendungen vorangetrieben. Gleichzeitig werden Applikationen sowie die Interaktionen mit anderen Anwendungen und Systemen jedoch immer komplexer – außerdem ändern sich die Anforderungen ständig. Zudem müssen die Programmierer die Infrastruktur genau verstehen, um ihren Code zu entwickeln und provisionieren. Ohne dieses Verständnis werden Ressourcen allerdings nicht effizient eingesetzt. Deutlich einfacher ist es, wenn die Anwendung der Infrastruktur automatisch den Ressourcenbedarf für einen optimalen Betrieb mitteilt. Faktoren wie Leistung, Verfügbarkeit und Kosten können dann optimiert werden, ohne dass die Entwickler manuell nachjustieren. Damit wird die Praxis vermieden, übermäßig viele Ressourcen zu blockieren, von denen viele ungenutzt bleiben.

Das ist insbesondere ein Problem, weil diese beiden Faktoren bis zu 70 Prozent der Infrastrukturkosten ausmachen. Selbst in der Public Cloud bestimmt deshalb immer noch die Infrastruktur die Anwendung. Besser wäre es, wenn sich die Ressourcen besser an die Anforderungen der Applikation anpassen.

NL Icon 1
Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.

Application Driven Infrastructure optimieren den DevOps-Prozess

Dabei unterstützt eine anwendungsbasierte Infrastruktur (Application Driven Infrastructure, ADI) das Cloud-Operations-Team. Bei ADI handelt es sich um eine Cloud-Infrastruktur, die Analytics-Methoden und maschinelles Lernen einsetzt, und sich so kontinuierlich an die Anforderungen der Anwendungen anpasst. Die Cloud-Ressourcen können dadurch unter Einhaltung der vertraglich vereinbarten Service-Level-Agreements (SLA) und Service-Level-Objctives (SLO) in Echtzeit optimiert werden. Die Ausgaben für Compute- und Storage-Infrastrukturen lassen sich so um bis zu 90 Prozent reduzieren.

ADIs ermitteln automatisch die benötigte Leistung und Kapazität. Entwickler müssen sich keine Gedanken mehr über die Infrastruktur machen. Diese automatische Skalierung ermöglicht gleichzeitig eine hohe Kostenersparnis. Anwendungen erhalten jederzeit genau die Ressourcen, die sie benötigen, und erbringen in der Folge immer die optimale Leistung.

Mit der Übernahme von Spot hat NetApp einen weiteren Schritt getan, um seine Kunden im Entwicklungsprozess mit anwendungsbasierten Infrastrukturen zu unterstützen. Durch den Einsatz von Komprimierungs-, Dedup- und Tiering-Technologien lassen sich viele Kosten einsparen. Gleichzeitig können Rechenkapazitäten automatisch skaliert und somit optimal eingesetzt werden. Entwickler können sich dadurch stärker darauf konzentrieren, neue Anwendungen zu entwickeln, anstatt sich mit den technischen Anforderungen der Infrastruktur auseinanderzusetzen.

 

Anthony Lye

NetApp -

Senior Vice President & GM Public Cloud Services

Artikel zu diesem Thema

Weitere Artikel

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.