Allgemein Für Administratoren Für Architekten Für Entwickler Für Projektleiter Für Tester News Produkte Publikationen
X
Thomas Rümmler
Thomas Rümmler arbeitet als Managing Consultant und Projektleiter bei AIT und ist von Microsoft als Most Valuable Professional (MVP) für Visual Studio & Development Technologies ausgezeichnet worden. Sein Arbeitsschwerpunkt liegt auf Application Lifecycle Management und DevOps. Thomas hilft Unternehmen ihren Entwicklungsprozess ganzheitlich zu verbessern. Seine Erfahrung gibt er als Autor des TFS-Blogs und Sprecher im Microsoft DevOps Umfeld weiter.

Thomas Rümmler

ALM Summit – Teil 2

Donnerstag, 31. Januar 2013

Ein weiterer Tag auf dem ALM Summit ist zu Ende gegangen. In diesem Artikel möchte ich wieder einige Highlights des Tages kurz zusammenfassen.

Den Auftakt hat Brian Harry mit einer großartigen Keynote names „Building an Engineering Organization for Continuous Delivery“ gemacht. Brian hat folgende Industry Trends im ALM-Bereich hervorgehoben:

  • Change is the new normal
  • The Build, Measure, Learn virtuous circle
  • Continuous feedback and delivery
  • Burring functional boundaries
  • Distributed Teams

Da sich auch Microsoft diesen Herausferderungen stellt, gab es einige Einblicke in die Entwicklung innerhalb von Brians Team mit einer Größe von ca. 100 Personen. Es gibt eine Gesamtplanung mit einem zeitlichen Horizont von 18 Monaten, bei der auf hohem Abstraktionsniveau der geplante Kundennutzen definiert wird. Diese wird dann in eine 6-Monatsplanung heruntergebrochen, bei der bereits Features unter Verwendung von Storyboards erstellt werden. Mit einer Vorausschau von 2-3 Sprints werden User Stories geplant. Die eigentliche Detailplanung und Implementierung erfolgt dann für einen Sprint mit einer Länge von drei Wochen.

Besonders interessant ist, dass Microsoft hier einen Wandel von E-Mails am Sprintende, über Demos der erreichten Pakete bis hin zur Auslieferung des eingecheckten Codes auf TFService (http://tfs.visualstudio.com) durchlaufen hat. Alle am Ende eines Sprints eingecheckten Sourcen werden auch ausgeliefert – es besteht lediglich die Möglichkeit, einzelne Funktionen per Konfiguration noch vor den Anwendern zu „verstecken“. Dies hat auch zu einer Veränderung in der Denkweise der Entwickler geführt, denn diese müssen bei ihren Änderungen stets an die Updatefähigkeit denken.

Brian hat die Keynote auch genutzt, um neue Visual Studio und TFS Features anzukündigen, die unter anderem im Visual Studio 2012 Update 2 CTP 2 verfügbar sind. Dazu zählen „Work Item Tagging“, „Web Test Case Management“, „Unit testing improvements“, „Office 2013 support“ sowie „Blend for WPF, Silverlight and Sketchflow“. Details zu den neuen Features hat Brian heute ebenfalls auf seinem Blog in den beiden Artikeln Announcing Visual Studio 2012 Update 2 (VS2012.2) und Git in VS veröffentlicht.

Zu dem zuletzt genannten Punkt ist aufgefallen, dass das Thema Git-Integration einen besonders hohen Stellenwert hat. Im Vortrag „Version Control On Your Terms“ von Martin Woodward, stand das Thema Git ebenfalls mit großem Abstand im Vordergrund. Beim Anlegen eines neuen Team Projects kann man entscheiden, ob man als Version Control System Team Foundation Version Control oder Git benutzen möchte. Im Falle von Git sind die Daten ebenfalls in der gleichen Datenbank des Team Foundation Servers gespeichert – es sieht alles nach einer absoluten Integration aus. Der Team Explorer selbst erweitert sich damit jedoch auch zu einem eigenständigen, vollwertigen Git-Client – auch ohne den Einsatz des TFS. Außerdem hat Martin noch viele weitere kleinere neue Features vorgestellt, die insbesondere auf die Usability zielen. Ein Beispiel ist der Full Screen Mode in der Diff-Ansicht innerhalb des Web Access. Auf die Frage, wann diese Featuers in der On Premise Variante des TFS verfübar seien, antwortete er ganz trocken: „In a future release“.

Kris Lankford hat unter der Überschrift „Testing in the Cloud“ eindrucksvoll über die Scale-out Möglichkeiten von Tests unter Verwendung von Cloud-Technologien, speziell Windows Azure, berichtet. Dies ist insbesondere für Load Tests von besonderer Bedeutung, da es hierfür von Windows Azure besonders gut integrierte Unterstützung gibt. Kris sieht im Testumfeld folgende Schwerpunktthemen:

  • Production Readiness
  • Continuous Delivery
  • Automation
  • Root Cause Analysis & Baseline Monitoring
  • Real-world scnarios leveraging the cloud

James Whittaker hat mit einer sehr erfrischenden Session über den Wandel der IT insbesondere mit Blick auf Daten referiert. Er beschreibt den Wandel seit den 90er Jahren in drei Schritten.

90er (Store & Compute) -> 2000er (Search & Browse) -> 2010er (Know and Do)

Dabei hat James mit teils extremen Aussagen wie

„Data is the new currency of know and do“ 

die Aufmerksamkeit auf sich gezogen. Das Zeitalter der Integration von Daten über Grenzen von Anwendungen und Devices hinweg ist angebrochen. Statt sich auf einzelne Bausteine in Form von Apps zu konzentrieren, ist es besser sich auf Use Cases zu konzentrieren und dabei die technischen Hürden zu überwinden.

Mit der Session „Data Driven Decision Making“ hat Erik Zigman über Entscheidungen bzgl. der Anwendungsgestaltung auf Basis statistischer Auswertungen gesprochen. Unter Verwendung vieler Beispiele aus seiner Zeit bei Microsoft Bing hat Erik erklärt, wie durch ständige Messung und Auswertung von Benutzerverhalten eine Anwendung kontinuierlich verbessert werden kann. Dabei kommt der Kontinuität eine führende Rolle zu, denn nur durch einzelne Veränderungen zu einem Zeitpunkt lässt sich eine Aussage von Änderung auf Benutzerverhalten ableiten. Dies ist natürlich bei Webanwendungen viel enifacher realisierbar, als bei Softwareprodukten, die die Kunden selbst auf ihren Systemen installieren. Wichtig, jedoch auch schwierig herauszufinden ist laut Kris, die richtigen Metriken anzuwenden: „Measure what matters“.

Zum Abschluss des Tages hat Jez Humble das Thema „What is Value?“ aufgegriffen. Es gab in dem Vortrag verschiedene Techniken zur Wertermittlung zu sehen. Darunter waren A | B Tests (der Vergleich des Nutzerverhaltens beim Einsatz von zwei alternativen Lösungen), den Einsatz von Prototypen bei repräsentativen Anwendern, Businessmetriken verwenden sowie der Einsatz von Umfragen und sozialen Medien für Feedback. Hinter dem Namen „hypothesis-driven delivery“ verbirgt sich eine alternative Form der Anforderungsformulierung. Ähnlich der Satzschablone, die von User Stories bekannt ist, wird hier ebenfalls mit strukturierter Formulierung gearbeitet. Dabei stehen jedoch das vermutete zu erreichende Ergebnis im Vordergrund. Ebenfalls sind bereits Indikatoren, die den Erfolg anzeigen, Teil der Formulierung. Jez hat teilweise sehr radikale Ansätze in Bezug auf Kosten- und Wertermittlung und hat damit sehr gute Impulse zum weiteren Nachdenken über die Grenzen der Konferenz hinaus gegeben.

Alles in allem ein weiterer gelungener Tag auf dem ALM Summit 3. Ende der Woche gibt es dann den dritten Beitrag mit den News und Highlights aus Redmond.

Verwandte Artikel:

Benötigen Sie Unterstützung bei der Software-Entwicklung und Architektur von .NET basierten Lösungen oder bei Einführung und Anpassung von Visual Studio / Microsoft Test Manager / Team Foundation Server?

Wir stehen Ihnen unter info(at)aitgmbh.de gerne zur Verfügung.

Hinterlasse eine Antwort